Questa settimana, le giurie California E Nuovo Messico ha emesso un paio di verdetti storici contro i giganti americani dei social media.
A Los Angeles, i giurati hanno assegnato 6 milioni di dollari a una giovane donna che sosteneva che Instagram e YouTube avessero danneggiato la sua salute mentale. Il giorno prima, una giuria di Santa Fe aveva stabilito che Meta aveva progettato le sue piattaforme di social media in modo da danneggiare i minori e aveva ordinato alla società di pagare 375 milioni di dollari a titolo di risarcimento.
Queste decisioni hanno costituito una svolta per un movimento legale che vede le società di social media come il nuovo “Grande Tabacco” – un’industria che spaccia consapevolmente prodotti dannosi e che creano dipendenza. Ed è stato un trionfo per i sostenitori di “sicurezza online dei bambini“, che credono che i social media siano corrosivi per il benessere psicologico dei minori. Con migliaia di cause legali simili pendenti, i verdetti della California e del New Mexico potrebbero rivelarsi precedenti trasformativi.
Eppure anche le decisioni lo hanno fatto lanciato l’allarme campanello d’allarme per molti sostenitori della libertà di parola. Alle organizzazioni come il FUOCO – e agli scrittori libertari civili piace La ragione Elizabeth Nolan Brown — queste decisioni contribuiranno più a indebolire la libertà di espressione online che a salvaguardare il benessere mentale dei giovani.
Per comprendere meglio – e interrogare – questa prospettiva, ho parlato con Nolan Brown. Abbiamo discusso di come i recenti verdetti potrebbero aprire la porta a una censura più ampia, delle prove dei danni psicologici dei social media e della possibilità che i genitori possano proteggere sufficientemente i propri figli dall’uso problematico di Internet senza l’aiuto del governo. La nostra conversazione è stata modificata per chiarezza e concisione.
Hai scritto che questi verdetti sono “un pessimo presagio per l’internet aperta e la libertà di parola”. Come mai?
Una protezione fondamentale per la conversazione online è Sezione 230 del Federal Communications Decency Actche impedisce alle piattaforme online di essere ritenute responsabili per i discorsi che ospitano ma non creano.
Ciò a cui assistiamo in questi casi è un tentativo di aggirare la Sezione 230 riqualificando i problemi linguistici come problemi di “responsabilità del prodotto”. Invece di dire: “Stiamo perseguitando piattaforme che ospitano discorsi dannosi”, i querelanti stanno dicendo: “Li stiamo perseguitando per negligenza nella progettazione del prodotto”.
In altre parole, le scelte che le società di social media fanno su come curare i propri feed o incoraggiare il coinvolgimento.
Giusto. Alcune delle cose di cui si lamentavano erano lo “scorrimento infinito” (dove continui a scendere e il feed non si ferma alla fine di una pagina), algoritmi di raccomandazione che promuovono contenuti con cui è più probabile che un utente interagisca e filtri di bellezza.
Ma alla fine, se guardi a cosa stanno effettivamente cercando, tutto si riduce a parole. Quando parli di TikTok o di YouTube così coinvolgenti da creare “dipendenza”, stai parlando di contenuti: non importa come è progettato l’algoritmo di TikTok, non sarebbe convincente per le persone se il contenuto non fosse convincente.
Allo stesso modo, nel caso della California, la querelante ha sostenuto che Meta consentendo filtri di bellezza sulle immagini era una progettazione del prodotto negligente, poiché promuovono standard di bellezza non realistici, che le hanno fatto sviluppare problemi di immagine corporea.
Ma in realtà questo torna al discorso: la scelta di utilizzare un filtro è qualcosa che i singoli utenti fanno per esprimersi. Fornire questi strumenti agli utenti è una forma di discorso.
Ma molte di queste scelte di progettazione del prodotto non sono neutre rispetto al contenuto? Un difensore di questi verdetti potrebbe obiettare: le società di social media stanno manipolando i minori inducendoli a utilizzare compulsivamente le loro piattaforme, in un modo che è dannoso per la loro salute mentale. E lo fanno, in parte, attraverso notifiche push, video a riproduzione automatica e feed a scorrimento infinito. Quindi, perché non possiamo limitare legalmente l’uso di tali funzionalità? senza limitare il tipo di discorso a cui è consentito fare piattaforma?
Alcune persone diranno: “Perché non limitiamo le notifiche – o escludiamo le persone dopo un’ora – se sono minorenni?” Ma per implementare qualsiasi insieme di regole o scelte di progettazione del prodotto solo per i giovani, queste piattaforme dovrebbero avere un modo infallibile per sapere chi è minorenne e chi è adulto.
E questo significa procedure di verifica dell’età, in cui controllano i documenti d’identità rilasciati dal governo di tutti, oppure utilizzano dati biometrici – o qualcos’altro che richiede a tutti di inviare un documento d’identità prima di poter parlare ovunque su Internet.
E questo crea molti problemi. Rende i dati delle persone più vulnerabili al furto di identità, agli hacker e ai truffatori. Significa anche che la tua identità è legata a tutto ciò che fai online. E questo può essere pericoloso, soprattutto per le persone che parlano di questioni delicate o protestano contro il governo. La capacità di parlare e organizzarsi online in modo anonimo è molto importante.
Cosa accadrebbe se le restrizioni sulla progettazione del prodotto si applicassero sia agli adulti che ai minori? Se impedissimo alle società di social media di inviare notifiche push per tutti, ciò eviterebbe il problema della verifica dell’età, giusto?
Molte piattaforme offrono già alle persone gli strumenti per fare queste cose. Puoi disattivare la riproduzione automatica. Puoi avere un feed cronologico. Puoi personalizzare le tue impostazioni in modo da non avere queste funzionalità.
Se diciamo: “Perché il governo non può imporre queste opzioni?” Penso che sia un terreno molto scivoloso. Potresti pensare: “Okay, a chi importa delle notifiche push? Perché il governo non può semplicemente imporre che non si utilizzino le notifiche push?” Ma la logica di ciò ci porta in un territorio molto più ampio.
In effetti sta dicendo: poiché alcune persone avranno problemi con questo, il governo deve gestire nei dettagli il modo in cui viene realizzato il prodotto. Eppure le persone possono utilizzare tutti i tipi di prodotti in modo problematico: regimi di fitness, servizi di streaming, cibo. E non stiamo dicendo, ok, che il governo possa intervenire e dirlo a queste aziende esattamente come fare affari nel modo meno dannoso per le persone. E questo atteggiamento è particolarmente pericoloso quando parliamo di prodotti che coinvolgono la parola.
Uno scettico potrebbe obiettare che la pendenza qui non è poi così scivolosa. Dopotutto, il governo ha già dimostrato di poter adottare restrizioni mirate e neutre rispetto al contenuto senza innescare una cascata di censura.
Ad esempio, dal 1990, ci sono stati limiti alla quantità di pubblicità che possono essere trasmessi durante la programmazione per bambini in una determinata ora e anche il requisito che gli annunci pubblicitari e i contenuti siano chiaramente separati. Tali misure sono probabilmente più intrusive nei confronti del parlato rispetto, ad esempio, al divieto di riproduzione automatica dei video su una piattaforma di social media. Eppure, il Children’s Television Act del 1990 non ha portato ad alcuna limitazione radicale sui diritti del Primo Emendamento.
Penso solo che faccia una grande differenza se si parla di limitare la libertà di parola per i minori e di limitarla per gli adulti. E quello che stavi appena menzionando erano restrizioni che si applicherebbero a tutti.
Al di là delle questioni relative al Primo Emendamento, hai espresso un certo scetticismo riguardo alle specifiche affermazioni causali avanzate dai querelanti in questi casi: in particolare, che i social media abbiano causato loro problemi di salute mentale. Eppure molti psicologi sociali, soprattutto Jonathan Haidt – hanno sostenuto che queste piattaforme sono corrosive per la psicologia dei bambini. Quindi, perché pensi che le accuse qui siano sopravvalutate?
Nello specifico, nel caso della California, questa giovane donna sostiene che, poiché era sui social media da quando era molto giovane, ha sviluppato problemi di salute mentale. Ma c’erano molte testimonianze che dimostravano che c’erano molte altre cose che andavano storte nella sua vita. È stata esposta a violenza domestica. Ha avuto problemi con i suoi genitori, problemi a scuola.
Quindi l’idea che i social media abbiano causato direttamente le sue difficoltà – piuttosto che questi fattori di stress della vita che sono ben noti per causare danni – penso che sia un po’ sospetta.
E penso che questo problema si veda nella ricerca più ampia sugli impatti dei social media sulla salute mentale. C’è spesso a correlazione tra sintomi depressivi e uso intensivo dei social media Perché le persone che attraversano momenti difficili a casa e a scuola – persone socialmente isolate – tendono a utilizzare i social media più delle persone in circostanze migliori.
In che misura le tue opinioni sulla regolamentazione dei social media dipendono dallo scetticismo riguardo ai danni reali di queste piattaforme? Se acquisissimo prove del fatto che ci sono stati davvero impatti importanti in questo caso – che la riproduzione automatica e i filtri di bellezza stanno peggiorando drasticamente la salute mentale dei bambini – sosterresti le restrizioni legali su queste funzionalità? Oppure le considerazioni del Primo Emendamento prevarrebbero sulle preoccupazioni per la salute pubblica, indipendentemente dalle prove?
La forza delle prove è importante per guidare il processo decisionale di individui, genitori, famiglie, comunità e distretti scolastici. Ma anche se sapessimo che i filtri di bellezza causano molti danni, il governo non sarebbe comunque giustificato a vietarli, poiché sono mezzi di comunicazione. Molte persone non ne vengono danneggiate.
Ci sono tante cose che danneggiano alcune persone, ma che sono utili ad altre. E non penso che l’esistenza di un uso problematico giustifichi il divieto di queste cose per tutti.
Penso che parlare di “dipendenza” dai social media possa essere inutile su questo fronte. Quel linguaggio suggerisce che questo è qualcosa che è automaticamente dannoso per tutti. E non è proprio così. Molte persone usano i social media in modo sano, nello stesso modo in cui innumerevoli persone possono bere alcolici senza che questo li danneggi o mangiare un pacchetto di patatine senza abbuffarsi.
Penso che sia lo stesso con i social media. Questa è una tecnologia che può danneggiare alcune persone, in particolare quelle che hanno già problemi psicologici.
Ma non è questa sostanza che crea dipendenza o un veleno a cui non puoi nemmeno esporti, o altro. Penso che questa visione conferisca agli smartphone una qualità quasi mistica.
Ci sono molti casi, però, in cui scegliamo di regolamentare pesantemente una sostanza o una pratica – non perché danneggi tutti coloro che ne fanno uso – ma piuttosto perché impone massiccio danni su una minoranza di utenti problematici. Il gioco d’azzardo e l’alcol sono due esempi. Ma anche con gli oppioidi, molte persone possono prendere alcune pillole e non sviluppare mai una dipendenza. Eppure alcuni finiscono per diventare dipendenti e morire di overdose. E per questo motivo limitiamo fortemente l’accesso agli oppioidi.
Quindi, penso che la domanda qui potrebbe non essere tanto se i social media siano dannosi tutti che se abbia danni veramente grandi per gli utenti problematici.
Penso che ci siano persone che ne parlano come fai tu. Ma altri descrivono i social media come se fossero qualcosa contro cui le persone non hanno alcun potere. Ma sì, non penso che abbiamo prove concrete che questo sia dannoso come lo sono le sostanze che creano dipendenza. In effetti, penso che le prove siano davvero contrastanti. Alcuni studi suggeriscono che l’uso moderato degli smartphone è in realtà correlato a migliori risultati in termini di salute mentale.
Sostieni che, invece di cercare restrizioni governative sui social media, i genitori dovrebbero esercitare maggiore responsabilità sull’uso degli smartphone e delle app da parte dei propri figli.
Molti genitori sostengono che la loro capacità di monitorare l’uso dei social media da parte dei propri figli è davvero limitata e che non dispongono degli strumenti per proteggere i propri figli dagli effetti dannosi di queste piattaforme. Cosa diresti loro?
Penso che questo sia semplice con i bambini molto piccoli. Ad esempio, perché un bambino di 6 anni trascorre del tempo da solo su un dispositivo digitale? Nel caso della California, il querelante utilizzava i social media come mezzo di comunicazione molto bambino piccolo. E a quell’età, i genitori hanno sicuramente il controllo su ciò che i loro figli fanno e vedono online; puoi controllare se tuo figlio ha accesso a uno smartphone. Con gli adolescenti, ci sono aree in cui le aziende tecnologiche lavorano con i genitori. Negli ultimi anni abbiamo visto l’introduzione di più controlli parentali. Abbiamo visto il lancio di Meta in modo specifico conti per i minori che hanno alcune restrizioni su di loro. Abbiamo visto cose come l’introduzione dei telefoni che consentono SMS di base ma non alcune app. Quindi, penso che qui siano possibili soluzioni private. Penso che possiamo rispondere alle legittime preoccupazioni delle persone senza che il governo violi la libertà di espressione.
