L’ho notato per la prima volta quando, qualche mese fa, ho aperto un’e-mail di Ian, il mio agente letterario. Prima che avessi la possibilità di leggere qualsiasi cosa avesse scritto, Gmail mi consigliava una risposta completa, arricchita, generata dall’intelligenza artificiale, idee ventriloquenti per un libro e persino i miei sentimenti riguardo alla transizione lavorativa che avevo fatto di recente. Aveva minato la mia casella di posta per dedurre il motivo per cui Ian mi scriveva e aveva assorbito parti del mio stile, chiudendo anche con la “m” minuscola che uso con le persone con cui ho una facile familiarità.
Per circa un decennioGoogle suggeriva “risposte intelligenti” molto generiche, a volte monosillabiche, come “Okay” o “Grazie!” o “Qualche idea?” Li ho usati per inviare rapidi riconoscimenti a e-mail di cui altrimenti mi sarei dimenticato. Ma negli ultimi due anniGmail ha iniziato a offrire bozze di risposte completamente formulate che presumono di impersonare le mie reazioni individuali alle domande, alle idee e alle emozioni dei miei interlocutori.
Sembrava una svolta sorprendente. Ho riflettuto con una certa tristezza sull’idea di inviarne uno a qualcuno che conta per me: quanto sarebbe disumanizzante sia per me che per Ian fargli leggere una soggettività contraffatta che finge di essere la mia.
Potresti dire che questo non è un grosso problema; forse ti restituisce tempo per un lavoro più profondo o per parti più significative della tua vita (non lo rimprovererei affatto: l’intelligenza artificiale fa risparmiare tempo anche a me!). Stiamo tutti affogando in troppe e-mail, la maggior parte delle quali inutili o prive di grande significato. Non è proprio questo il tipo di noia quotidiana da cui dovremmo invitare felicemente l’intelligenza artificiale a liberarci?
Ma penso che questa corrispondenza personale generata dalle macchine, che probabilmente si diffonderà ulteriormente in altre forme di comunicazione, mi abbia preoccupato perché qui sta succedendo qualcosa di più profondo. Negli ultimi anni è stato versato molto inchiostro sulla scrittura generata dall’intelligenza artificiale e sulle sue conseguenze sociali dequalificazioni di milioni di lavoratori, esternalizzare il nostro pensieroconfondono i bambini che crescono nell’era dell’intelligenza artificiale sulla differenza tra amici veri e sinteticie così via. Sappiamo già che il linguaggio dell’intelligenza artificiale lo è inquietantemente buono a sembrare il prodotto di una coscienza comune. Ma la particolarità del completamento automatico elaborato delle e-mail è che si tratta di addestramento e simulazione tuo coscienza. E così facendo, ti dà anche un po’ meno motivo di essere effettivamente cosciente.
Scrittura AI e “resa cognitiva”
Come molti lavoratori della conoscenza che traggono il loro vivere e la loro identità dalle capacità cognitive ora essendo almeno parzialmente replicato nel silicio, ho un rapporto complicato e ambivalente con l’intelligenza artificiale generativa. Ora dipendo da esso per ricercare quasi tutte le storie su cui lavoro, uno scopo per il quale è ovviamente molto utile (malgrado coloro che ancora insistono sul fatto che non potrà mai essere utile a nulla).
Sono, però, profondamente scettico riguardo al suo utilizzo per la scrittura, perché, come molti scrittori più intelligenti di me hanno già fatto notatola scrittura è inestricabile dal pensiero e cortocircuitarla può diminuire la nostra capacità di pensiero profondo. L’attrito della scrittura non è un peso morto ma fa parte del modo in cui decidi cosa intendi e dai coerenza alle idee. Per questo motivo, la mia ex collega di Vox, la brillante Kelsey Piper, che è generalmente positiva riguardo al potenziale dell’intelligenza artificiale nel renderci più produttivi e migliorare la vita umana, disse in un recente episodio di podcast, “Non lo userei mai per scrivere”.
In un recente articolo, a paio degli studiosi dell’Università della Pennsylvania hanno descritto l’esternalizzazione all’ingrosso di compiti cognitivamente complessi all’intelligenza artificiale come “resa cognitiva”. “Un’abdicazione alla valutazione critica”, scrivono, “in cui l’utente rinuncia al controllo cognitivo e adotta il giudizio dell’intelligenza artificiale come proprio”. Questo è uno dei motivi per cui mi è sembrato particolarmente inappropriato che l’intelligenza artificiale generasse pensieri per me in risposta a qualcuno con cui sto facendo un brainstorming sulla scrittura di un libro, probabilmente una delle cose più impegnative dal punto di vista cognitivo che farò mai. Anche la posta elettronica, nonostante tutti i suoi fastidi, è relazionale. E lasciare che sia una macchina a generare la tua parte dello scambio diminuisce l’autenticità della tua connessione con un’altra persona.
A volte le bozze dell’IA, ovviamente, sono chiaramente sbagliate. Un’e-mail suggerita dall’intelligenza artificiale potrebbe, ad esempio, dire che hai letto un libro che non hai letto, forse rendendo più probabile che tu accetti la falsa affermazione. Ma ciò che mi inquieta di più non è la semplice allucinazione, è quando l’intelligenza artificiale ha ragione, o abbastanza ragione. L’intelligenza artificiale della mia e-mail attinge dalla sua conoscenza di tutto ciò che ho scritto in precedenza, quindi spesso può fare un’ipotesi ragionevole di ciò che vorrei dire comunque. Il sistema non fallisce del tutto nel riprodurre la mia mente, ma in realtà ne sta producendo un sostituto quasi plausibile.
Sembra l’inizio di ciò che la Silicon Valley ha profetizzato per decenni come imminente unire (a volte chiamata “singolarità”) tra la mente umana e quella della macchina. Un tempo la consideravo un’idea del tutto improbabile, ma non ero stata abbastanza aperta di mente. Potrebbe rivelarsi terribilmente facile per un’intelligenza artificiale avanzata addestrarsi su un campione dei tuoi pensieri passati e scrivere quelli futuri per te.
Tuttavia, sembra improbabile che ci abitueremo semplicemente all’idea che tutta la comunicazione scritta che incontriamo e generiamo ogni giorno possa essere generata dall’intelligenza artificiale. Gran parte, se non la maggior parte, della nostra comunicazione interpersonale avviene ormai per iscritto. Per quanto vulnerabili possiamo essere alla resa cognitiva, gli esseri umani hanno anche un profondo bisogno compensativo di sperimentare il linguaggio come se provenisse da un’altra mente cosciente – per sentirsi visti e conosciuti e per affermare in cambio la propria distinzione.
E comunque Gmail non lo è ancora Quello bravo a imitare la mia voce cosciente. Non scriverei mai: “Un sacco di cose interessanti in arrivo su Vox!” (Il che, ovviamente, non vuol dire che non ci siano molte cose interessanti su Vox.) Questo mi lascia ancora, per ora, con il piacere di capire cosa voglio dire.

