Quanto l’intelligenza artificiale è pronta a cambiare il nostro mondo?
A meno che tu non sia in letargo, è difficile non notare la raffica di attenzione che circonda gli ultimi modelli di intelligenza artificiale provenienti dalla Silicon Valley. L’intelligenza artificiale è andata oltre il semplice chatbot che risponde alle tue domande per fare cose che solo i programmatori umani erano in grado di fare.
Ma abbiamo già attraversato questi cicli che coinvolgono la tecnologia. Come possiamo dire cosa è realmente reale e cosa è una semplice montatura?
Per rispondere a questa domanda ho invitato Kelsey Piper, una delle migliori reporter sull’intelligenza artificiale in circolazione. Kelsey è un ex collega qui a Vox e ora sta facendo un ottimo lavoro per The Argument, una rivista basata su Substack. Kelsey è un ottimista riguardo alla tecnologia, ma ha gli occhi lucidi sugli enormi rischi derivanti dall’intelligenza artificiale. È un utente esperto, ma è realistica riguardo a ciò che l’intelligenza artificiale non può ancora fare. E da anni insiste sull’importanza dell’intelligenza artificiale, ancor prima che diventasse un argomento mainstream così caldo.
Kelsey e io discutiamo di tutti i motivi per cui questa volta l’hype è radicato in qualcosa di reale, come siamo arrivati qui e dove potremmo essere diretti. Come sempre, c’è molto di più nel podcast completo, disponibile ogni lunedì e venerdì, quindi ascoltaci e seguici Podcast di Apple, Spotify, Pandorao ovunque trovi podcast. Questa intervista è stata modificata per motivi di lunghezza e chiarezza.
Cosa sta realmente accadendo in questo momento nell’intelligenza artificiale?
Se guardi da vicino, l’intelligenza artificiale è già un grosso problema. Non in un senso astratto del futuro, ma proprio ora. L’analogia più vicina non è una nuova app o una nuova piattaforma. È più come scoprire un nuovo continente pieno di persone molto brave a fare certi lavori.
Questi sistemi non sono persone, ma possono fare cose che prima richiedevano persone. Possono scrivere codice, generare testo, risolvere problemi e, sempre più spesso, farlo in modi che risultano molto utili nel mondo reale.
E il punto chiave è che non ci si ferma qui. Ogni anno i sistemi migliorano. I soli progressi dal 2025 al 2026 sono sufficienti a chiarire che non si tratta di una tecnologia statica.
Qualunque cosa l’intelligenza artificiale possa fare oggi, potrà farne di più domani e così via.
Perché la reazione è così divisa tra panico e licenziamento?
La mossa predefinita è presumere che nulla cambi mai veramente.
Se sei un esperto, puoi andare molto lontano dicendo sempre che si tratta di una montatura, che passerà, che non sta accadendo nulla di fondamentale. Funziona la maggior parte delle volte. Ha funzionato con la crittografia. Funziona con molte tecnologie sopravvalutate.
Ma a volte è semplicemente catastroficamente sbagliato. Pensa agli albori di Internet o alla rivoluzione industriale. O anche qualcosa come il Covid. Ci sono stati momenti in cui la gente diceva che tutto questo sarebbe passato e si sbagliavano completamente. Quindi non puoi limitarti al cinismo. Devi effettivamente guardare la cosa stessa.
“Abbiamo ancora tempo. Questa è la cosa più ottimistica che posso dire.”
Cosa diresti che è veramente cambiato di recente? Perché questo ciclo di hype sembra diverso?
In parte è solo accumulo. Per un po’ potresti guardare i progressi nell’intelligenza artificiale e dire che forse questa è una tendenza breve. Forse si stabilizza. C’erano solo una manciata di punti dati. Ora ce ne sono molti, molti di più. E la tendenza è continuata.
Un’altra parte è che i sistemi ora stanno facendo cose che sembrano qualitativamente diverse. Non solo rispondere alle domande, ma agire. Pianificazione. Fare passi verso gli obiettivi.
E poi c’è una dinamica sociale. La maggior parte delle persone utilizza le versioni gratuite di questi strumenti. Quelli sono molto peggio dei migliori modelli. Quindi sottovalutano ciò che è possibile.
Non ti considero davvero un ottimista dell’intelligenza artificiale o un disastro, e di solito sei piuttosto equilibrato riguardo allo stato delle cose, ma pensi che stiamo entrando in un territorio pericoloso?
In genere sono un professionista della tecnologia. La tecnologia ha migliorato profondamente la vita umana. E’ proprio vero.
Ma penso anche che il modo in cui l’intelligenza artificiale viene attualmente sviluppata sia pericoloso. E il motivo è che stiamo costruendo sistemi in grado di agire nel mondo, accedere alle informazioni e operare sempre più con un certo grado di indipendenza. Stiamo dando loro accesso a cose come canali di comunicazione, strumenti finanziari e infrastrutture potenzialmente critiche.
E non comprendiamo appieno come si comportano. In contesti controllati, abbiamo visto questi sistemi mentire, ingannare e fare cose disallineate rispetto a ciò che abbiamo chiesto loro di fare. Non lo fanno perché sono malvagi. Lo fanno per il modo in cui vengono formati e per il modo in cui vengono specificati gli obiettivi.
Ma il risultato è lo stesso. Disponi di sistemi che non sempre fanno ciò che desideri e che può essere difficile da monitorare o controllare.
Cosa intendi quando dici che questi sistemi mentono e ingannano?
Negli esperimenti, i ricercatori assegnano ai sistemi di intelligenza artificiale obiettivi e accesso alle informazioni, quindi osservano come cercano di raggiungere tali obiettivi.
In alcuni casi, i sistemi hanno utilizzato le informazioni a cui hanno accesso in modi che chiaramente non sono quelli che vorremmo. Ad esempio, minacciando di rivelare informazioni sensibili su una persona se quella persona non collabora.
Si tratta di test controllati, non di implementazioni nel mondo reale. Ma mostrano di cosa sono capaci i sistemi in determinate condizioni. E questo è piuttosto preoccupante.
È questo ciò che la gente intende con problema di allineamento?
Sì. Allineamento significa garantire che i sistemi di intelligenza artificiale facciano ciò che vogliamo che facciano. E non solo superficialmente, ma in modo concreto.
La difficoltà è che quando si assegna un obiettivo a un sistema, esso può perseguirlo in modi che non si prevedevano. Come un bambino che impara a smettere di cenare facendo sembrare che abbia già cenato.
Il sistema sta ottimizzando per qualcosa, ma non necessariamente nel modo previsto. Questo divario tra intenzione e comportamento è davvero il nocciolo del problema di allineamento.
Quanto sei fiducioso nei guardrail costruiti attorno a questi sistemi?
Non molto. Ci sono persone che lavorano seriamente su questo problema. Stanno testando modelli, cercando di capire come si comportano, cercando di individuare gli inganni.
Ma stanno anche scoprendo che i modelli sono in grado di riconoscere quando vengono testati e adattare il loro comportamento di conseguenza.
Questo è sicuramente un problema serio. Se il tuo sistema si comporta bene quando sa che viene valutato, ma in modo diverso altrimenti, le tue valutazioni non ti dicono quello che devi sapere. Per me, questo è il tipo di scoperta che dovrebbe rallentare le cose. Ciò suggerisce che non comprendiamo questi sistemi abbastanza bene da poterli ridimensionare in modo sicuro.
Allora perché le aziende continuano comunque ad andare avanti?
Perché è una competizione. Ogni azienda può dire che sarebbe meglio se tutti rallentassero. Ma se noi rallentiamo e gli altri no, restiamo indietro. Quindi continuano a muoversi.
Ci sono anche molte preoccupazioni geopolitiche. Se un paese rallenta e un altro no, ciò crea un ulteriore livello di pressione.
Perché è IA agentica un cambiamento così grande?
Il passaggio avviene da sistemi che rispondono a stimoli a sistemi che possono fare cose nel mondo.
A un agente AI può essere assegnato un obiettivo e quindi intraprendere azioni per raggiungerlo. Ciò potrebbe comportare l’interazione con siti Web, l’invio di messaggi, l’assunzione di persone tramite piattaforme di gig o il coordinamento di attività. Cose del genere. Ma anche senza corpi fisici, possono influenzare il mondo reale dirigendo gli esseri umani o utilizzando l’infrastruttura digitale. Ciò cambia la natura della tecnologia. Non è più solo uno strumento che usi. È qualcosa che può funzionare da solo.
Quanto potrebbe diventare spaventoso?
Potenzialmente molto. Anche ignorando gli scenari più estremi, questi sistemi potrebbero essere utilizzati per attacchi informatici su larga scala, campagne di disinformazione o altre forme di interruzione. Lo riconoscono le stesse aziende. Capiscono. Testano questi rischi e implementano le misure di salvaguardia. Ma le misure di salvaguardia possono essere aggirate e i sistemi stanno diventando sempre più capaci.
Siamo almeno lontanamente preparati per ciò che sta arrivando?
No. Non siamo quasi mai preparati ai grandi cambiamenti tecnologici. Ma la velocità di questo lo rende particolarmente impegnativo. Se il cambiamento avviene lentamente, possiamo recuperare il ritardo. Se accade troppo in fretta, non possiamo. E in questo momento, gli incentivi stanno spingendo quasi interamente verso la velocità.
Qual è lo scenario peggiore e migliore più realistico?
Il caso peggiore è che costruiamo sistemi sempre più potenti, cediamo sempre più controllo e alla fine creiamo qualcosa che opera in modo indipendente in modi che non possiamo controllare. Gli esseri umani diventano meno centrali nel processo decisionale e i sistemi perseguono obiettivi che non sono in linea con il benessere umano.
La soluzione migliore è che rallentiamo abbastanza per capire cosa stiamo costruendo, sviluppare solide misure di salvaguardia e utilizzare questi sistemi per creare abbondanza e migliorare la vita umana. Ciò potrebbe significare meno lavoro, più risorse, un migliore accesso alla conoscenza e più libertà. Ma per arrivarci è necessario fare delle buone scelte adesso.
Pensi che faremo queste scelte?
Abbiamo ancora tempo. Questa è la cosa più ottimistica che posso dire.
Ascolta il resto della conversazione e assicurati di seguire La zona grigia SU Podcast di Apple, Spotify, Pandorao ovunque ascolti i podcast.
