sabato, Marzo 7, 2026

Se l’intelligenza artificiale diventa una canaglia, ci sono modi per reagire. Nessuno di loro è buono.

Share

Suo consigli vecchi quanto il supporto tecnico. Se il tuo computer sta facendo qualcosa che non ti piace, prova a spegnerlo e riaccenderlo. Quando si tratta delle crescenti preoccupazioni che sono molto avanzate sistema di intelligenza artificiale potrebbe diventare così catastroficamente canaglia da causare un rischio per la società, o addirittura l’umanitàè forte la tentazione di ripiegare su questo tipo di pensiero. Un’intelligenza artificiale è semplicemente un sistema informatico progettato da persone. Se inizia a non funzionare correttamente, non possiamo semplicemente spegnerlo?

  • Una nuova analisi della Rand Corporation discute tre potenziali linee d’azione per rispondere a un incidente di “catastrofica perdita di controllo” che coinvolge un agente di intelligenza artificiale canaglia.
  • Le tre potenziali risposte – progettare un’intelligenza artificiale “cacciatore-assassino” per distruggere il malintenzionato, chiudere parti dell’internet globale o utilizzare un attacco EMP avviato dal nucleare per spazzare via i dispositivi elettronici – hanno tutte probabilità di successo contrastanti e comportano un rischio significativo di danni collaterali.
  • La conclusione dello studio è che siamo tristemente impreparati ai rischi legati all’IA nello scenario peggiore e che sono necessari maggiore pianificazione e coordinamento.

Negli scenari peggiori, probabilmente no. E questo non solo perché un sistema di intelligenza artificiale altamente avanzato potrebbe avere un istinto di autoconservazione e ricorrere a misure disperate per salvarsi. (Versioni del grande modello linguistico di Anthropic Claude ricorse al “ricatto” per preservarsi durante i test pre-rilascio.) È anche perché l’IA canaglia potrebbe essere distribuita troppo ampiamente per essere disattivata. I modelli attuali come Claude e ChatGPT funzionano già su più data center, non su un computer in un’unica posizione. Se un’ipotetica IA canaglia volesse evitare di essere spenta, si copierebbe rapidamente sui server a cui ha accesso, impedendo agli sfortunati e lenti esseri umani di staccare la spina.

Per uccidere un’intelligenza artificiale canaglia, in altre parole, potrebbe essere necessario distruggere Internet, o gran parte di essa. E non è una sfida da poco.

Questa è la sfida che preoccupa Michael Vermeer, uno scienziato senior della Rand Corporation, il think tank con sede in California, un tempo noto per il lavoro pionieristico sulla strategia di guerra nucleare. La recente ricerca di Vermeer ha riguardato i potenziali rischi catastrofici derivanti da IA iperintelligente e ha detto a Vox che quando si considerano questi scenari, “le persone scartano queste opzioni selvagge come possibilità praticabili” su come gli esseri umani potrebbero rispondere senza considerare quanto sarebbero efficaci o se creerebbero tanti problemi quanti ne risolvono. “Potremmo davvero farlo?” si chiese.

Nell’a documento recenteVermeer ha preso in considerazione tre delle opzioni suggerite più frequentemente dagli esperti per rispondere a quello che definisce un “catastrofico incidente di perdita di controllo dell’IA”. Lo descrive come un’intelligenza artificiale canaglia che ha bloccato gli esseri umani fuori dai principali sistemi di sicurezza e ha creato una situazione “così minacciosa per la continuità del governo e il benessere umano che la minaccia richiederebbe azioni estreme che potrebbero causare danni collaterali significativi”. Consideratelo come l’equivalente digitale del I russi lasciano bruciare Mosca per sconfiggere l’invasione napoleonica. In alcuni degli scenari più estremi Vermeer e i suoi colleghi hanno immaginato che potrebbe valere la pena distruggere una buona parte del mondo digitale per uccidere i sistemi canaglia al suo interno.

In (discutibile) ordine crescente di potenziale danno collaterale, questi scenari includono l’impiego di un’altra IA specializzata per contrastare l’IA canaglia; “chiudere” ampie porzioni di Internet; e far esplodere una bomba nucleare nello spazio per creare un impulso elettromagnetico.

Non si esce dal giornale sentendosi particolarmente bene riguardo a nessuna di queste opzioni.

Opzione 1: usa un’IA per uccidere l’IA

Vermeer immagina di creare “parassiti digitali”, organismi digitali automodificanti che colonizzeranno le reti e competeranno con l’intelligenza artificiale canaglia per le risorse informatiche. Un’altra possibilità è una cosiddetta IA cacciatore-assassino progettata per interrompere e distruggere il programma nemico.

L’ovvio svantaggio è che la nuova IA killer, se è abbastanza avanzata da avere qualche speranza di portare a termine la sua missione, potrebbe diventare essa stessa una canaglia. Oppure l’IA canaglia originale potrebbe sfruttarlo per i propri scopi. Nel momento in cui stiamo effettivamente considerando opzioni come questa, potremmo aver superato il punto in cui ci preoccupiamo, ma il potenziale di conseguenze indesiderate è alto.

Gli esseri umani non hanno una grande esperienza nell’introdurre un parassita per eliminarne un altro. Pensaci i rospi delle canne introdotti in Australia negli anni ’30, che in realtà non hanno mai fatto molto per spazzare via gli scarabei che avrebbero dovuto mangiare, ma hanno ucciso molte altre specie e continuano a provocare il caos ambientale fino ai giorni nostri.

Tuttavia, il vantaggio di questa strategia rispetto alle altre è che non richiede la distruzione delle reali infrastrutture umane.

L’articolo di Vermeer considera diverse opzioni per chiudere ampie sezioni dell’Internet globale e impedire la diffusione dell’intelligenza artificiale. Ciò potrebbe comportare la manomissione di alcuni dei sistemi di base che consentono a Internet di funzionare. Uno di questi è il “border gateway protocols” o BGP, il meccanismo che consente la condivisione delle informazioni tra le numerose reti autonome che compongono Internet. Cosa era un errore BGP ha causato una massiccia interruzione di Facebook nel 2021. In teoria, BGP potrebbe essere sfruttato per impedire alle reti di comunicare tra loro e chiudere parti dell’Internet globale, anche se la natura decentralizzata della rete renderebbe questa operazione complicata e dispendiosa in termini di tempo.

C’è anche il “domain name system” (DNS) che traduce nomi di dominio leggibili dall’uomo come Vox.com in indirizzi IP leggibili dalla macchina e si basa su 13 server distribuiti a livello globale. Se questi server venissero compromessi, ciò potrebbe impedire l’accesso ai siti Web per gli utenti di tutto il mondo e potenzialmente anche alla nostra intelligenza artificiale canaglia. Anche in questo caso, però, sarebbe difficile disattivare tutti i server abbastanza velocemente da impedire all’intelligenza artificiale di adottare contromisure.

Il documento considera anche la possibilità di distruggere l’infrastruttura fisica di Internet, come ad esempio cavi sottomarini attraverso i quali passa il 97% del mondo il traffico internet viaggia. Ciò è recentemente diventato una preoccupazione nel mondo della sicurezza nazionale tra esseri umani. Il sospetto sabotaggio via cavo ha interrotto il servizio Internet isole che circondano Taiwan e sulle isole dell’Artico.

Ma a livello globale, ci sono semplicemente troppi cavi e troppe ridondanze perché un arresto sia fattibile. Questa è una buona cosa se sei preoccupato che la Terza Guerra Mondiale possa mettere fuori uso Internet globale, ma è una cosa negativa se hai a che fare con un’intelligenza artificiale che minaccia l’umanità.

Opzione 3: Morte dall’alto

Nell’a Test del 1962 noto come Starfish Primegli Stati Uniti hanno fatto esplodere una bomba all’idrogeno da 1,45 megatoni a 250 miglia sopra l’Oceano Pacifico. L’esplosione ha causato un impulso elettromagnetico (EMP) così potente da mettere fuori uso i lampioni e il servizio telefonico alle Hawaii, a più di 1.600 miglia di distanza. Un EMP provoca un aumento di tensione abbastanza potente da friggere un’ampia gamma di dispositivi elettronici. Gli effetti potenziali nel mondo di oggi, molto più dipendente dall’elettronica, sarebbero molto più drammatici di quanto lo fossero negli anni ’60.

Alcuni politici, come l’ex presidente della Camera Newt Gingrich, lo hanno fatto trascorso anni avvertimento sui potenziali danni che un attacco EMP potrebbe causare. L’argomento è tornato nelle notizie l’anno scorso, grazie all’intelligence statunitense che la Russia lo era sviluppare un ordigno nucleare da lanciare nello spazio.

L’articolo di Vermeer immagina che gli Stati Uniti facciano esplodere intenzionalmente testate nello spazio per paralizzare le telecomunicazioni, l’energia e le infrastrutture informatiche terrestri. Potrebbero essere necessarie dalle 50 alle 100 detonazioni in totale per coprire il territorio degli Stati Uniti con un impulso abbastanza forte da svolgere il lavoro.

Questo è lo strumento schietto definitivo con cui vorresti essere sicuro che la cura non sia peggiore della malattia. Gli effetti di un EMP sui dispositivi elettronici moderni – che potrebbero includere misure di protezione da sovratensione nella loro progettazione o potrebbero essere protetti da edifici – non sono ben compresi. E nel caso in cui l’intelligenza artificiale sopravvivesse, non sarebbe l’ideale per gli esseri umani paralizzare i propri sistemi di potere e di comunicazione. C’è anche la prospettiva allarmante che, se i sistemi di altri paesi venissero colpiti, potrebbero reagire contro quello che sarebbe, in effetti, un attacco nucleare, non importa quanto altruistiche siano le sue motivazioni.

Considerando quanto poco attraenti siano ciascuna di queste linee d’azione, Vermeer è preoccupato per la mancanza di pianificazione da parte dei governi di tutto il mondo per questi scenari. Nota, tuttavia, che solo di recente i modelli di intelligenza artificiale sono diventati abbastanza intelligenti da consentire ai politici di iniziare a prendere sul serio i rischi che comportano. Egli indica “più piccolo istanze Di perdita di controllo di sistemi potenti che penso dovrebbe chiarire ad alcuni decisori che questo è qualcosa per cui dobbiamo prepararci”.

In un’e-mail a Vox, il ricercatore di intelligenza artificiale Nate Soares, coautore del bestseller e della polemica da incubo, Se qualcuno lo costruisce, muoiono tuttisi è detto “rincuorato nel vedere elementi dell’apparato di sicurezza nazionale che iniziano a impegnarsi su queste questioni spinose” e ha ampiamente concordato con le conclusioni dell’articolo, sebbene sia ancora più scettico sulla fattibilità dell’uso dell’intelligenza artificiale come strumento per tenere sotto controllo l’intelligenza artificiale.

Da parte sua, Vermeer ritiene un livello di estinzione La catastrofe dell’IA è un evento a bassa probabilità, ma gli scenari di perdita di controllo sono abbastanza probabili da farci essere preparati ad affrontarli. La conclusione del documento, per quanto lo riguarda, è che “nella circostanza estrema in cui esiste un’intelligenza artificiale malevola distribuita a livello globale, non siamo preparati. Ci restano solo cattive opzioni”.

Naturalmente dobbiamo anche considerare la vecchia massima militare secondo cui in ogni questione strategica il nemico ha diritto di voto. Tutti questi scenari presuppongono che gli esseri umani mantengano il controllo operativo di base dei sistemi di comando e controllo governativi e militari in una situazione del genere. Come io recentemente segnalato per Voxci sono ragioni per essere preoccupati per l’introduzione dell’intelligenza artificiale nei nostri sistemi nucleari, ma l’intelligenza artificiale che effettivamente lancia una bomba atomica non è, almeno per ora, probabilmente una di queste.

Tuttavia, potremmo non essere gli unici a pianificare il futuro. Se sappiamo quanto sarebbero negative per noi le opzioni disponibili in questo scenario, probabilmente anche l’intelligenza artificiale lo saprà.

Questa storia è stata prodotta in collaborazione con Fondazione Outrider E Partner di finanziamento del giornalismo.

Read more

Local News