sabato, Marzo 7, 2026

L’intelligenza artificiale darà inizio alla guerra nucleare? Ciò che manca al film Netflix A House of Dynamite.

Share

Da quando esiste l’intelligenza artificiale, gli esseri umani hanno avuto paura dell’intelligenza artificiale e delle armi nucleari. E i film sono un ottimo esempio di queste paure. Skynet dal Terminatore il franchising diventa senziente e lancia missili nucleari contro l’America. WOPR da WarGames quasi inizia una guerra nucleare a causa di un errore di comunicazione. Il recente rilascio di Kathryn Bigelow, Casa della dinamitechiede se AI sia coinvolta in un attacco missilistico nucleare diretto a Chicago.

L’intelligenza artificiale è già nella nostra impresa nucleare, dice Josh Keating di Vox Oggi, spiegato co-conduttore Noel King. “I computer hanno contribuito a tutto questo dall’inizio“, dice. “Alcuni dei primi computer digitali mai sviluppati furono usati durante la costruzione della bomba atomica nel Progetto Manhattan.” Ma non sappiamo esattamente dove o come sia coinvolto.

Quindi dobbiamo preoccuparci? Beh, forse, sostiene Keating. Ma non riguardo all’intelligenza artificiale che si rivolta contro di noi.

Di seguito è riportato un estratto della loro conversazione, modificato per lunghezza e chiarezza. C’è molto di più nell’episodio completo, quindi ascolta Oggi, spiegato ovunque trovi podcast, inclusi Podcast di Apple, PandoraE Spotify.

C’è una parte dentro Una casa di dinamite dove stanno cercando di capire cosa è successo e se è coinvolta l’intelligenza artificiale. Questi film con queste paure hanno qualcosa a che fare?

La cosa interessante dei film, quando si parla di guerra nucleare, è: questo è un tipo di guerra che non è mai stata combattuta. Non ci sono veterani delle guerre nucleari oltre alle due bombe che abbiamo sganciato sul Giappone, il che è uno scenario molto diverso. Penso che i film abbiano sempre avuto un ruolo di primaria importanza nei dibattiti sulle armi nucleari. Puoi tornare agli anni ’60 quando lo Strategic Air Command effettivamente produsse la propria confutazione Il dottor Stranamore E A prova di errore. Negli anni ’80, quel film per la TV Il giorno dopo è stata una specie di forza galvanizzante per il movimento per il congelamento del nucleare. Apparentemente il presidente (Ronald) Reagan rimase molto turbato quando lo guardò e ciò influenzò il suo pensiero sul controllo degli armamenti con l’Unione Sovietica.

Nell’argomento specifico che sto esaminando, ovvero l’intelligenza artificiale e le armi nucleari, c’è stato un numero sorprendente di film che hanno questa trama. E questo argomento emerge spesso nei dibattiti politici. Ci sono persone che sostengono l’integrazione dell’intelligenza artificiale nel sistema di comando nucleare che dicono: “Guarda, questo non sarà Skynet”. Il generale Anthony Cotton, che è l’attuale comandante dello Strategic Command – che è il ramo delle forze armate responsabile delle armi nucleari – sostiene un maggiore utilizzo degli strumenti di intelligenza artificiale. Ha fatto riferimento al film WarGames del 1983, dicendo: “Avremo più intelligenza artificiale, ma non ci sarà un WOPR al comando strategico”.

Dove penso che (i film) non siano all’altezza è che la paura tende ad essere che un’intelligenza artificiale super intelligente prenderà il controllo delle nostre armi nucleari e le userà per spazzarci via. Per ora, questa è una preoccupazione teorica. Ciò che penso sia la preoccupazione più reale è che, man mano che l’intelligenza artificiale entra in sempre più parti del sistema di comando e controllo, gli esseri umani responsabili delle decisioni sulla realizzazione di armi nucleari capiscono davvero come funzionano le IA? E come influenzerà il modo in cui prendono queste decisioni, che potrebbero essere – non è esagerato a dirlo – alcune delle decisioni più importanti mai prese nella storia umana.

Gli esseri umani che lavorano sulle armi nucleari comprendono l’intelligenza artificiale?

Non sappiamo esattamente dove si trovi l’intelligenza artificiale nell’impresa nucleare. Ma la gente sarà sorpresa di sapere quanto fosse in realtà a bassa tecnologia il sistema di comando e controllo nucleare. Fino al 2019 utilizzavano floppy disc per i loro sistemi di comunicazione. Non sto nemmeno parlando di quelli piccoli di plastica che assomigliano all’icona di salvataggio su Windows. Voglio dire, quelli flessibili degli anni ’80. Vogliono che questi sistemi siano protetti dalle interferenze informatiche esterne, quindi non vogliono che tutto sia collegato al cloud.

Ma poiché è in corso questo processo di modernizzazione nucleare multimiliardario, gran parte di esso sta aggiornando questi sistemi. E diversi comandanti di StratCom, tra cui una coppia con cui ho parlato, hanno affermato che pensano che l’intelligenza artificiale dovrebbe far parte di tutto questo. Quello che dicono tutti è che l’intelligenza artificiale non dovrebbe essere incaricata di decidere se lanciare o meno armi nucleari. Pensano che l’intelligenza artificiale possa semplicemente analizzare enormi quantità di informazioni e farlo molto più velocemente di quanto possano fare le persone. E se hai visto Una casa di dinamiteuna cosa che il film mostra davvero bene è la rapidità con cui il presidente e i consiglieri senior dovranno prendere alcune decisioni assolutamente straordinarie e difficili.

Quali sono i grandi argomenti contro l’idea di mettere insieme intelligenza artificiale e armi nucleari?

Anche i migliori modelli di intelligenza artificiale oggi disponibili sono ancora soggetti a errori. Un’altra preoccupazione è che potrebbero esserci interferenze esterne con questi sistemi. Potrebbe trattarsi di hacking o di un attacco informatico, oppure i governi stranieri potrebbero escogitare modi per inserire informazioni imprecise nel modello. È stato riferito che le reti di propaganda russe stanno cercando attivamente di seminare disinformazione nei dati di addestramento utilizzati dai chatbot di intelligenza artificiale dei consumatori occidentali. E un altro è proprio il modo in cui le persone interagiscono con questi sistemi. C’è un fenomeno che molti ricercatori hanno sottolineato chiamato pregiudizio dell’automazioneil che significa semplicemente che le persone tendono a fidarsi delle informazioni fornite loro dai sistemi informatici.

Ci sono numerosi esempi nella storia di tempi in cui la tecnologia ha effettivamente portato a quasi disastri nucleari, e sono stati gli esseri umani a intervenire per prevenire l’escalation. Nel 1979 ci fu un caso in cui Zbigniew Brzezinski, il consigliere per la sicurezza nazionale degli Stati Uniti, fu svegliato da una telefonata nel cuore della notte che lo informava che centinaia di missili erano appena stati lanciati da sottomarini sovietici al largo della costa dell’Oregon. E proprio prima che stesse per chiamare il presidente Jimmy Carter per dirgli che l’America era sotto attacco, ci fu un’altra chiamata che (la prima) era stata un falso allarme. Qualche anno dopo si verificò un caso molto famoso in Unione Sovietica. Il colonnello Stanislav Petrov, che lavorava nella loro infrastruttura di rilevamento missilistico, fu informato dal sistema informatico che c’era stato un lancio nucleare statunitense. Secondo i protocolli avrebbe dovuto poi informare i suoi superiori, che avrebbero potuto ordinare una ritorsione immediata. Ma si è scoperto che il sistema aveva interpretato erroneamente la luce solare riflessa dalle nuvole come un lancio di missili. Quindi è molto positivo che Petrov abbia deciso di aspettare qualche minuto prima di chiamare i suoi superiori.

Sto ascoltando questi esempi, e la cosa che potrei capire se ci penso in modo davvero semplicistico è che gli esseri umani ci tirano indietro dal baratro quando la tecnologia sbaglia.

E’ vero. E penso che ci siano alcuni test recenti davvero interessanti sui modelli di intelligenza artificiale dati una sorta di scenari di crisi militare, e in realtà tendono ad essere più aggressivi di quanto lo siano i decisori umani. Non sappiamo esattamente il motivo. Se guardiamo al motivo per cui non abbiamo combattuto una guerra nucleare – perché, 80 anni dopo Hiroshima, nessuno ha sganciato un’altra bomba atomica, perché non c’è mai stato uno scambio nucleare sul campo di battaglia – penso che in parte sia proprio quanto sia terrificante. Come gli esseri umani comprendono il potenziale distruttivo di queste armi e a cosa può portare questa escalation. Che ci siano alcuni passaggi che potrebbero avere conseguenze indesiderate e la paura ne è una parte importante.

Dal mio punto di vista, penso che vogliamo assicurarci che ci sia la paura incorporata nel sistema. Quelle entità che sono in grado di essere assolutamente spaventate dal potenziale distruttivo delle armi nucleari sono quelle che prendono le decisioni chiave sull’opportunità di usarle.

Sembra di guardare Una casa di dinamitepuoi pensare vividamente che forse dovremmo eliminare completamente tutta l’intelligenza artificiale da tutto questo. Sembra che quello che stai dicendo sia: l’intelligenza artificiale è una parte dell’infrastruttura nucleare per noi, per altre nazioni, ed è probabile che rimanga tale.

Una cosa che mi ha detto un sostenitore di una maggiore automazione è stata: “se non pensi che gli esseri umani possano costruire un’intelligenza artificiale affidabile, allora gli umani non hanno nulla a che fare con le armi nucleari”. Ma il fatto è che penso che sia un’affermazione con cui sarebbero d’accordo anche le persone che pensano che dovremmo eliminare completamente tutte le armi nucleari.
Potrei essere arrivato a temere che l’intelligenza artificiale avrebbe preso il sopravvento e prendere il controllo delle armi nucleari, ma in questo momento mi sono reso conto che sono abbastanza preoccupato per quello che persone avranno a che fare con le armi nucleari. Non è che l’intelligenza artificiale ucciderà le persone con armi nucleari. È che l’intelligenza artificiale potrebbe rendere più probabile che le persone si uccidano a vicenda con armi nucleari. In una certa misura, l’intelligenza artificiale è l’ultima delle nostre preoccupazioni. Penso che il film mostri bene quanto sia assurdo lo scenario in cui dovremmo decidere se usarli o meno.

Read more

Local News