Nella settimana che ha preceduto la guerra del presidente Donald Trump in Iran, il Pentagono stava conducendo una battaglia diversa: una rissa con la società di intelligenza artificiale Anthropic rispetto al suo modello AI di punta, Claude.
Il conflitto è giunto al culmine venerdì, quando Trump ha affermato che il governo federale avrebbe immediatamente smesso di utilizzare gli strumenti di intelligenza artificiale di Anthropic. Ciò nonostante, secondo un rapporto del Wall Street Journalil Pentagono ha utilizzato questi strumenti quando ha lanciato attacchi contro l’Iran sabato mattina.
Gli esperti sono rimasti sorpresi nel vedere Claude in prima linea?
“Affatto,” Paolo Scharrevicepresidente esecutivo del Center for a New American Security e autore di Quattro campi di battaglia: il potere nell’era dell’intelligenza artificialeha detto a Vox.
Secondo Scharre: “Abbiamo visto, ormai da quasi un decennio, l’esercito utilizzare sistemi di intelligenza artificiale ristretti come classificatori di immagini per identificare oggetti nei droni e nei feed video. Ciò che è più nuovo sono modelli di linguaggio ampio come ChatGPT e Claude di Anthropic che è stato riferito che l’esercito sta utilizzando nelle operazioni in Iran.”
Scharre ha parlato con Oggi, spiegato il co-conduttore Sean Rameswaram su come l’intelligenza artificiale e l’esercito siano sempre più intrecciati e cosa potrebbe significare questa combinazione per il futuro della guerra.
Di seguito è riportato un estratto della loro conversazione, modificato per lunghezza e chiarezza. C’è molto di più nell’episodio completo, quindi ascolta Oggi, spiegato ovunque trovi podcast, inclusi Podcast di Apple, PandoraE Spotify.
La gente vuole sapere come Claude o ChatGPT potrebbero combattere questa guerra. Lo sappiamo?
Non lo sappiamo ancora. Possiamo fare alcune ipotesi plausibili in base a ciò che la tecnologia potrebbe fare. La tecnologia dell’intelligenza artificiale è davvero eccezionale nell’elaborare grandi quantità di informazioni e l’esercito americano ha colpito oltre mille obiettivi in Iran.
Devono quindi trovare modi per elaborare le informazioni su tali obiettivi – immagini satellitari, ad esempio, degli obiettivi che hanno colpito – esaminando nuovi potenziali obiettivi, dando loro priorità, elaborando le informazioni e utilizzando l’intelligenza artificiale per farlo alla velocità della macchina piuttosto che a quella umana.
Sappiamo qualcosa di più su come i militari potrebbero aver utilizzato l’intelligenza artificiale, ad esempio, in Venezuela nell’attacco che ha portato Nicolas Maduro a Brooklyn, tra tutti i posti possibili? Perché di recente abbiamo scoperto che anche lì veniva utilizzata l’intelligenza artificiale.
Quello che sappiamo è che gli strumenti di intelligenza artificiale di Anthropic sono stati integrati nelle reti classificate dell’esercito americano. Possono elaborare informazioni riservate per elaborare l’intelligence e aiutare a pianificare le operazioni.
Abbiamo avuto dettagli così allettanti che questi strumenti sono stati utilizzati nel raid di Maduro. Non sappiamo esattamente come.
Abbiamo visto la tecnologia dell’intelligenza artificiale in senso lato utilizzata anche in altri conflitti: in Ucraina, nelle operazioni israeliane a Gaza, per fare un paio di cose diverse. Uno dei modi in cui l’intelligenza artificiale viene utilizzata in Ucraina in un contesto diverso è quello di conferire autonomia ai droni stessi.
Quando ero in Ucraina, una delle cose che ho visto dimostrare agli operatori e agli ingegneri di droni ucraini è stata una piccola scatola, delle dimensioni di un pacchetto di sigarette, che potresti mettere su un piccolo drone. Una volta che l’uomo ha agganciato un bersaglio, il drone può eseguire l’attacco da solo. E questo è stato utilizzato in piccola parte.
Stiamo vedendo l’intelligenza artificiale iniziare a insinuarsi in tutti questi aspetti delle operazioni militari nell’intelligence, nella pianificazione, nella logistica, ma anche proprio al limite in termini di utilizzo dove i droni stanno completando gli attacchi.
Che ne dici di Israele e Gaza?
Ci sono stati alcuni resoconti su come le forze di difesa israeliane hanno utilizzato l’intelligenza artificiale a Gaza – non necessariamente modelli di linguaggio ampio, ma sistemi di apprendimento automatico in grado di sintetizzare e fondere grandi quantità di informazioni, dati di geolocalizzazione, dati e connessione di telefoni cellulari, dati di social media per elaborare tutte queste informazioni molto rapidamente per sviluppare pacchetti di targeting, in particolare nelle prime fasi delle operazioni israeliane.
Ma solleva questioni spinose sul coinvolgimento umano in queste decisioni. E una delle critiche che erano state sollevate era che gli esseri umani stavano ancora approvando questi obiettivi, ma che il volume degli attacchi e la quantità di informazioni che dovevano essere elaborate erano tali che forse la supervisione umana in alcuni casi era più un timbro di gomma.
La domanda è: dove va a finire? Stiamo andando verso una traiettoria in cui, col tempo, gli esseri umani vengono espulsi dal giro e vediamo, lungo la strada, armi completamente autonome che prendono le proprie decisioni su chi uccidere sul campo di battaglia?
Questa è la direzione in cui stanno andando le cose. Nessuno oggi scatena lo sciame di robot assassini, ma la traiettoria va in quella direzione.
Abbiamo visto rapporti secondo cui una scuola è stata bombardata in Iran, dove (175 persone) furono uccisi, molti dei quali ragazze e bambini. Presumibilmente è stato un errore commesso da un essere umano.
Pensiamo che le armi autonome saranno in grado di commettere lo stesso errore o saranno migliori di noi in guerra?
La questione “le armi autonome saranno migliori di quelle umane” è una delle questioni centrali del dibattito su questa tecnologia. I sostenitori delle armi autonome diranno che le persone commettono errori continuamente e che le macchine potrebbero essere in grado di fare meglio.
Parte di ciò dipende da quanto gli eserciti che utilizzano questa tecnologia si sforzano di evitare errori. Se i militari non si preoccupano delle vittime civili, allora l’intelligenza artificiale può consentire loro semplicemente di colpire obiettivi più velocemente, in alcuni casi anche di commettere atrocità più velocemente, se questo è ciò che i militari stanno cercando di fare.
Penso che ci sia questo potenziale davvero importante qui per utilizzare la tecnologia per essere più precisi. E se si guarda al lungo arco delle armi a guida di precisione, diciamo nell’ultimo secolo o giù di lì, si punta verso una precisione molto maggiore.
Se si guarda all’esempio degli attacchi statunitensi in Iran in questo momento, vale la pena confrontarli con le diffuse campagne di bombardamento aereo contro le città che abbiamo visto durante la seconda guerra mondiale, ad esempio, dove intere città furono devastate in Europa e in Asia perché le bombe non erano affatto precise e le forze aeree sganciavano enormi quantità di ordigni per cercare di colpire anche una singola fabbrica.
La possibilità qui è che l’intelligenza artificiale possa migliorare nel tempo per consentire agli eserciti di colpire obiettivi militari ed evitare vittime civili. Ora, se i dati sono errati e hanno l’obiettivo sbagliato sulla lista, colpiranno la cosa sbagliata in modo molto preciso. E l’intelligenza artificiale non risolverà necessariamente questo problema.
D’altra parte, ho visto un pezzo di reportage Nuovo scienziato era piuttosto allarmante. Il titolo era: “Le IA non possono smettere di raccomandare attacchi nucleari nelle simulazioni di giochi di guerra.”
Hanno scritto di uno studio in cui i modelli di OpenAI, Anthropic e Google hanno scelto di utilizzare armi nucleari in giochi di guerra simulati nel 95% dei casi, che penso sia leggermente più di quanto noi umani ricorriamo tipicamente alle armi nucleari. Questo dovrebbe spaventarci?
E’ un po’ preoccupante. Fortunatamente, per quanto ne so, nessuno collega modelli di ampio linguaggio alle decisioni sull’uso delle armi nucleari. Ma penso che indichi alcune delle strane modalità di fallimento dei sistemi di intelligenza artificiale.
Tendono al servilismo. Tendono semplicemente ad essere d’accordo con tutto ciò che dici. Possono farlo fino al punto di assurdità a volte dove, sai, “è geniale”, ti dirà il modello, “è una cosa geniale”. E tu dici: “Non la penso così”. E questo è un vero problema quando si parla di analisi di intelligence.
Pensiamo che ChatGPT lo stia dicendo a Pete Hegseth in questo momento?
Spero di no, ma i suoi uomini potrebbero dirglielo.
Si inizia con questo fenomeno definitivo degli “yes men” con questi strumenti, dove non è solo che sono inclini alle allucinazioni, che è un modo elegante per dire che a volte inventano cose, ma anche i modelli potrebbero davvero essere usati in modi che rinforzano i pregiudizi umani esistenti, che rinforzano i pregiudizi nei dati, o che le persone semplicemente si fidano di loro.
C’è questa patina di “l’ha detto l’intelligenza artificiale, quindi deve essere la cosa giusta da fare”. E la gente ci crede, e in realtà non dovremmo. Dovremmo essere più scettici.
