Pianificazione dei menu, terapia, scrittura di saggi, attacchi informatici globali altamente sofisticati: le persone continuano a escogitare nuovi usi innovativi per gli ultimi chatbot IA.
Questa settimana è stata raggiunta una nuova pietra miliare allarmante quando la società di intelligenza artificiale Anthropic ha annunciato che il suo assistente AI di punta Claude è stato utilizzato da hacker cinesi in quello che la società sta chiamando la “prima campagna di spionaggio informatico orchestrata dall’intelligenza artificiale”.
Secondo a rapporto pubblicato da Anthropica metà settembre, la società ha rilevato un’operazione di spionaggio informatico su larga scala da parte di un gruppo chiamato GTG-1002, diretta a “importanti società tecnologiche, istituzioni finanziarie, aziende di produzione chimica e agenzie governative in più paesi”.
Attacchi del genere non sono insoliti. Ciò che lo distingue è che dall’80 al 90% di esso è stato eseguito dall’intelligenza artificiale. Dopo che gli operatori umani hanno identificato le organizzazioni target, hanno utilizzato Claude per identificare preziosi database al loro interno, testare le vulnerabilità e scrivere il proprio codice per accedere ai database ed estrarre dati preziosi. Gli esseri umani sono stati coinvolti solo in alcuni punti critici per fornire suggerimenti all’IA e controllarne il funzionamento.
Claude, come gli altri maggiori grandi modelli linguisticiè dotato di misure di sicurezza per impedirne l’utilizzo per questo tipo di attività, ma gli aggressori sono riusciti a eseguire il “jailbreak” del programma suddividendo il suo compito in parti più piccole e plausibilmente innocue e dicendo a Claude che si trattava di un’azienda di sicurezza informatica che stava effettuando test difensivi. Ciò solleva alcune domande preoccupanti sul grado in cui le garanzie su modelli come Claude e ChatGPT possono essere manovrate, in particolare date le preoccupazioni su come potrebbero essere utilizzati per lo sviluppo di armi biologiche o altri materiali pericolosi del mondo reale.
Anthropic ammette che Claude a volte durante l’operazione “ha avuto allucinazioni sulle credenziali o ha affermato di aver estratto informazioni segrete che in realtà erano pubblicamente disponibili”. Anche gli hacker sponsorizzati dallo stato devono stare attenti all’intelligenza artificiale che inventa cose.
Il rapporto solleva la preoccupazione che gli strumenti di intelligenza artificiale renderanno gli attacchi informatici molto più facili e veloci da eseguire, aumentando la vulnerabilità di tutto, dai sensibili sistemi di sicurezza nazionale ai conti bancari dei comuni cittadini.
Tuttavia, non siamo ancora nella completa cyberanarchia. Il livello di conoscenza tecnica necessario per convincere Claude a farlo è ancora al di là del troll medio di Internet. Ma gli esperti avvertono ormai da anni che i modelli di intelligenza artificiale possono essere utilizzati per generare codice dannoso per truffe o spionaggio, un fenomeno noto come “hacking delle vibrazioni.” A febbraio, i concorrenti di Anthropic presso OpenAI hanno riferito di aver rilevato attori malintenzionati provenienti da Cina, Iran, Corea del Nord e Russia utilizzando i loro strumenti di intelligenza artificiale per assistere con operazioni informatiche.
A settembre il Centro per una Nuova Sicurezza Americana (CNAS) ha pubblicato un rapporto sulla minaccia degli hacking basati sull’intelligenza artificiale. Ha spiegato che le parti più dispendiose in termini di tempo e risorse della maggior parte delle operazioni informatiche riguardano le fasi di pianificazione, ricognizione e sviluppo degli strumenti. (Gli attacchi stessi sono solitamente rapidi.) Automatizzando questi compiti, l’intelligenza artificiale può cambiare le regole del gioco offensivo – e sembra essere esattamente ciò che è accaduto in questo attacco.
Caleb Withers, l’autore del rapporto CNAS, ha detto a Vox che l’annuncio di Anthropic era “di tendenza”, considerando i recenti progressi nelle capacità dell’intelligenza artificiale e che “il livello di sofisticazione con cui ciò può essere fatto in gran parte in modo autonomo, dall’intelligenza artificiale, continuerà ad aumentare”.
La guerra informatica ombra della Cina
Antropico dice che gli hacker se ne sono andati abbastanza indizi per determinare che fossero cinesi, anche se l’ambasciata cinese negli Stati Uniti ha descritto l’accusa come “diffamazione e calunnia”.
In un certo senso, questo è un ironico fiore all’occhiello per Anthropic e per l’industria statunitense dell’intelligenza artificiale nel suo complesso. All’inizio di quest’anno, i cinesi modello linguistico di grandi dimensioni DeepSeek ha inviato onde d’urto a Washington e alla Silicon Valley, suggerendo che, nonostante gli sforzi degli Stati Uniti per limitare l’accesso cinese ai chip semiconduttori avanzati necessari per sviluppare modelli linguistici di intelligenza artificiale, i progressi dell’intelligenza artificiale in Cina sono stati solo leggermente inferiori a quelli americani. Sembra quindi in qualche modo significativo che anche gli hacker cinesi preferiscano ancora un chatbot made in USA per i loro exploit informatici.
Nell’ultimo anno c’è stato un crescente allarme riguardo alla portata e alla sofisticatezza delle operazioni informatiche cinesi contro gli Stati Uniti. Questi includono esempi come Volt Typhoon – una campagna per posizionare preventivamente attori informatici sponsorizzati dallo stato nei sistemi IT statunitensi, per prepararli a sferrare attacchi in caso di grave crisi o conflitto tra Stati Uniti e Cina – e Salt Typhoon, una campagna di spionaggio che ha preso di mira società di telecomunicazioni in decine di paesi e ha preso di mira le comunicazioni di funzionari tra cui il presidente Donald Trump e il vicepresidente JD Vance durante la campagna presidenziale dello scorso anno.
I funzionari affermano che la portata e la sofisticazione di questi attacchi vanno ben oltre ciò che abbiamo visto prima. Potrebbe anche essere solo un’anteprima di ciò che accadrà nell’era dell’intelligenza artificiale.
