mercoledì, Marzo 11, 2026

La criminalità informatica basata sull’intelligenza artificiale è in aumento. Gli Stati Uniti hanno perso 16,6 miliardi di dollari nel 2024.

Share

Ho avuto la fortuna di trascorrere diversi giorni la settimana scorsa al Summit Crosscurrent dell’Aspen Institute sull’intelligenza artificiale e la sicurezza nazionale a San Francisco. Il mio primo takeaway: consiglio vivamente di essere nella soleggiata (almeno al momento) di San Francisco piuttosto che nella fangosa e cruda New York all’inizio di marzo. Il secondo ha richiesto un po’ più di tempo per formarsi.

La conferenza era piena di ex funzionari della sicurezza nazionale, dirigenti della sicurezza informatica e leader dell’intelligenza artificiale, e la conversazione è andata per lo più dove ci si aspetterebbe: il Lotta Antropico-Pentagono, il ruolo dell’intelligenza artificiale nel conflitto iranianol’avvento di armi autonome. Ma il pannello che mi ha colpito riguardava qualcosa di meno drammatico. Si trattava di qualcosa di quasi antiquato, ora potenziato dall’intelligenza artificiale: le truffe.

A un certo punto, Todd Hemmen, vicedirettore aggiunto del ramo Cyber ​​Capabilities della Divisione Cyber ​​dell’FBI, descrisse come Gli agenti nordcoreani utilizzano sovrapposizioni di volti generati dall’intelligenza artificiale per superare colloqui di lavoro a distanza presso aziende tecnologiche occidentali, quindi lavorare in più posizioni remote contemporaneamente, incanalando gli stipendi e qualsiasi informazione di intelligence verso il regime di Pyongyang. Fabbricano curriculum con l’intelligenza artificiale, preparano interviste con l’intelligenza artificiale e usano l’intelligenza artificiale per indossare il “volto di qualcuno che non è la persona dietro la telecamera”, ha detto Hemmen al pubblico. Alcuni degli attori più abili svolgono diversi lavori a tempo pieno contemporaneamente, tutti con identità false e grazie a strumenti che due anni fa non esistevano.

Da allora quel dettaglio mi ha frullato per la testa, anche perché mi ha fatto chiedere come questi industriosi operatori possano gestire più lavori quando ne trovo uno solo abbastanza faticoso. Ma la storia di Hemmen cattura qualcosa di più profondo del momento in cui ci troviamo. L’intelligenza artificiale che rischia di ottenere la maggior parte del tempo di trasmissione in questo momento è speculativa e cinematografica: robot assassini, panopticon dell’intelligenza artificiale. Ma la minaccia dell’intelligenza artificiale è qui Proprio adesso è un agente straniero che indossa una faccia sintetica durante una chiamata Zoom e riscuote uno stipendio dalla tua azienda. E quasi nessuno lo tratta con la stessa urgenza.

Come la criminalità informatica è peggiorata che mai

La criminalità informatica è stata un problema sin dai tempi del dial-up, ma la portata di ciò che sta accadendo ora è sconcertante. L’FBI ha riferito che gli Stati Uniti hanno sofferto 16,6 miliardi di dollari di perdite note per criminalità informatica nel 2024 – in crescita del 33% in un solo anno e più che raddoppiato in tre anni. Gli americani over 60 hanno perso quasi 5 miliardi di dollari. E questi sono solo i numeri riportati; Alice Marwick, direttrice della ricerca presso Data & Society, ha dichiarato al pubblico dell’Aspen Institute che solo circa una vittima su cinque denuncia una truffa. Il numero reale è inconoscibile, ma è molto peggio.

E ora arriva l’intelligenza artificiale generativa per rendere tutto questo più veloce, più economico e più convincente. Le e-mail di phishing non arrivano più piene di errori di battitura da presunti principi nigeriani; Gli LLM possono produrre un linguaggio fluente e specifico a livello regionale. I generatori di immagini AI possono creare intere identità sintetiche: dozzine di foto di una persona che non esiste, complete di scatti delle vacanze e borse firmate.

La clonazione vocale ha consentito rapine che cinque anni fa erano fantascienza: all’inizio del 2024, un impiegato finanziario presso l’ufficio di Hong Kong della società di ingegneria britannica Arup ha trasferito 25 milioni di dollari dopo una videochiamata deepfake in cui sembravano apparire sullo schermo il direttore finanziario dell’azienda e diversi colleghi. Si scopre che erano tutti falsi. Rapporto sulle minacce globali 2026 di CrowdStrike ha scoperto che gli attacchi basati sull’intelligenza artificiale sono aumentati dell’89% su base annua, mentre il tempo medio dalla violazione iniziale alla diffusione in una rete è sceso a soli 29 minuti. Il breakout più veloce osservato: 27 secondi.

Il cyberoffense dell’IA batterà la cyberdifesa dell’IA?

Perché questo problema è così relativamente trascurato? In parte perché lo abbiamo normalizzato. La criminalità informatica è in crescita da anni, spinta dalla professionalizzazione dei sindacati criminali, della criptovaluta, del lavoro a distanza e dell’industrializzazione delle truffe nel sud-est asiatico. (Il mio collega di Vox Josh Keating ha scritto una storia fantastica un paio di anni fa su queste cosiddette truffe sulla macellazione dei maiali.)

Abbiamo assorbito le perdite record di ogni anno sotto forma di costo per fare affari online. Ma la curva si sta incurvando: Deloitte prevede che le perdite legate alle frodi generate dall’intelligenza artificiale solo negli Stati Uniti potrebbero colpire 40 miliardi di dollari entro il 2027. “Nello stesso modo in cui le aziende legittime stanno integrando l’automazione, lo stesso fa la criminalità organizzata”, ha affermato Marwick.

Il fatto che gran parte di tutto questo non venga detto e non riportato non sia chiaro, aumenta il prezzo da pagare. La ricerca di Marwick si concentra su truffe romantiche – persone prese di mira durante periodi di solitudine o transizione, lentamente dissanguate dei loro risparmi da qualcuno che credono le ami. Ha detto al pubblico che le vittime spesso si rifiutano di credere di essere state truffate anche quando confrontate con prove dirette. L’intelligenza artificiale rende la manipolazione emotiva molto più persuasiva e nessun filtro antispam proteggerà qualcuno che invia volontariamente denaro.

La difesa potrà tenere il passo? Marwick ha fatto un promettente paragone con lo spam, che ha quasi distrutto le e-mail negli anni ’90 prima che una combinazione di soluzioni tecniche, legislazione e adattamento sociale lo domassero, almeno in larga misura. Le istituzioni finanziarie stanno utilizzando l’intelligenza artificiale per individuare le frodi basate sull’intelligenza artificiale. Lo scorso anno l’FBI ha congelato centinaia di milioni di fondi rubati.

Ma il consenso alla conferenza è stato in gran parte negativo. “Stiamo entrando in questa finestra temporale in cui l’attacco è molto più efficace della difesa”, ha affermato Rob Joyce, ex direttore della sicurezza informatica presso la National Security Agency. Marwick è stato schietto: “Direi che in generale sono piuttosto pessimista”.

Anch’io. Mentre stavo scrivendo questa storia, ho ricevuto un’e-mail da un amico con quello che sembrava essere un invito a Paperless Post. La lingua nell’e-mail sembrava un po’ strana, ma quando ho cliccato sull’invito, mi ha portato a una pagina che sembrava molto simile a Paperless Post, fino al logo. Ancora sospettoso, ho mandato un’e-mail al mio amico, chiedendogli se fosse reale. “Sì, è legittimo”, ha risposto.

Questa è stata una prova sufficiente per me, ma mi sono distratto e non ho fatto clic sul passaggio successivo dell’invito. Meno male: pochi minuti dopo, il mio amico ha inviato un’e-mail a me e ad altri per dirci che, sì, era stato violato.

Una versione di questa storia è apparsa originariamente nel Futuro perfetto notiziario. Iscriviti qui!

Read more

Local News