Cyberattacchi basati sull’AI: un fenomeno in evoluzione

Sono due i report di Sophos X-Ops dedicati all’utilizzo dell’Intelligenza artificiale da parte del cybercrimine. Il primo, The Dark Side of AI: Large-Scale Scam Campaigns Made Possible by Generative AI, dimostra come nel futuro potranno essere sfruttate tecnologie come ChatGPT per perpetrare frodi su vasta scala e a fronte di competenze tecniche minime.
Il secondo, Cybercriminals Can’t Agree on GPTs, rileva come nonostante le potenzialità dell’AI, alcuni cybercriminali siano ancora lontani dall’adozione degli LLM (Large Language Model) come ChatGPT, rimanendo scettici e perfino preoccupati circa il ricorso alla AI per gli  attacchi.

Integrazione dell’AI generativa nelle truffe “classiche”

È prevedibile che i criminali sfruttino le nuove tecnologie per automatizzare le loro attività. Se le email di spam sono state un passo avanti importante nella tecnologia al servizio delle truffe l’AI è destinata a fare lo stesso.
Se esistesse una tecnologia AI in grado di creare minacce automatizzate complete, prima verrebbe utilizzata.

“Abbiamo già assistito all’integrazione di elementi di AI generativa nelle truffe classiche, come testi o fotografie prodotti da AI, per adescare vittime – dichiara Ben Gelman, senior data scientist di Sophos -. Tuttavia, creando un sistema per la generazione di siti fraudolenti su vasta scala ben più avanzato dei tool attualmente impiegati dai criminali, abbiamo la particolare opportunità di analizzare la minaccia, e prepararci ad affrontarla prima che possa proliferare”.

GPT, opinioni discordi tra i cybercriminali

Sebbene il ricorso alla AI da parte dei cybercriminali sia solo all’inizio all’interno del dark web si discute sulle potenzialità di questa tecnologia ai fini del social engineering.
Sophos X-Ops ha già verificato l’impiego di AI nelle criptotruffe, scoprendo che la maggioranza dei post riguardava la vendita di account ChatGPT compromessi, e dei cosiddetti ‘jailbreak’, sistemi che permettono di aggirare le protezioni integrate negli LLM in modo da poterli sfruttare per obiettivi illeciti.

Sono stati anche trovati dieci derivati da ChatGPT che possono essere usati per lanciare cyberattacchi e sviluppare malware.
Le reazioni di fronte a questi tool e altre applicazioni illecite degli LLM non sono però univoche. Molti criminali temono addirittura che gli autori di queste imitazioni di ChatGPT stiano tentando di truffarli.

Più scetticismo che entusiasmo

In due dei quattro forum del dark web analizzato a fronte di solo 100 post dedicati all’AI ben 1.000 erano sul tema criptovalute.
“Alcuni cybercriminali hanno provato a creare malware o tool di attacco mediante LLM, ma i risultati sono stati alquanto rudimentali e spesso accolti con scetticismo dagli altri utenti – aggiunge Christopher Budd, director, X-Ops research Sophos -. In un caso, un cybercriminale deciso a dimostrare le potenzialità di ChatGPT ha rivelato inavvertitamente informazioni significative sulla sua reale identità. Abbiamo persino trovato numerosi articoli d’opinione relativi ai possibili effetti negativi dell’AI sulla società e alle implicazioni etiche del suo utilizzo. In altre parole, almeno per ora, pare che i dibattiti sugli LLM in corso tra cybercriminali siano gli stessi di chiunque altro”.