OpenAI ha recentemente annunciato di aver bloccato oltre 20 campagne malevole globali che cercavano di utilizzare l'intelligenza artificiale per scopi criminali e disinformazione. Queste operazioni hanno incluso il debug di malware, la scrittura di articoli per siti web, e la creazione di profili falsi con immagini generate dall'intelligenza artificiale. Nonostante gli attori malevoli continuino a evolversi e sperimentare con i modelli di OpenAI, l'azienda sostiene di non aver osservato significativi progressi nella loro capacità di creare malware innovativo o costruire un vasto pubblico virale.
Tra le attività bloccate, ci sono state operazioni che generavano contenuti sui social media relativi alle elezioni negli Stati Uniti, in Rwanda, e in misura minore in India e nell'Unione Europea. Tuttavia, nessuna di queste reti ha ottenuto un coinvolgimento virale o un pubblico sostenuto. Un esempio è l'impresa commerciale israeliana STOIC, che ha prodotto commenti sui social media riguardanti le elezioni indiane.
Operazioni Degne di Nota
Un'operazione degna di nota è SweetSpecter, un avversario sospettato di avere base in Cina, che ha utilizzato i modelli di OpenAI per la ricerca di vulnerabilità e il supporto alla creazione di script. Cyber Av3ngers, invece, affiliato al Corpo delle Guardie della Rivoluzione Islamica dell'Iran, ha impiegato l'intelligenza artificiale per la ricerca sui controllori logici programmabili. Un altro gruppo iraniano, Storm-0817, ha utilizzato i modelli per il debug di malware Android e per tradurre profili LinkedIn in persiano.
OpenAI ha anche bloccato account che facevano parte di operazioni di influenza come A2Z e Stop News, che generavano contenuti in inglese e francese per diverse piattaforme. Stop News, in particolare, si distingueva per l'uso prolifero di immagini generate da DALL·E, spesso in stile cartone animato per attirare l'attenzione.
Altri gruppi come Bet Bot e Corrupt Comment hanno sfruttato l'API di OpenAI per generare conversazioni e inviare link a siti di gioco d'azzardo, oltre a creare commenti sui social media. Queste rivelazioni arrivano due mesi dopo che OpenAI ha bloccato account legati all'operazione iraniana Storm-2035, che utilizzava ChatGPT per generare contenuti focalizzati sulle elezioni presidenziali statunitensi.
Nonostante l'uso improprio dell'IA generativa per frodi e operazioni di deepfake, Sophos ha evidenziato come questa tecnologia possa essere abusata per diffondere disinformazione mirata tramite email microtargetizzate. Questo potrebbe consentire la creazione di siti web di campagne politiche e messaggi email che mirano specificamente a determinate fasce di pubblico, permettendo una diffusione su larga scala della disinformazione.