Preiscriviti ora al percorso di Ethical HackerScopri di più

Cyber Attacchi AI dalla Cina: Nuova Era di Minacce Globali e Sfide Legali
- Redazione
- News
- Visite: 623
Negli ultimi anni, si è osservata una tendenza preoccupante in cui gruppi di hacker e attori di minacce provenienti dalla Cina hanno frequentemente preso di mira avversari occidentali con attacchi informatici. Questi attacchi, motivati da ragioni politiche o economiche, sono spesso stati associati al supporto di intelligence governative o militari. Tuttavia, la situazione ha ora preso una piega inaspettata, ma rimane ampiamente vantaggiosa per gli hacker cinesi.
Secondo una ricerca di Check Point, i cybercriminali stanno ora sfruttando strumenti avanzati come i modelli di linguaggio di grandi dimensioni (LLM) per creare malware sofisticati, come il ransomware, e per condurre attacchi di phishing. Ciò che è particolarmente allarmante è che molti di questi hacker si stanno rivolgendo a strumenti meno noti che non hanno ricevuto molta attenzione mediatica, come l'LLM Alibaba Qwen e DeepSeek AI, entrambi favoriti tra gli attori malintenzionati.
Questo solleva una questione pressante: esiste un quadro legale per impedire l'uso non autorizzato degli LLM in attività dannose? Purtroppo, attualmente non esiste una legge specifica che affronti l'uso non autorizzato di strumenti di intelligenza artificiale come questi, specialmente in termini di limitazioni geografiche. La mancanza di un approccio coordinato a livello globale significa che se le aziende o i sviluppatori sono messi alle strette in una giurisdizione, possono semplicemente trasferire le loro operazioni in un'altra regione o paese che potrebbe avere regolamenti più permissivi.
La responsabilità di prevenire tali abusi ricade sui sviluppatori e le aziende che creano e controllano questi potenti strumenti. Per arginare il potenziale di abuso, le aziende devono riconsiderare la natura open-source degli LLM. Limitando l'accesso e rendendo questi strumenti disponibili solo tramite login ufficiali o piattaforme verificate, diventa possibile tracciare e monitorare come questi modelli vengono utilizzati e identificare eventuali attività dannose. Tali restrizioni permetterebbero una maggiore responsabilità e contribuirebbero a minimizzare i danni causati da queste tecnologie avanzate quando utilizzate in modo improprio.
In questo contesto, il governo cinese, guidato dal presidente Xi Jinping, dovrebbe assumere una posizione più proattiva nel regolare l'uso dei suoi LLM. Deve mettere in atto misure rigorose per impedire che questi modelli vengano sfruttati per sviluppare malware o impegnarsi in schemi di phishing. Senza tali salvaguardie, i rischi di violazioni della sicurezza globale e di crimini informatici continueranno ad aumentare.
In alternativa, se la Cina non riesce a regolare efficacemente l'uso delle sue piattaforme di intelligenza artificiale, la comunità internazionale deve assumere una posizione più forte. Un potenziale corso d'azione potrebbe essere l'imposizione di divieti sulle piattaforme di intelligenza artificiale che facilitano il crimine informatico. Infatti, ciò sta già accadendo con alcune tecnologie di intelligenza artificiale. Ad esempio, DeepSeek AI è stata bandita in più paesi, tra cui Texas, Taiwan e India. Inoltre, le autorità finanziarie in paesi come Italia, Francia, l'Unione Europea e l'Australia hanno seguito l'esempio, imponendo restrizioni sull'uso di queste piattaforme nel tentativo di ridurre il loro potenziale di danno.
Questa crescente tendenza a vietare strumenti di intelligenza artificiale dannosi dovrebbe servire da avvertimento. La comunità internazionale deve unirsi per garantire che la tecnologia dell'intelligenza artificiale venga utilizzata a beneficio della società , non per alimentare il crimine informatico e le attività dannose. Se i sviluppatori e i governi non si assumono la responsabilità , il mondo potrebbe affrontare minacce ancora maggiori dall'uso improprio dell'intelligenza artificiale.