Iscriviti ora al Webinar di presentazione del corso Ethical Hacker! Scopri di più
Iscriviti ora al Webinar di presentazione del corso CISO! Scopri di più
La recente scoperta di tre vulnerabilità di sicurezza nella suite di intelligenza artificiale Gemini di Google ha sollevato notevoli preoccupazioni per la privacy e la protezione dei dati degli utenti. Queste falle, ora corrette, sono state individuate da ricercatori di cybersecurity che hanno evidenziato come potessero esporre informazioni personali e consentire il furto di dati tramite sofisticate tecniche di attacco.
Il gruppo di vulnerabilità, denominato “Gemini Trifecta”, coinvolge tre componenti chiave della piattaforma Gemini.
Secondo i ricercatori, queste falle avrebbero potuto essere sfruttate per inviare dati privati a server controllati da attaccanti, anche senza la necessità di visualizzare link o immagini. Un esempio concreto era la possibilità di creare hyperlink contenenti informazioni riservate ottenute tramite query automatiche alle API di Google Cloud.
Google è intervenuta prontamente dopo la segnalazione, rafforzando le difese e bloccando la possibilità di mostrare hyperlink nelle risposte legate alla sintesi dei log. Inoltre, sono state introdotte ulteriori misure per mitigare il rischio di prompt injection.
Il caso Gemini evidenzia come le piattaforme di intelligenza artificiale possano diventare esse stesse vettori di attacco, oltre che obiettivi. Per questo motivo, la sicurezza delle soluzioni AI deve essere una priorità, richiedendo visibilità costante e politiche restrittive per il controllo degli accessi.