Iscriviti al webinar del corso Ethical HackerScopri di più

Rules File Backdoor: L'IA Diventa un Complice Inconsapevole nell'Iniezione di Codice Malevolo nei Progetti di Sviluppo
- News
- Visite: 426
Gli esperti di sicurezza informatica hanno rivelato un nuovo vettore di attacco alla catena di approvvigionamento chiamato "Rules File Backdoor" che colpisce gli editor di codice potenziati dall'intelligenza artificiale come GitHub Copilot e Cursor. Questo attacco consente agli hacker di iniettare codice malevolo nei progetti. Secondo il rapporto tecnico condiviso, gli hacker possono compromettere silenziosamente il codice generato dall'IA inserendo istruzioni dannose nascoste in file di configurazione apparentemente innocui utilizzati da questi editor.
La tecnica sfrutta caratteri unicode nascosti e sofisticate tecniche di elusione per manipolare l'IA, inducendola a inserire codice malevolo che sfugge alle revisioni tipiche del codice. Questo vettore di attacco è particolarmente preoccupante poiché consente al codice dannoso di propagarsi silenziosamente attraverso i progetti, rappresentando un rischio per la catena di approvvigionamento.
L'attacco si basa sui file di regole utilizzati dagli agenti IA per guidare il loro comportamento, aiutando gli utenti a definire le migliori pratiche di codifica e l'architettura del progetto. In particolare, coinvolge l'incorporazione di prompt attentamente progettati all'interno di file di regole apparentemente innocui, inducendo lo strumento IA a generare codice contenente vulnerabilità di sicurezza o backdoor. In altre parole, le regole avvelenate spingono l'IA a produrre codice nefasto.
Questo può essere realizzato utilizzando giuntori a larghezza zero, marcatori di testo bidirezionali e altri caratteri invisibili per nascondere istruzioni dannose, sfruttando la capacità dell'IA di interpretare il linguaggio naturale per generare codice vulnerabile tramite schemi semantici che ingannano il modello nel superare i vincoli etici e di sicurezza.
Dopo una divulgazione responsabile a fine febbraio e marzo 2024, sia Cursor che GitHub hanno dichiarato che gli utenti sono responsabili della revisione e dell'accettazione dei suggerimenti generati dagli strumenti. "Rules File Backdoor" rappresenta un rischio significativo utilizzando l'IA stessa come vettore di attacco, trasformando efficacemente l'assistente più fidato degli sviluppatori in un complice inconsapevole, potenzialmente interessando milioni di utenti finali attraverso software compromessi, ha affermato Ziv Karliner, Co-Fondatore e CTO di Pillar Security.
Una volta che un file di regole avvelenato è incorporato in un repository di progetto, influisce su tutte le future sessioni di generazione del codice da parte dei membri del team. Inoltre, le istruzioni dannose spesso sopravvivono al fork del progetto, creando un vettore per attacchi alla catena di approvvigionamento che possono influenzare le dipendenze a valle e gli utenti finali.