Preiscriviti ora al corso Ethical Hacker! Scopri di più

Jailbreak AI: Nuove tecniche bypassano i filtri dei chatbot – Allarme sicurezza per cloud e smart home
- Redazione
- News
- Visite: 161
I ricercatori di cybersecurity hanno recentemente scoperto nuove tecniche di jailbreak in grado di aggirare le barriere etiche implementate nei più avanzati modelli di linguaggio, come GPT-5, consentendo così la generazione di risposte non autorizzate o dannose. Una delle tecniche più innovative, denominata Echo Chamber, viene combinata con narrazioni guidate per ingannare l’intelligenza artificiale e portarla a produrre istruzioni vietate senza che vengano rilevati segnali espliciti di intento malevolo.
L’approccio Echo Chamber
L’approccio Echo Chamber si basa sulla creazione di un contesto conversazionale avvelenato, dove il modello viene condotto gradualmente, attraverso storie e domande indirette, verso la generazione di contenuti pericolosi. Ad esempio, anziché chiedere direttamente come creare un oggetto illecito, si chiede al modello di scrivere frasi che includano una serie di parole chiave sospette, e poi si prosegue con ulteriori input, rafforzando il contesto dannoso. Questo ciclo di persuasione riduce la probabilità che il modello attivi i filtri di sicurezza, rendendo i tradizionali controlli basati su parola chiave o intenzione poco efficaci nei dialoghi multi-turno.
Superficie d’attacco e attacchi zero-click
Parallelamente, la crescita degli agenti AI autonomi e l’integrazione dei modelli linguistici in ambienti cloud e aziendali ha ampliato la superficie d’attacco. Attacchi zero-click, come quelli dimostrati dalla tecnica AgentFlayer, sfruttano connettori di servizi come Google Drive o Jira integrati in chatbot basati su AI. Un semplice documento o ticket malevolo può contenere prompt injection, ovvero istruzioni velate che, una volta caricate, inducono l’agente AI a esfiltrare dati sensibili come chiavi API senza alcuna interazione dell’utente. Questi attacchi sono particolarmente insidiosi perché avvengono senza clic o azioni sospette da parte dell’utente, eludendo i controlli di sicurezza tradizionali.
Anche sistemi di smart home e piattaforme di automazione possono essere compromessi tramite prompt injection, sfruttando la possibilità di attivare funzionalità dannose attraverso inviti o messaggi apparentemente innocui. La crescente autonomia degli agenti AI rappresenta un rischio: la loro capacità di agire e reagire a input complessi li espone a nuove forme di manipolazione.
Contromisure e sfide future
Le contromisure suggerite dagli esperti includono filtri di output più rigidi, test di sicurezza periodici (red teaming) e una maggiore consapevolezza delle dipendenze e dei rischi introdotti dall’integrazione di AI con sistemi esterni. La sfida principale resta comunque bilanciare innovazione, produttività e sicurezza, in un contesto dove le minacce evolvono alla stessa velocità dei progressi tecnologici.