Preiscriviti ora al corso Ethical Hacker! Scopri di più

Big Sleep sventa attacco zero-day: l’AI di Google scopre grave falla in SQLite prima dei cybercriminali
- Redazione
- News
- Visite: 102
Google ha recentemente annunciato che il suo framework di scoperta delle vulnerabilità assistito da modelli linguistici di grandi dimensioni (LLM) ha identificato una grave falla di sicurezza in SQLite prima che potesse essere sfruttata attivamente dai criminali informatici. La vulnerabilità, catalogata come CVE-2025-6965 con un punteggio CVSS di 7.2, riguarda un problema di corruzione della memoria che interessa tutte le versioni precedenti alla 3.50.2 del popolare motore di database open source. Questo difetto è stato identificato da Big Sleep, un agente di intelligenza artificiale sviluppato da Google in collaborazione con DeepMind e Google Project Zero.
Secondo i manutentori di SQLite, un attaccante capace di iniettare istruzioni SQL arbitrarie in un'applicazione potrebbe provocare un overflow di un intero, con conseguente lettura oltre la fine di un array, esponendo così l'applicazione a potenziali exploit. Google ha sottolineato la criticità di questa vulnerabilità, affermando che era conosciuta solo da attori malevoli e che rischiava di essere sfruttata in tempi brevi. Grazie alla combinazione di threat intelligence e Big Sleep, Google è riuscita a prevedere che la vulnerabilità sarebbe stata presto utilizzata e ha potuto agire con tempestività, bloccando sul nascere eventuali tentativi di sfruttamento.
L'importanza della scoperta di Big Sleep
L'importanza di questo risultato risiede nel fatto che è la prima volta in cui un agente AI viene utilizzato per contrastare direttamente i tentativi di sfruttamento di una falla zero-day in ambiente reale. Il team di Google Threat Intelligence Group (GTIG) ha individuato indicatori che suggerivano un attacco in preparazione, pur non riuscendo inizialmente a identificare la vulnerabilità specifica. Gli indizi sono stati passati al team zero day, che grazie a Big Sleep ha isolato il bug che i criminali si apprestavano a sfruttare.
Non è la prima volta che Big Sleep si distingue in questo campo: già nell’ottobre 2024 lo stesso agente AI aveva portato alla scoperta di un’altra vulnerabilità in SQLite, relativa a un buffer underflow che avrebbe potuto consentire esecuzione di codice arbitrario o crash.
Le strategie di sicurezza adottate da Google
Parallelamente, Google ha pubblicato un white paper sulle strategie per costruire agenti AI sicuri, sottolineando la necessità di controller umani, capacità limitate e trasparenza nelle azioni degli agenti. L’approccio di sicurezza adottato da Google è ibrido e multilivello, alternando difese deterministiche tradizionali a controlli dinamici basati sul ragionamento dell’AI. Questo metodo serve a creare confini robusti attorno all’ambiente operativo degli agenti, riducendo il rischio di azioni dannose anche in caso di manipolazioni sofisticate come la prompt injection.