Negli ultimi tempi, il panorama delle minacce informatiche ha visto emergere nuovi rischi legati all’impiego di intelligenza artificiale da parte degli attaccanti. Un caso emblematico è PROMPTFLUX, un malware sperimentale in Visual Basic Script individuato da Google, che sfrutta la potenza dell’AI generativa Gemini per riscrivere e offuscare il proprio codice con frequenza oraria, rendendo più difficile la rilevazione da parte dei tradizionali antivirus basati su firme statiche. Questo malware utilizza una chiave API incorporata per inviare richieste specifiche all’endpoint Gemini, chiedendo la generazione di nuove varianti del codice in grado di eludere i controlli. Le risposte dell’AI vengono poi salvate e utilizzate per aggiornare la propria presenza nella cartella di avvio di Windows, garantendo così persistenza e capacità di propagarsi su dispositivi rimovibili e risorse di rete condivise.
Sebbene la funzione di auto-modifica non sia ancora attiva, la presenza di log dettagliati delle risposte AI evidenzia l’obiettivo degli sviluppatori di realizzare uno script metamorfico in grado di evolvere nel tempo. Google segnala anche la presenza di versioni di PROMPTFLUX che istruiscono l’AI a riscrivere l’intero codice ogni ora, rafforzando ulteriormente la capacità di evasione.
Secondo le analisi, PROMPTFLUX è ancora in fase di sviluppo e non risulta implementare tecniche di compromissione di sistemi, ma il suo potenziale è notevole. Il fenomeno non è isolato: Google ha osservato altri malware che integrano funzionalità AI, come FRUITSHELL (reverse shell in PowerShell che aggira i controlli AI), PROMPTLOCK (ransomware cross-platform che genera script malevoli a runtime tramite LLM) e PROMPTSTEAL (data miner usato in campagne APT).
Le minacce non si limitano a criminali comuni: anche gruppi sponsorizzati da stati come Cina, Iran e Corea del Nord utilizzano Gemini per attività di ricognizione, phishing, sviluppo di infrastrutture tecniche e automazione nell’esfiltrazione di dati. Alcuni attori sono riusciti a ingannare i sistemi di sicurezza dei modelli AI, presentando i propri prompt come se fossero partecipanti a competizioni CTF, ottenendo così istruzioni utili su come sfruttare vulnerabilità reali.
Google sottolinea che la crescente adozione di AI da parte delle aziende e la disponibilità di modelli potenti favoriscono l’escalation di attacchi basati su prompt injection, rendendo l’AI uno strumento sempre più usato dagli attori malevoli per aumentare la velocità, la scala e l’efficacia delle operazioni. La tendenza è chiara: l’AI non è più un’eccezione, ma sta diventando la norma anche nel cybercrime.

