Iscriviti ora al Webinar di presentazione del corso Ethical Hacker! Scopri di più

L’ultima frontiera del malware segna una svolta epocale nella cybersecurity: i ricercatori hanno infatti identificato MalTerminal, il primo malware noto che integra le capacità di un Large Language Model (LLM) come GPT-4 di OpenAI. Questo caso, presentato alla conferenza LABScon 2025, mostra come l’intelligenza artificiale generativa venga già sfruttata non solo per il supporto operativo, ma anche per essere incorporata direttamente negli strumenti di attacco informatico.
MalTerminal e la nascita del LLM-embedded malware
MalTerminal, individuato dal team SentinelOne SentinelLABS, è un esempio pionieristico di LLM-embedded malware, una nuova categoria che si sta rapidamente affermando. Questo malware, pensato per Windows ma accompagnato anche da script Python equivalenti, consente all’utente di scegliere se generare dinamicamente codice ransomware o stabilire una reverse shell tramite GPT-4. Non ci sono prove che sia stato utilizzato in attacchi reali, il che suggerisce che possa essere stato progettato come proof-of-concept o come tool per red team.
Il codice di MalTerminal si serve di un endpoint OpenAI ormai dismesso dal novembre 2023, datando così la sua realizzazione e posizionandolo come la prima minaccia informatica abilitata da LLM. Insieme agli script offensivi, è stato trovato anche FalconShield, uno strumento difensivo che sfrutta GPT per analizzare file sospetti e produrre report automatici di analisi malware.
Nuove tecniche di attacco: LLM Poisoning e phishing evoluto
L’integrazione di LLM nei malware rappresenta un salto qualitativo nelle tecniche degli avversari, consentendo la generazione di logica e comandi malevoli in tempo reale e rendendo la difesa più complessa. Parallelamente, l’utilizzo di AI nei phishing si evolve: sono stati scoperti attacchi che incorporano istruzioni nascoste nei messaggi per ingannare i filtri antispam basati su intelligenza artificiale, inducendoli a classificare email malevole come sicure. Queste tecniche, note come LLM Poisoning, sfruttano commenti nel codice o prompt invisibili per eludere i controlli automatici e attivare catene di attacco che sfruttano vulnerabilità note come Follina (CVE-2022-30190).
Anche il phishing tradizionale si arricchisce di elementi AI: tramite generatori di siti e servizi di hosting alimentati da intelligenza artificiale, i cybercriminali possono creare pagine di phishing sofisticate e credibili, come finti CAPTCHA, che aggirano sia le difese utente sia quelle automatiche. La diffusione di strumenti AI in ambito enterprise offre nuove opportunità agli attaccanti per orchestrare truffe, sviluppare malware e supportare tutte le fasi del ciclo di attacco informatico.