Le aziende che adottano intelligenza artificiale in produzione stanno scoprendo un problema concreto di cybersecurity: i framework di sicurezza tradizionali non coprono in modo adeguato i vettori di attacco specifici dell’AI. Anche organizzazioni con programmi maturi, audit superati e conformità a standard diffusi possono restare esposte.
Framework come NIST Cybersecurity Framework, ISO 27001 e CIS Controls sono solidi per reti, endpoint, accessi e applicazioni classiche, ma sono nati in un contesto in cui prompt, modelli e dataset non erano asset critici. L’AI introduce nuove aree di rischio che non si mappano sulle famiglie di controllo esistenti. Un esempio è la prompt injection, dove un aggressore usa linguaggio naturale per far ignorare istruzioni o indurre l’assistente a rivelare dati. Qui non ci sono pattern sintattici da filtrare come nelle SQL injection, quindi i controlli di validazione input tradizionali risultano insufficienti.
Un altro vettore è il model poisoning. I controlli di integrità si concentrano su modifiche non autorizzate, ma l’addestramento è un processo autorizzato. Se i dati di training sono contaminati da fonti compromesse o contributi malevoli, il modello apprende comportamenti dannosi durante un flusso legittimo, rendendo più difficile rilevare la violazione.
Centrale è anche la sicurezza della supply chain AI. Non si tratta solo di librerie software, ma di modelli pre-addestrati, pesi, dataset e framework di machine learning. Validare l’integrità dei pesi o individuare backdoor nei modelli richiede metodi che i controlli supply chain tradizionali non descrivono in modo operativo.
Gli incidenti recenti mostrano che la compliance non equivale alla sicurezza AI. Servono capacità nuove:
- Monitoraggio semantico dei prompt
- Verifica dell’integrità del modello
- Red teaming focalizzato su attacchi adversarial
- DLP semantico per conversazioni non strutturate
Inoltre è necessario:
- Un inventario dei sistemi AI in uso
- Valutazioni del rischio dedicate
- Playbook di incident response che includano scenari come prompt injection e poisoning, anche in vista di pressioni regolatorie crescenti