Stampa

Sicurezza AI fuori controllo: 23,77 milioni di segreti esposti, NIST/ISO/CIS non bastano più

Le aziende che adottano intelligenza artificiale in produzione stanno scoprendo un problema concreto di cybersecurity: i framework di sicurezza tradizionali non coprono in modo adeguato i vettori di attacco specifici dell’AI. Anche organizzazioni con programmi maturi, audit superati e conformità a standard diffusi possono restare esposte. Nel 2024 sono stati divulgati 23.77 milioni di segreti tramite sistemi AI, con un aumento del 25 percento rispetto all’anno precedente, segnale che la superficie di attacco cresce più velocemente delle difese.

Framework come NIST Cybersecurity Framework, ISO 27001 e CIS Controls sono solidi per reti, endpoint, accessi e applicazioni classiche, ma sono nati in un contesto in cui prompt, modelli e dataset non erano asset critici. L’AI introduce nuove aree di rischio che non si mappano sulle famiglie di controllo esistenti. Un esempio è la prompt injection, dove un aggressore usa linguaggio naturale per far ignorare istruzioni o indurre l’assistente a rivelare dati. Qui non ci sono pattern sintattici da filtrare come nelle SQL injection, quindi i controlli di validazione input tradizionali risultano insufficienti.

Un altro vettore è il model poisoning. I controlli di integrità si concentrano su modifiche non autorizzate, ma l’addestramento è un processo autorizzato. Se i dati di training sono contaminati da fonti compromesse o contributi malevoli, il modello apprende comportamenti dannosi durante un flusso legittimo, rendendo più difficile rilevare la violazione.

Centrale è anche la sicurezza della supply chain AI. Non si tratta solo di librerie software, ma di modelli pre-addestrati, pesi, dataset e framework di machine learning. Validare l’integrità dei pesi o individuare backdoor nei modelli richiede metodi che i controlli supply chain tradizionali non descrivono in modo operativo.

Gli incidenti recenti mostrano che la compliance non equivale alla sicurezza AI. Servono capacità nuove:

  • Monitoraggio semantico dei prompt
  • Verifica dell’integrità del modello
  • Red teaming focalizzato su attacchi adversarial
  • DLP semantico per conversazioni non strutturate

Inoltre è necessario:

  • Un inventario dei sistemi AI in uso
  • Valutazioni del rischio dedicate
  • Playbook di incident response che includano scenari come prompt injection e poisoning, anche in vista di pressioni regolatorie crescenti
Penetration testing cyber , prompt injection , sicurezza AI , model poisoning , supply chain AI , framework NIST ISO CIS