Iscriviti al webinar gratuito del 28 Aprile per diventare Ethical Hacker! Scopri di più
L'AI in security espone le fondamenta che il board non ha mai verificato
I budget si spostano verso l'intelligenza artificiale, ma nessuno ha ancora chiarito chi risponde quando un agente AI amplifica un gap di governance preesistente
La scommessa senza inventario
I team di sicurezza stanno andando all-in sull'intelligenza artificiale. La velocità di adozione non ha precedenti: copertura più ampia, tempi di risposta compressi, costi operativi ridotti. I risultati, dove ci sono, sono reali. Ma il trend emergente mostra anche l'altro lato della curva. Chi adotta AI senza aver prima risolto i problemi strutturali, access control frammentato, dati non classificati, processi non formalizzati, non ottiene un moltiplicatore di efficienza. Ottiene un moltiplicatore di esposizione. Frederick Lee, CISO di una delle piattaforme digitali più note al mondo, sintetizza il punto con una formula netta: l'errore strategico più diffuso è dire "abbiamo l'AI, trovate qualcosa da farci" invece di partire dai problemi reali. Dave Gruber, principal analyst in ambito cybersecurity presso Omdia, conferma la dinamica dal lato degli investimenti e del mercato. L'AI nella security funziona. Ma funziona solo se sotto c'è qualcosa di solido. Se sotto non c'è niente, l'AI non colma il vuoto: lo illumina. E lo rende accessibile a chiunque sappia formulare la domanda giusta a un chatbot aziendale.
Il budget si muove, il rischio anche
Il riallocamento di risorse verso l'AI è già in corso e non si tratta di sperimentazioni marginali. I team di sicurezza stanno spostando fondi da altre voci di spesa, e i buyer dichiarano apertamente di essere pronti a sostituire vendor che non investono abbastanza in AI. Il costo di un tool basato su modelli linguistici viene ormai comparato a quello di un analista a tempo pieno, con il vantaggio di una copertura continuativa. La logica economica è chiara. Meno chiaro è il rovescio della medaglia. Se l'organizzazione adotta AI senza una governance dei dati sottostanti, un LLM aziendale può restituire a un utente qualsiasi informazioni a cui non dovrebbe avere accesso. Non perché il modello sia difettoso, ma perché il sistema di permessi non è mai stato adeguato. La vera domanda per il board non è "quanto costa l'AI?". È "quanto costa adottarla senza aver prima verificato le fondamenta?". La risposta, in termini di esposizione reputazionale e regolamentare, non è un costo che si gestisce a posteriori.
Il mandato senza ownership
La pressione ad adottare AI arriva dal vertice. Il board vuole risultati, il mercato premia chi accelera, la concorrenza non aspetta. Ma la maturità organizzativa, in molte realtà, non regge il ritmo. Il controllo degli accessi è frammentato. I dati non sono puliti. Gli agenti AI operano con credenziali umane senza che esista una separazione chiara tra azioni automatiche e azioni manuali. Lee descrive uno scenario concreto: un LLM che espone documenti riservati a utenti non autorizzati. Non si tratta di un attacco esterno. Non si tratta di un bug del modello. Si tratta di un gap di governance che esisteva prima dell'AI e che l'AI rende semplicemente sfruttabile su scala. La frizione reale è qui: chi risponde di questo rischio? Il CISO, che non ha autorità sui dati? Il CIO, che non ha visibilità sui permessi granulari? Il business owner, che non sa nemmeno quali documenti il modello sta indicizzando? Il mandato c'è. L'ownership no. E senza ownership, la responsabilità si dissolve nel vuoto organizzativo.
Il quadro normativo non aspetta
Il contesto regolatorio europeo sta convergendo su questo esatto punto cieco. L'AI Act (Regolamento UE 2024/1689) impone obblighi di supervisione umana e governance sui sistemi di intelligenza artificiale: le organizzazioni che adottano AI senza controllo degli accessi adeguato e senza comprensione dei confini del sistema operano in una zona di rischio crescente. La Direttiva NIS2 (2022/2555), all'articolo 20, attribuisce agli organi di gestione la responsabilità diretta sulla governance della sicurezza e sulla gestione del rischio, inclusa la supply chain, che nel caso dell'AI significa MCP server, modelli di terze parti, tool open source integrati senza audit. Per il settore finanziario, DORA (Regolamento UE 2022/2554) aggiunge un ulteriore livello: la governance del rischio ICT e la resilienza operativa digitale si applicano direttamente alla dipendenza da agenti AI e alla qualità dei dati che li alimentano. Nessuna di queste norme sanziona l'adozione dell'AI in sé. Tutte sanzionano l'assenza di governance nell'adozione. La distanza tra le due cose, oggi, è sottile.
La domanda che nessun organigramma vuole affrontare
Provate a immaginare uno scenario semplice. Domani il vostro LLM aziendale restituisce a un dipendente qualsiasi, non un attaccante, non un insider malintenzionato, un dipendente ordinario, i documenti riservati del board. Non c'è stata nessuna intrusione. Nessuna vulnerabilità zero-day. L'access control non era mai stato adeguato, e il modello ha fatto esattamente quello per cui è stato progettato: rispondere a una domanda con le informazioni disponibili. Chi, nel vostro organigramma, ne risponde davvero? Non in teoria. Non nella policy. Nella realtà operativa, davanti a un regolatore, a un investitore, a un consiglio di amministrazione che chiede conto. Se la risposta non è immediata, il problema non è l'AI. Il problema è che avete dato un motore ad alte prestazioni a un'organizzazione che non ha ancora deciso chi tiene il volante.
L'intelligenza artificiale non crea debolezze nuove. Rende impossibile continuare a ignorare quelle vecchie. La vera domanda non è se adottarla, ma se la vostra governance è pronta a sostenere ciò che l'AI renderà visibile.