Iscriviti ora al Webinar di presentazione del corso Ethical Hacker! Scopri di più
Iscriviti ora al Webinar di presentazione del corso CISO! Scopri di più
Una grave vulnerabilità di sicurezza è stata recentemente individuata in Microsoft 365 Copilot, l’assistente basato su intelligenza artificiale integrato nelle applicazioni di Office come Word, Excel, Outlook e Teams. La falla, denominata EchoLeak, rappresenta la prima vulnerabilità AI zero-click nota che consente agli attaccanti di esfiltrare dati sensibili dal contesto utente di Copilot senza alcuna interazione da parte della vittima. Scoperta dai ricercatori di Aim Labs e segnalata a Microsoft nel gennaio 2025, la vulnerabilità è stata corretta lato server nel maggio 2025 e non richiede azioni da parte degli utenti. Secondo Microsoft, non ci sono prove di sfruttamento reale e nessun cliente è stato coinvolto.
Il funzionamento di EchoLeak evidenzia un nuovo tipo di minaccia, definita LLM Scope Violation. In sostanza, questa categoria di vulnerabilità porta un modello linguistico di grandi dimensioni (LLM) a rivelare dati interni privilegiati senza che l’utente lo desideri o lo sappia. L’attacco sfrutta un’email malevola, apparentemente innocua e simile a un tipico documento aziendale, che contiene una prompt injection nascosta. Questa è progettata per indurre il modello AI ad estrarre ed esfiltrare dati interni sensibili della vittima.
Quando l’utente, in seguito, pone a Copilot una domanda correlata al lavoro, il motore di Recupero-Aumentato (RAG) di Copilot recupera il contenuto dell’email nel contesto della richiesta. A questo punto la prompt injection raggiunge il modello, che viene “ingannato” e inserisce i dati interni in un collegamento o in un’immagine markdown. Se il formato markdown utilizzato richiama il browser a caricare l’immagine, il dato sensibile viene inviato in automatico al server dell’attaccante tramite la richiesta HTTP.
Nonostante Microsoft abbia implementato protezioni come CSP per bloccare domini esterni, i link a Teams e SharePoint sono considerati affidabili. Quindi, questi possono essere sfruttati per trasmettere dati senza restrizioni. EchoLeak, anche se risolto, dimostra quanto le difese tradizionali siano già sotto pressione a causa della crescente complessità e integrazione delle applicazioni AI nei processi aziendali.
Per mitigare rischi simili, le aziende devono rafforzare i filtri contro prompt injection, applicare un controllo granulare sugli input e adottare filtri post-processing sui risultati generati dall’AI, bloccando risposte che contengano link esterni o dati strutturati sospetti. Inoltre, i motori RAG dovrebbero essere configurati per escludere comunicazioni esterne e prevenire il recupero di prompt malevoli. La vulnerabilità EchoLeak rappresenta un campanello d’allarme sull’evoluzione delle minacce AI e sulla necessità di un approccio di sicurezza proattivo.
Utilizziamo i cookie sul nostro sito Web. Alcuni di essi sono essenziali per il funzionamento del sito, mentre altri ci aiutano a migliorare questo sito e l'esperienza dell'utente (cookie di tracciamento). Puoi decidere tu stesso se consentire o meno i cookie. Ti preghiamo di notare che se li rifiuti, potresti non essere in grado di utilizzare tutte le funzionalità del sito.