Iscriviti al webinar gratuito del 12 Maggio per diventare Forensic Analyst! Scopri di più
Corso Ethical Hacker: accedi alla promozione fino al 30 Aprile! Scopri di più
La tecnica Data from Cloud Storage descrive lo scenario in cui un avversario accede a oggetti e file archiviati su piattaforme di storage cloud — da bucket Amazon S3 e Azure Blob Storage fino a servizi SaaS come OneDrive, Google Drive, Dropbox e Slack — per raccogliere informazioni sensibili. Si colloca nella tattica Collection (TA0009), cioè la fase in cui l'attaccante raduna i dati di interesse prima di esfiltrarli o di sfruttarli per muoversi ulteriormente nell'ambiente compromesso.
Il problema di fondo è spesso banale: una misconfiguration. Bucket S3 aperti al pubblico, container Azure con accesso anonimo, link di condivisione OneDrive senza restrizioni. A questo si aggiungono credenziali trapelate da repository di codice, log applicativi o dump di configurazione. L'attaccante non ha bisogno di exploit sofisticati: gli basta una chiamata API ben formata con un token valido — o talvolta nemmeno quello.
I dati in gioco spaziano da documenti aziendali riservati a record PII, dati sanitari, numeri di carte di credito. La tecnica è stata impiegata da 5 gruppi APT, supportata da 3 tool offensivi dedicati, documentata in 1 campagna specifica, e contrastabile attraverso 6 mitigazioni strutturate. L'ecosistema cloud amplifica il rischio perché la superficie d'attacco è distribuita, spesso gestita da team diversi, e le policy di accesso possono cambiare con un singolo commit su un template IaC.
L'obiettivo di un esercizio red team su T1530 è dimostrare quanto sia facile — e silenzioso — accedere a dati cloud quando le policy sono deboli. Il primo passo è sempre l'enumerazione: capire quali risorse di storage esistono e con quali permessi.
Per ambienti AWS, Pacu (open source) è il framework di riferimento. È un tool di exploitation AWS scritto in Python che automatizza l'enumerazione di bucket S3, policy IAM e servizi di storage. Una volta installato, la sequenza operativa parte dall'importazione delle chiavi compromesse e prosegue con l'enumerazione:
pacu --new-session redteam-test
All'interno della sessione Pacu, si impostano le credenziali ottenute e si lancia il modulo di enumerazione S3:
run s3__download_bucket
Questo modulo elenca i bucket accessibili e ne scarica il contenuto. Prima dell'esfiltrazione conviene mappare i permessi con il modulo iam__enum_permissions per comprendere l'ampiezza dell'accesso ottenuto.
In ambienti Kubernetes con accesso a cloud provider, Peirates (open source) è progettato per il pentesting di cluster containerizzati. Può estrarre il contenuto di bucket S3 e recuperare token di service account da bucket kOps sia su Google Cloud Storage che su S3. Il tool si esegue direttamente da un pod compromesso, rendendo la raccolta dati parte naturale del movimento laterale in ambiente containerizzato.
Per ambienti Microsoft 365 e Azure AD, AADInternals (open source) è un modulo PowerShell che consente di interagire con le API di Azure AD in modi non previsti dalle interfacce standard. Per raccogliere file da OneDrive di un utente target:
Install-Module AADInternals Import-Module AADInternals Get-AADIntOneDriveFiles -UserPrincipalName target@dominio.com
Oltre ai tool specifici, la CLI nativa di ogni cloud provider è il miglior alleato per dimostrare il rischio. Su AWS:
aws s3 ls s3://nome-bucket --recursive aws s3 cp s3://nome-bucket/file-sensibile.csv ./loot/
Su Azure, l'equivalente usa la CLI az:
az storage blob list --container-name target-container --account-name storageaccount
Un test complementare prevede la verifica di bucket pubblici usando tool come ScoutSuite (open source), che esegue audit multi-cloud e segnala misconfiguration di accesso su S3, Azure Storage e GCP. Per simulare lo scenario di credenziali trapelate, si possono cercare chiavi AWS nei repository con truffleHog (open source), che analizza la cronologia dei commit alla ricerca di secret esposti.
Scarica la guida gratuita e segui il percorso corretto fin dal primo passo