I ricercatori di cybersecurity hanno recentemente scoperto nuove tecniche di jailbreak in grado di aggirare le barriere etiche implementate nei più avanzati modelli di linguaggio, come GPT-5, consentendo così la generazione di risposte non autorizzate o dannose. Una delle tecniche più innovative, denominata Echo Chamber, viene combinata con narrazioni guidate per ingannare
...