I ricercatori di Microsoft hanno scoperto una tecnica di jailbreak chiamata “Skeleton Key” che può superare le protezioni di molti modelli di intelligenza artificiale generativa, permettendo agli hacker di ottenere informazioni sensibili o dannose.
I ricercatori di Microsoft hanno scoperto una tecnica di jailbreak chiamata “Skeleton Key” che può superare le protezioni di molti modelli di intelligenza artificiale generativa, permettendo agli hacker di ottenere informazioni sensibili o dannose.
CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie