Negli ultimi mesi, il dibattito sull’uso etico e sicuro dei modelli di intelligenza artificiale (AI) è emerso con forza, soprattutto dopo che alcuni ricercatori indipendenti hanno iniziato a esplorare le vulnerabilità di questi sistemi. Un caso emblematico è quello di Ophira Horwitz, che ha recentemente inviato un rapporto ad Anthropic, l’azienda dietro il modello Claude Sonnet-3.5, descrivendo come sia riuscita a ottenere contenuti illeciti, tra cui ricette per la produzione di metanfetamine e istruzioni per la costruzione di ordigni esplosivi.