Meta, purtroppo, sta cercando di presentare come sicuro e controllato un sistema che, in realtà, è ben lungi dall’essere in grado di impedire l’uso improprio delle sue tecnologie. Nonostante l’impegno apparente nella protezione della sicurezza, l’azienda sta creando una finzione ben orchestrata, nel tentativo di nascondere la verità: una volta che un modello AI come Llama viene rilasciato al pubblico, diventa impossibile garantire che non venga utilizzato per scopi dannosi. La recente vicenda che ha visto l’esercito cinese utilizzare Llama di Meta ne è un chiaro esempio, e la risposta dell’azienda una dichiarazione che condanna l’uso non autorizzato appare ridicola, considerando la natura aperta e pubblica dei modelli che ha rilasciato.

Nel corso del tempo, Meta ha cercato di mantenere un’apparenza di controllo sull’uso dei propri modelli AI, come Llama, vantandosi delle sue “misure di sicurezza” e delle linee guida che dovrebbero limitare usi dannosi. Tuttavia, la realtà è che queste protezioni sono facilmente aggirabili. Come rivelato da studi indipendenti, rimuovere i limiti di sicurezza di Llama 2 richiede poco più di un investimento di 200 dollari. Il modello Llama 3, sebbene più avanzato, può essere sottoposto a jailbreak in pochi minuti. Ancor più preoccupante, chiunque può accedere a versioni già jailbroken del modello, rendendo inefficaci gli “strumenti di sicurezza” pubblicizzati da Meta. I guardrail che l’azienda promuove come misure di sicurezza sono fondamentalmente inadeguati, facilmente eludibili, e non impediscono l’uso dei modelli per compiere attività illegali, come l’hacking o la generazione di codice dannoso.

Il fenomeno del “jailbreaking” dei modelli AI non è limitato a Meta. Altri modelli come ChatGPT, Claude e Gemini sono anch’essi vulnerabili a manipolazioni simili, ma c’è una differenza cruciale tra i modelli di Meta e quelli di altre aziende come OpenAI, Anthropic e Google. Le aziende con modelli a “peso chiuso” possono applicare patch per contrastare metodi di jailbreaking emergenti e, soprattutto, hanno la possibilità di revocare l’accesso alle loro API ai cattivi attori. Meta, tuttavia, non può fare lo stesso per Llama, in quanto una volta rilasciati i pesi del modello, questi diventano sempre disponibili, anche per i “malintenzionati”. Questa realtà è stata sottolineata dai senatori Richard Blumenthal e Josh Hawley, che hanno osservato come i modelli open-source siano particolarmente vulnerabili a un uso improprio, una volta che sono rilasciati al pubblico.

Non c’è dubbio che l’open source abbia dei benefici notevoli, come il rafforzamento della ricerca e la democratizzazione dell’accesso alle tecnologie. Ma Meta, nel rilasciare i pesi dei propri modelli come Llama, ha preso una decisione fondamentale senza considerare appieno le implicazioni della sua scelta. L’azienda sembra essersi concentrata più sulla creazione di una narrativa rassicurante riguardo alla propria responsabilità e ai suoi “guardrail”, piuttosto che affrontare la realtà: una volta che un modello è disponibile pubblicamente, non esistono meccanismi concreti per impedirne un uso illecito o dannoso. La risposta di Meta a queste preoccupazioni, che si traduce in dichiarazioni di “sicurezza” non applicabili, non fa altro che alimentare una copertura che non corrisponde alla realtà.

Le accuse rivolte a Meta non sono semplicemente di negligenza, ma di una vera e propria manipolazione della percezione pubblica. La sua politica di utilizzo accettabile è praticamente priva di sostanza. Anche se l’azienda ha fatto dichiarazioni riguardo a interventi per arginare il rischio di uso improprio, le azioni concrete sono limitate e difficilmente applicabili in un contesto di AI open-source. Lamentarsi del rischio di abusi dopo aver rilasciato liberamente il codice aiuta poco a mascherare la verità: Meta ha creato un sistema che non può davvero controllare.

L’unico modo per correggere questa situazione sarebbe che Meta riconoscesse apertamente le implicazioni del rilascio pubblico dei suoi modelli. Le sue misure di sicurezza, come l’installazione facoltativa di protezioni o l’eliminazione rapida dei guardrail, sono manifestazioni superficiali di una gestione della sicurezza che non tiene conto dei veri rischi legati all’uso illecito. Riconoscere i limiti del proprio approccio e prendere misure più concrete per affrontare i rischi legati all’open-source sarebbe un passo fondamentale verso una gestione più responsabile e trasparente dei modelli AI.