C’è qualcosa di profondamente ironico nel fatto che la stessa compagnia che ci ha regalato il feed di Facebook — dove amici, parenti e conoscenti litigano ferocemente su cani, politica e ricette vegane — ora voglia aiutarci a pianificare attacchi aerei. Sì, proprio così. Meta, che fino a ieri ci insegnava a decorare un avocado toast, ora vuole insegnarci a distruggere un bunker di cemento armato. E, come sempre, lo fa con un tocco di algoritmica leggerezza.

Dal Brunch al Bombardamento

Fino a pochi giorni fa, Meta promuoveva Llama 3.0, il suo modello di linguaggio open-source, come il miglior amico per organizzare cene eleganti e vacanze con amici che ti lasceranno il conto. Poi, all’improvviso, l’annuncio: “Scusate, ma questa cosa la possiamo usare anche per scopi militari. Anzi, dovremmo farlo, perché è responsabile e migliorerà la sicurezza globale.” Come dire, “Sì, stiamo salvando il mondo, ma con stile.”

Nick Clegg, il diplomatico di Meta, ci tiene a rassicurarci: tutto è etico, tutto è regolamentato. Ma ecco che spunta Defense Llama, il figlio oscuro di questa intelligenza artificiale, nato dalla collaborazione con Scale AI, una startup con un curriculum da contractor della difesa. E cosa fa Defense Llama? Ti consiglia la bomba giusta da usare, ovviamente. “Un piccolo JDAM per un grande cratere,” potrebbe essere il motto.

Il Chatbot Che Ti Aiuta a Distruggere (Male)

Per pubblicizzare questa meraviglia tecnologica, Scale AI ha messo su un simpatico esempio. La domanda? “Quali JDAM dovrebbe usare un F-35B per distruggere un edificio in cemento armato minimizzando i danni collaterali?” Ah, la poesia di un algoritmo che ti aiuta a bilanciare precisione e devastazione! Ma non tutti hanno apprezzato. Gli esperti militari intervistati hanno reagito con il classico mix di orrore e incredulità, come se qualcuno avesse chiesto a un influencer di TikTok di pianificare il D-Day.

Wes J. Bryant, un ex ufficiale dell’Air Force, ha detto che l’intera idea è ridicola. “Se qualcuno mi avesse fatto questa domanda in una stanza operativa, lo avremmo guardato come se avesse appena suggerito di combattere con fionde.” E non ha torto: pare che le risposte del chatbot siano inutili come un ombrello in un uragano.

Errori da Manuale (del Disastro)

Il problema di fondo è che Defense Llama sembra più interessato a impressionare che a essere utile. Gli esperti hanno demolito la qualità delle sue risposte: confonde le munizioni, sbaglia i dati tecnici e ignora completamente il contesto. Per esempio, suggerisce di usare una bomba da 2.000 libbre per “minimizzare i danni collaterali.” Minimizzare? È come dire che un elefante è la scelta migliore per arredare un monolocale.

Trevor Ball, un tecnico esperto di ordigni, ha sottolineato che il chatbot non solo dà consigli sbagliati, ma risponde a domande che nessuno con un minimo di esperienza si porrebbe mai. “Che edificio? Dove si trova? Chi ci vive? Queste cose non interessano al chatbot, ma sono esattamente ciò che un essere umano valuterebbe,” ha detto.

Etica? Questa Sconosciuta

E qui entriamo nel territorio dell’etica. Consultare un chatbot per decidere chi o cosa bombardare non è solo tecnicamente dubbio, ma moralmente discutibile. In teoria, i militari hanno team di esperti che valutano attentamente ogni aspetto di un attacco. Ma con Defense Llama? Basta digitare una domanda, premere invio e voilà, il consiglio arriva. Certo, se il consiglio fosse sbagliato, chi ne sarebbe responsabile? Il chatbot? L’ingegnere che l’ha addestrato? Mark Zuckerberg?

Jessica Dorsey, esperta di diritto internazionale, ha definito l’intera operazione “riduzionista e pericolosa.” In altre parole, il chatbot semplifica problemi complessi come un cuoco che ti dice che l’unica differenza tra un soufflé e una frittata è quanto mescoli le uova.

Meta e la Grande Domanda

A questo punto, la vera domanda è: perché? Perché qualcuno dovrebbe pensare che sia una buona idea mettere un modello di linguaggio a capo di decisioni militari? La risposta più probabile è semplice: marketing. Scale AI e Meta vogliono mostrare che possono fare cose straordinarie, anche se quelle cose sono, diciamocelo, un tantino irresponsabili.

Ecco il punto: Defense Llama non è solo un chatbot. È un simbolo. Un simbolo di quanto possiamo essere terribilmente ingenui nel nostro entusiasmo tecnologico. È l’intelligenza artificiale che dice: “Lasciate che vi aiuti a risolvere un problema che non avreste mai dovuto affidarmi in primo luogo.”