La notizia della scorsa settimana sembrava la classica trovata da film di fantascienza di serie B: due Marines americani, in missione tra Corea del Sud e Filippine, usano un chatbot generativo simile a ChatGPT per analizzare dati di sorveglianza e segnalare minacce. Non si tratta di un esercizio di marketing tecnologico, ma di un vero e proprio test operativo di come il Pentagono stia accelerando la sua corsa nell’integrazione dell’intelligenza artificiale generativa nei processi militari più sensibili. Altro che “assistente virtuale”, qui parliamo di sistemi che leggono informazioni di intelligence e propongono scenari operativi, inserendosi direttamente nel ciclo decisionale di guerra. Se vuoi farti un’idea più precisa di questa follia organizzata puoi dare un’occhiata alla notizia originale.
Già dal 2017, con la computer vision applicata ai droni, il Dipartimento della Difesa statunitense aveva flirtato pesantemente con l’AI. Ma l’attuale “fase due”, voluta sotto l’amministrazione Biden e ora urlata ai quattro venti da Elon Musk con il suo DOGE e da Pete Hegseth al Pentagono, punta tutto sulla velocità e l’efficienza delle IA conversazionali. Peccato che non si parli mai abbastanza del rischio collaterale più ovvio: un errore algoritmico può non solo sbagliare un target, ma scatenare una crisi geopolitica irreversibile. In pratica, la macchina potrebbe scegliere chi vive e chi muore… sulla base di una correlazione statistica. Applausi.
I sostenitori di questa svolta parlano con entusiasmo di “minore errore umano”, “riduzione dei danni collaterali” e altre formule da presentazione PowerPoint. Peccato che chi studia davvero la sicurezza delle IA, come Heidy Khlaaf dell’AI Now Institute, faccia notare che l’idea del famoso “human in the loop” sia più un palliativo psicologico che una reale misura di sicurezza. Se un sistema basato su AI elabora migliaia di fonti simultaneamente, pensare che un povero analista umano possa validare tutto prima di autorizzare un’azione è una barzelletta tragica. È come mettere un vigile a controllare il traffico di un’intera metropoli da solo, armato solo di un fischietto.
Anche la gestione delle informazioni classificate si sta avvitando su sé stessa. Con l’era del big data e degli LLM, il concetto stesso di “segreto militare” rischia di diventare un ossimoro. Non serve più un genio da romanzo di spionaggio per mettere insieme pezzi di informazione apparentemente innocui e ricostruire scenari da top secret: basta un modello generativo mediamente addestrato. E qui la partita è ancora più sporca, perché il rischio è duplice: o si sovraclassifica tutto, rendendo ingovernabile la catena di comando, oppure si sottoclassifica, esponendo segreti vitali a occhi indiscreti.
Palantir e Microsoft, non proprio due nomi sinonimi di trasparenza e responsabilità etica, sono già pronte a “offrire soluzioni” basate su AI per decidere quali dati meritano davvero la classificazione. Una specie di outsourcing algoritmico della segretezza militare. Cosa potrebbe mai andare storto?
E se ti stai chiedendo fin dove può arrivare questa deriva, la risposta è semplice: sempre più in alto nella catena decisionale. Oggi gli LLM aiutano a interpretare dati di sorveglianza. Domani, suggeriranno tattiche di battaglia. Dopodomani, potrebbero decidere autonomamente di lanciare un attacco preventivo. Perché la traiettoria è chiara: dal supporto analitico, all’esecuzione autonoma. Lo stesso identico percorso che abbiamo visto nel mondo consumer, dove oggi un’AI può prenotarti una vacanza o mandare email a tuo nome senza che tu te ne accorga. Solo che qui non si tratta di perdere un biglietto aereo, ma di scatenare una guerra.
Il memorandum sulla sicurezza dell’AI pubblicato a ottobre dalla Casa Bianca tentava di mettere dei paletti. Ma con Trump di nuovo al timone, il mantra è cambiato: meno regolamentazione, più “innovazione”. Perché nella nuova corsa agli armamenti AI, chi rallenta è perduto. E quindi avanti tutta, a occhi bendati, sperando che l’algoritmo non abbia il suo personale piano B.
In questo panorama inquietante, la domanda non è se gli errori accadranno, ma quanto costeranno. E, soprattutto, a chi.