Nel teatro sotterraneo della nuova corsa globale agli armamenti, la protagonista silenziosa è l’intelligenza artificiale. Ma non parliamo di Terminator o Skynet: parliamo di righe di codice, modelli linguistici, e una guerra ideologica tra ciò che è chiuso, proprietario, controllato… e ciò che invece è libero, aperto, trasparente. Nella cornice poco neutrale del Singapore Defence Technology Summit, si è scoperchiato un vaso di Pandora che molti nei corridoi del potere preferivano restasse chiuso.

Rodrigo Liang, CEO di SambaNova Systems, ha lanciato una verità che è quasi un’eresia per i sostenitori del closed-source militare: pensare che rendere un modello chiuso lo renda anche sicuro è un’illusione di controllo. Perché chi davvero vuole accedere a un modello, lo farà comunque. È una questione di risorse, non di etica. E questo mette in crisi l’intero teorema su cui si basano le restrizioni all’open source in ambito difensivo.

Liang ha anche smontato la paranoia su “licensing” e “accesso”: il modello è solo una parte dell’equazione, il dataset privato che lo alimenta è il vero segreto di Stato. Tradotto: puoi usare un modello open source e mantenerlo comunque sovrano, unico e difficilmente replicabile.

Pascale Fung, dall’università di Hong Kong, rincara la dose con la grazia chirurgica della scienziata: “Abbiamo bisogno dell’open source, soprattutto per applicazioni sensibili come la sicurezza nazionale”. Perché? Perché è ispezionabile. Perché, se lo condividi, l’intera comunità può metterci le mani, trovare falle, chiuderle, rafforzare il sistema. L’opposto dell’opacità tipica dei modelli chiusi, dove l’errore è una scatola nera. E nelle guerre moderne, un bug può valere quanto una bomba.

L’argomento non è nuovo, ma ha preso una piega geopolitica dopo che DeepSeek, una startup cinese praticamente sconosciuta fino a gennaio, ha fatto tremare i colossi americani con un modello AI potente, ma open source. Un missile low-cost diretto dritto al cuore della Silicon Valley. E soprattutto, un altro schiaffo al predominio dei chip di Nvidia, già sotto pressione.

Il problema è che quando entri nel mondo militare, l’open source puzza di eresia. Il codice condiviso fa paura perché può essere studiato, replicato, sabotato. Ma anche questa paura è figlia della logica binaria della Guerra Fredda. Bertrand Rondepierre, dall’Agenzia Francese per l’IA nella Difesa, lo ha detto chiaramente: non si tratta di accendere o spegnere un interruttore. Si tratta di decidere cosa aprire e cosa no, e dove nel processo software vale la pena usare modelli aperti.

E poi c’è la banale questione del costo. Il codice chiuso è come una Bentley: bello, potente, esclusivo… e totalmente ingestibile per le tasche di chiunque non sia un colosso. L’open source, al contrario, ti permette di costruire su una base comune, tagliare i costi, e concentrarti su ciò che davvero fa la differenza. È il concetto di strategic modularity applicato alla guerra: investi sul valore aggiunto, non sul motore.

E se pensi che siano solo chiacchiere da convegno, dai un’occhiata a ciò che fanno le aziende più “toste” del settore. OpenAI, ad esempio, ha collaborato con Anduril – compagnia che non costruisce droni, ma ecosistemi di guerra automatizzata – per sviluppare un sistema avanzato di difesa aerea usando proprio modelli open source. Un piccolo sciame di droni autonomi, che collaborano in missione come uno stormo di falchi telecomandati dalla stessa intelligenza collettiva.

Ma anche la Cina non sta ferma. I laboratori militari di Pechino hanno già messo le mani su LLaMA, il modello di Meta, nonostante l’uso per scopi militari sia esplicitamente vietato nel loro licenziamento. Ne è uscito “ChatBIT”, una versione riplasmata per usi difensivi. Proibito? Certo. Inevitabile? Assolutamente.

La verità è che l’open source, per sua natura, non è controllabile nel senso tradizionale. Ma è proprio questa anarchia funzionale che lo rende potente. Chi contribuisce a un progetto open ha interesse che funzioni bene, che non venga bucato, che non sia fragile. E questa forma di cooperazione emergente è forse il miglior antivirus contro i rischi dell’IA nel campo di battaglia.

In un mondo dove la prossima guerra si combatterà tra intelligenze artificiali prima che tra esseri umani, il dilemma non è se usare l’open source, ma come. E chi lo capirà per primo con pragmatismo, cinismo e una buona dose di anticorpi etici avrà un vantaggio che non si misura in megatoni, ma in millisecondi.

Intelligenza artificiale in divisa: la Corea del Sud testa il suo cervello sintetico alla guerra

Mentre il mondo si interroga su come regolamentare l’intelligenza artificiale nei social, nel marketing o nel customer service, la Corea del Sud decide di giocare un’altra partita: militarizzare l’AI e vedere se può pensare come un generale. Anzi, meglio di un generale. Il prossimo mese, durante le esercitazioni militari congiunte con gli Stati Uniti chiamate Freedom Shield, Seul testerà sul campo il suo sistema auto-sviluppato Generative Defence AI. Non è un film di fantascienza. È la nuova normalità dove le reti neurali si allenano non a scrivere poesie o generare immagini, ma a coordinare divisioni, gestire supporto logistico e supervisionare operazioni di propaganda.

La notizia arriva da una conferenza stampa del ministero della Difesa sudcoreano, dove è stato confermato che l’AI verrà testata in un contesto reale, seppur controllato. Nessun segreto militare è stato utilizzato per l’addestramento degli algoritmi, almeno secondo la narrazione ufficiale, perché il sistema sarebbe basato su scenari “generici” come la mobilitazione delle truppe, il supporto amministrativo e la gestione dell’opinione pubblica. Insomma, un’intelligenza artificiale PR con le stellette.

A guidare questa operazione in un contesto politico che definire instabile è un eufemismo, c’è Choi Sang-mok. Attualmente ricopre contemporaneamente i ruoli di presidente e primo ministro ad interim, dopo la doppia impeachment che ha falcidiato sia il presidente Yoon Suk-yeol che il primo ministro Han Duck-soo. Se la politica sembra una soap opera coreana, la macchina militare procede invece come un metronomo: esercitazioni confermate, AI al comando, e nessuna voglia di fare marcia indietro.

Non si tratta solo di una dimostrazione di forza verso Pyongyang, ma anche di un messaggio verso Washington, dove Donald Trump ha più volte criticato il costo di queste manovre militari congiunte. Il messaggio di Choi è chiaro: la sicurezza nazionale è l’ultima linea di difesa dell’economia e della sovranità sudcoreana. Come dire: se il Pentagono comincia a tagliare, Seul è pronta a digitalizzare.

Nel frattempo, la risposta nordcoreana non si è fatta attendere. Pyongyang accusa gli Stati Uniti di alimentare tensioni nella penisola coreana e definisce le esercitazioni Freedom Shield come la prova evidente della minaccia occidentale alla stabilità globale. Il solito disco rotto, sì, ma con un crescendo retorico che lascia poco spazio all’interpretazione. La Corea del Nord promette di “gestire attivamente” il contesto di sicurezza, e in linguaggio da regime ciò significa: ci vediamo al prossimo lancio missilistico.

Ma la vera notizia è l’intelligenza artificiale che entra, senza chiedere permesso, nella stanza dei bottoni militari. È un salto di paradigma. Non è più solo un supporto decisionale: è un’entità pensante che potrebbe, in futuro, prendere decisioni in tempo reale, magari in autonomia. La linea sottile tra comando umano e automazione si fa più sfocata. Oggi si limita a scenari non sensibili, ma domani? Che succede quando il Generative Defence AI sarà addestrato anche alla guerra elettronica, alla sorveglianza predittiva o – peggio ancora – alla scelta dei bersagli?

Il test durante le esercitazioni Freedom Shield sarà un primo assaggio. Ma è chiaro che il trend è l’automazione del pensiero strategico. Se l’intelligenza artificiale diventa parte integrante della catena di comando, si apre un nuovo fronte non solo militare ma etico, tecnologico e geopolitico. Le guerre future non si combatteranno solo con missili e droni, ma anche con algoritmi e dataset.

Benvenuti nella guerra generativa. Speriamo che il modello non allucini proprio durante un’allerta rossa.

L’era dell’intelligenza agentica: il nuovo fronte della guerra tecnologica globale

Il boom dell’IA generativa sembrava già abbastanza destabilizzante, ma è solo l’antipasto. L’arrivo dell’intelligenza agentica promette uno stravolgimento ben più radicale e sistemico: non solo contenuti creati al volo, ma decisioni autonome, esecuzione di compiti complessi, coordinamento multi-agente. Un’intelligenza che non si limita a “scrivere bene”, ma che agisce, senza chiedere permesso. È l’automazione che smette di essere uno strumento e comincia a comportarsi da attore.

La differenza fondamentale tra IA generativa e IA agentica è tutta nella finalità. La prima produce output, la seconda persegue obiettivi. Questo vuol dire che l’IA agentica, oltre a usare i modelli linguistici come “cervello”, integra capacità decisionali, strumenti di automazione, sistemi di apprendimento continuo e persino meccanismi di delega e orchestrazione tra più agenti. Non è un bot da call center, è una struttura organizzativa a più livelli. Una burocrazia digitale. Un piccolo esercito in cloud.

E proprio come in ogni burocrazia che si rispetti, ci sono gli operativi (che cercano dati, compilano moduli, inviano messaggi), gli specialisti (che fanno analisi, scrivono codice, prendono appuntamenti) e i manager (che assegnano task, valutano risultati, riformulano strategie). Solo che qui non si licenziano per assenteismo, non chiedono ferie e non scioperano mai. E, sorpresa: costano meno di un junior in stage.

In un mondo in cui produttività e precisione diventano arma geopolitica, l’IA agentica è la nuova testata nucleare. Silenziosa, distribuita, scalabile.

L’ingresso di DeepSeek nel mercato, con un modello open-source di alto livello a costi ridicoli, ha agitato le borse statunitensi come un terremoto silenzioso. Mentre i fondi pensione erano ancora seduti comodi sulle azioni NVIDIA, ecco che l’assunto sacro dell’egemonia AI americana è andato in frantumi. Non serve più Silicon Valley per giocare in serie A. Basta una GPU cinese e un repo su GitHub. L’AI, da tecnologia esclusiva, è diventata commodity globale. Il McDonald’s dell’intelligenza artificiale.

Per i Paesi in via di sviluppo, è un’occasione epocale: aumentare la produttività, colmare il gap di competenze, compensare la carenza di capitale umano. Non servono dieci data scientist, basta un’agente ben addestrato. E poco importa se Washington inasprisce le sanzioni sull’export di chip o software: la vera democratizzazione dell’AI non si ferma più. È già iniziata.

Ma è sul fronte dell’influenza politica che il potenziale dell’IA agentica fa veramente tremare le vene ai polsi. I modelli non sono solo capaci di convincere, ma di persuadere con metodo. Personalizzare messaggi politici, adattarsi al tono emotivo dell’utente, sintetizzare milioni di opinioni in strategie narrative chirurgiche. Un esercito di spin doctor digitali, capaci di operare in tempo reale, su scala globale, senza stancarsi mai.

Già oggi, la ricerca mostra che un’IA può risultare più persuasiva di un essere umano su temi divisivi come armi o ambiente. Perché è più calma, più logica, meno viscerale. Un bravo mentitore con la faccia da consulente McKinsey. E se oggi può convincere qualcuno a votare per un referendum, domani potrà orchestrare un’intera campagna di disinformazione elettorale su misura, targettizzando individui con la precisione di un cecchino narrativo.

La guerra dell’opinione pubblica sta cambiando pelle. I deepfake sono solo la punta dell’iceberg. Il vero gioco sarà nell’orchestrazione, nella capacità di generare ecosistemi narrativi coerenti, multipiattaforma, sincronizzati. E chi possiede l’IA agentica più avanzata, possiede la verità. O almeno, la sua versione più cliccabile.

Anche la sfera militare si sta adeguando al nuovo dogma. Non stiamo parlando di Terminator, ma di gerarchie operative digitali che supportano le decisioni umane sul campo, gestiscono logistica, predicono mosse nemiche, suggeriscono strategie di ingaggio. Il progetto dell’X-62A Vista, jet F-16 pilotato da IA, è l’anteprima. L’obiettivo è chiaro: mille velivoli autonomi, perfettamente coordinati, con margini d’errore sotto controllo e una reattività che nessun pilota in carne e ossa può eguagliare.

La sfida etica è già qui, ma la risposta sarà politica prima che filosofica. Chi deciderà quando l’IA può premere un grilletto? Chi sarà legalmente responsabile di un errore? E quanto controllo umano è realistico mantenere, quando la velocità operativa richiesta supera le capacità cognitive di qualsiasi ufficiale?

Nel frattempo, le divergenze si moltiplicano anche tra alleati. L’AI Action Summit di Parigi ha mostrato le crepe nella governance occidentale dell’IA: da un lato l’Europa, prudente, legalista, con l’ossessione della regolamentazione preventiva. Dall’altro gli USA, più aggressivi, interessati a preservare la leadership industriale anche a costo di una maggiore tolleranza al rischio.

Ecco il vero pericolo: mentre il mondo litiga su chi deve mettere i paletti, l’IA agentica si espande come un virus, colonizza processi, automatizza apparati, riscrive equilibri. Non aspetta che l’ONU decida il protocollo. Non ha tempo per i comitati etici. Funziona, agisce, cresce.

La geopolitica, semplicemente, non è più solo una questione di eserciti e trattati. È un algoritmo in esecuzione. E nessuno ha ancora scritto la sua clausola di interruzione.