Per anni, ci siamo immaginati il futuro della guerra come un grande palcoscenico sci-fi, un po’ alla Philip K. Dick, con droni spietati e robot killer che si aggirano tra le macerie di un mondo in conflitto. Era il nostro Ubik, ma con un filo di ansia in più. Oggi, quel futuro è diventato tangibile. Le armi autonome – capaci di muoversi, localizzare obiettivi e, in alcuni casi, sparare senza alcun intervento umano – sono una realtà concreta. Droni, torrette automatizzate e veicoli blindati autonomi come il Rex MK II (utilizzato dall’esercito israeliano) dimostrano che anche il peggio della nostra immaginazione può prendere forma.

Eppure, ci aspettavamo che i robot killer fossero la fanteria del futuro, con l’intelligenza artificiale relegata a un ruolo di supporto, magari per affiancare i soldati sul campo. Ma c’è sempre una sorpresa dietro l’angolo: la tecnologia non solo affianca i soldati, ma inizia a prendere il comando. E no, non stiamo parlando di un nuovo tipo di caporale con una smart voice assistant che ordina caffè e panini. Stiamo parlando di algoritmi di deep learning che scalano le gerarchie militari. È l’intelligenza artificiale che pianifica strategie, prende decisioni e impartisce ordini di guerra.

L’Inquietante Caso di Israele: Il Progetto Lavender, un’arma a doppio taglio

Prendiamo ad esempio Israele, dove il Progetto Lavender sta facendo discutere. Questo sistema sembra uscito da un romanzo distopico – se solo non fosse reale. Lavender non è una “superarma” autonoma; è un software gestionale che raccoglie e analizza enormi quantità di dati: sorveglianza di massa su Gaza, immagini dai droni, intercettazioni telefoniche e social media. L’intelligenza artificiale incrocia questi dati per identificare potenziali membri di Hamas, decidendo dove, quando e come colpirli.

Il punto interessante è che Lavender può “selezionare” fino a 100 obiettivi al giorno. Un numero sorprendente se consideriamo che in passato l’esercito israeliano riusciva a individuare solo 50 obiettivi all’anno. Se pensiamo che questi “obiettivi” siano per lo più membri dei ranghi inferiori di Hamas, la sua precisione – nonostante alcuni errori – è agghiacciante. Ma non finisce qui: l’errore è tollerato; fa parte del gioco. L’esercito ha fissato una tolleranza per gli errori al 10%, il che significa che per ogni dieci persone giustiziate, uno potrebbe essere un civile innocente. In fondo si parla pur sempre di numeri e statistiche.

Un sistema che segue la logica operativa degli assassini mirati ma con il rischio che tutto sembri più una roulette russa che un’operazione strategica. La guerra si trasforma in una formula basata sulla probabilità d’azione. E se gli errori avvengono? Beh, non se ne preoccupano troppo; si tratta pur sempre di un gioco di numeri! Dove le probabilità e il caos si mescolano fino a diventare una filosofia del quotidiano.

La domanda sorge spontanea: dove finisce l’intelligenza e dove inizia la follia? La guerra in Ucraina ha visto l’introduzione di piattaforme come Palantir, i cui algoritmi offrono agli eserciti la possibilità di monitorare e colpire bersagli con una velocità e precisione incredibili. Un altro esempio è Kropyva, il software russo che calcola automaticamente le coordinate per il lancio delle armi. Tutto questo avviene in pochi minuti, laddove prima erano necessarie ore.

Ma chi controlla davvero il gioco? Quando le decisioni vengono prese in tempo reale da un algoritmo, gli esseri umani rischiano di diventare semplici pedine nel grande scacchiere della guerra. Il bias dell’automazione gioca un ruolo cruciale: i soldati possono finire per fidarsi ciecamente dei suggerimenti dell’AI, considerata “oggettiva”, anche quando questi suggerimenti potrebbero rivelarsi errati. La delega della responsabilità diventa sempre più evidente; non è solo un problema etico ma una questione di vita o di morte.

In passato molti immaginavano che l’intelligenza artificiale avrebbe portato a una pace universale; oggi sembra chiaro che la vera eredità della tecnologia sarà ben più sinistra. Droni e armi autonome sono già qui; si combatte con maggiore precisione ma anche con un dispendio umano più elevato. Ogni obiettivo è più facile da colpire; ogni guerra è più rapida; ma ogni morte è più numerosa. Più che una via verso un mondo migliore, l’intelligenza artificiale ha aperto un’autostrada verso conflitti letali dove la guerra diventa ancora più spietata.

In questa nuova era bellica, l’uomo non è più il protagonista assoluto; l’intelligenza artificiale ha scalato le gerarchie militari con una velocità tale da lasciare poco spazio alla riflessione e ancor meno al controllo umano. Ci siamo ridotti a comprimari in un film scritto da qualcun altro; e non siamo nemmeno certi di poter cambiare il finale.

“La vita è quello che ti succede mentre sei impegnato a fare altri progetti.”

Woody Allen:

E in questo caso specifico? I progetti sembrano essere decisamente inquietanti.

E così ci ritroviamo nel bel mezzo di questa commedia tragica: mentre cerchiamo di capire se siamo noi a controllare la tecnologia o viceversa, i droni volano sopra le nostre teste come uccelli impazziti nel cielo grigio dell’umanità moderna – perché chi ha bisogno di metafore quando hai già così tanti problemi reali?

Cingolani: “La pace va difesa. Serve uno sforzo europeo”
“DAVANTI A SFIDE EPOCALI OCCORRONO SOLUZIONI STRAORDINARIE COME LA DIFESA COMUNE”. PARLA L’AD DILEONARDO

Leggi anche: La Guerra del Futuro I