Il Complexity Institute è un’associazione fondata nel 2010 con l’obiettivo di diffondere il pensiero complesso e l’etica nei comportamenti per aiutare le persone e le organizzazioni a comprendere meglio il contesto e diventarne parte attiva. 

Il Complexity Institute ha organizzato un incontro sull’intelligenza artificiale nella Difesa. Durante l’incontro, si è discusso dell’impatto attuale e potenziale dell’IA nelle operazioni militari e delle misure che regolano il suo uso nella Difesa, bilanciando efficacia ed etica.

Fernando Giancotti (Generale di Squadra Aerea (riserva) e professore universitario) e Rosanna Fanni (specializzata in politica internazionale della tecnologia e dell’IA, con esperienza nelle istituzioni internazionali) ne hanno paralto all’evento moderato da Dario Simoncini (Docente di Organizzazione e Management della Complessità, Università di Chieti-Pescara).

Giancotti Fanni e Maria e Mariarosaria Taddeo (professoressa ordinaria di Etica del Digitale e Tecnologie per la difesa presso l’Oxford) hanno pubblicato il libro “Guerre di Macchine. Intelligenza Artificiale tra etica ed efficacia” (2024, Guerini e Associati) di cui abbiamo discusso durante una intervista con Ferdinando Giancotti questo mese.

Rivista.AI ha preso parte all’incontro: ecco le nostre conclusioni

L’intelligenza artificiale (IA) e la digital disruption stanno rivoluzionando il modo in cui pensiamo e operiamo, con profonde implicazioni per l’umanità.

Giancotti ritiene che questa nuova era tecnologica ci riporti alle origini, quando l’uomo viveva in piccole comunità di cacciatori-raccoglitori, ma ora su scala globale, come anche ipotizzato dal filosofo Marshall McLuhan con il concetto di “villaggio globale“, “il cerchio si e’ chiuso ha affermato“.

La complessità del mondo moderno ha portato a una frammentazione della conoscenza e a un approccio meccanicistico, con molti effetti negativi, con una sorta di “disumanizzazione” (come nel film di Chaplin), che ricorda le critiche del filosofo Martin Heidegger all’essenza della tecnica come “messa in riserva” dell’essere.

Questa nuova rivoluzione tecnologica, pur rimettendo l’uomo al centro, necessita di una strategia chiara per creare una cultura umanocentrica rispetto alle macchine.

Il filosofo Yuval Noah Harari, nel suo libro “Homo Deus“, e Paolo Benanti con il concetto di “Human in the loop“, sottolineano l’importanza dell’uomo al centro della transizione e dei processi decisionali, vedendolo come un possibile antidoto all’algocrazia.

Giancotti evidenzia l’importanza di delegare alle macchine solo quando si ha piena fiducia nei compiti assegnati, adottando un approccio olistico e operativo alla digital disruption.

Questo è in linea con il pensiero del filosofo Edgar Morin sulla complessità per Rivista.AI.

Il pensiero complesso e una metodologia rigorosa per interpretare i principi etici di utilizzo dell’IA sono essenziali per garantire che l’uomo rimanga al centro dell’innovazione tecnologica.

Nel corso della storia, l’umanità ha affrontato altre rivoluzioni tecnologiche, come la rivoluzione industriale del XIX secolo, che ha trasformato radicalmente la società.

Tuttavia, la rapidità e la diffusione della digital disruption richiedono una risposta più veloce e consapevole per evitare gli errori del passato e garantire un futuro in cui l’uomo resti al centro del progresso.

Questo concetto è sostenuto anche da Lewis Mumford nel suo lavoro sulla tecnica e la civiltà e dal filosofo Luciano Floridi nel suo studio sull’etica dell’informazione.

Giancotti ha poi messo in evidenza che la rivoluzione negli affari militari (RMA) è stata innescata dai progressi tecnologici, nel corso della storia dalla cavalleria fino ai nostri giorni come ad esempio nello sviluppo di munizioni di precisione negli anni ’70 per contrastare la superiorità militare sovietica.

Successivamente, tecnologie come sistemi di mira avanzati, armi più precise e letalità aumentata hanno portato a un’evoluzione significativa dei sistemi d’arma fino ad oggi dove i sistemi d’arma autonomi (AWS/LAWS) rappresentano una delle innovazioni più avanzate nel campo militare, sfruttando l’intelligenza artificiale (IA) per prendere decisioni operative in tempo reale senza intervento umano diretto.

La RMA non dipende solo dagli aspetti tecnologici, ma anche dalla capacità dei governi di adattarsi ai cambiamenti militari in corso. Fattori sociali e culturali, come la cultura strategica di uno Stato, influenzano l’approccio ai conflitti e ai temi di sicurezza.

Me esistono naturalmente dei Rischi dell’IA in Ambito Militare :

  1. Rischi Etici e Legali: L’uso dell’IA in ambito militare comporta rischi etici e legali significativi. Esistono dubbi sulla conformità dei sistemi AI con il Diritto Internazionale Umanitario (Diritto dei Conflitti Armati) e le Convenzioni di Ginevra del 1949.
  2. Rischi Operativi e Strategici: L’IA può influenzare le decisioni operative e strategiche delle forze armate, ma ciò comporta anche rischi operativi e strategici, come la possibilità di errori e la mancanza di controllo umano sui sistemi autonomi.

Questi devono essere mitigati con l’introduzione di una “Nuova Governance dell’IA in Ambito Militare“. Una governance efficace dell’IA in ambito militare è effettivamente difficile da attuare a causa della velocità con cui la tecnologia evolve.

I governi devono trovare un equilibrio tra mitigare i rischi e promuovere l’avanzamento tecnologico. Per raggiungere questo obiettivo, è necessario sviluppare un nuovo mindset e una nuova riforma degli affari militari.

Il nuovo mindset richiesto implica un approccio più aperto e collaborativo e nuove competenze che debbono essere esplorate. La tecnologia militare sta evolvendo rapidamente, e ciò richiede un cambiamento radicale nelle strutture, nei processi di acquisizione e di implementazione operativa. Questo cambiamento include anche l’adattamento umano e la formazione del personale, trasformandosi in un sostanziale e importante cambiamento di mindset.

Rosanna Fanni specializzata in politica internazionale della tecnologia e dell’IA, ha messo l’accento sul fatto che attualmente, non esiste una regolamentazione internazionale specifica per l’uso dell’intelligenza artificiale (IA) nel contesto militare. Tuttavia, vari organismi internazionali e nazionali stanno lavorando con grandi sforzi e lungimiranza per sviluppare linee guida e normative:

Gruppo di esperti governativi delle Nazioni Unite sui sistemi d’arma autonomi letali (LAWS): Questo gruppo discute le implicazioni etiche e legali delle armi autonome.

Organizzazione per la cooperazione e lo sviluppo economico (OCSE): Ha pubblicato principi sull’IA, sottolineando l’importanza della trasparenza, della responsabilità e del rispetto dei diritti umani.

Parallelamente grandi Stati e Istituzioni come Il Pentagono ha stanziato circa un miliardo di dollari per finanziare la prima fase del programma Replicator, suddiviso in due parti:

  • 500 milioni di dollari nel bilancio fiscale 2024, che saranno inclusi in una richiesta di riallocazione dei fondi o aggiunti all’appropriazione finale per il 2024.
  • 500 milioni di dollari già inclusi nel bilancio per l’anno fiscale 2025.

L’uso di sistemi di intelligenza artificiale e tecnologie autonome nella guerra in Ucraina ha attirato molta attenzione da parte dei media e degli analisti che monitorano l’uso delle tecnologie future nelle guerre contemporanee.

L’Ucraina, con l’aiuto degli Stati Uniti, di altri partner della NATO e di numerose aziende tecnologiche, sta sfruttando l’IA per aggiornare continuamente la propria comprensione del campo di battaglia, supportare il processo decisionale e ottenere un vantaggio in termini di intelligence e operazioni.

Le informazioni sull’utilizzo russo di IA e tecnologie autonome sono meno affidabili. Tuttavia, alcune prove suggeriscono che gli operatori russi hanno tentato di utilizzare l’IA per migliorare le campagne di disinformazione, mentre le forze armate russe stanno facendo un uso estensivo di munizioni a ronda per attaccare le città ucraine e bloccare la controffensiva militare ucraina. Ad esempio entrambe le parti, ucraina e russa, hanno impiegato droni semiautonomi e munizioni a ronda ZALA Lancet (in russo Ланцет).

Questi sistemi possono navigare autonomamente attraverso ambienti complessi, identificare obiettivi e valutare i danni post-attacco. Ad esempio, è stato segnalato l’utilizzo del drone russo KUB-BLA, (in russo Куб-БЛА (dove БЛА è l’acronimo di Беспилотный Летательный Aппарат, ossia “veicolo aereo senza pilota) capace di rilevare autonomamente le coordinate di un obiettivo tramite un’immagine caricata. Tuttavia, non è chiaro se questo drone sia stato effettivamente dispiegato in Ucraina e se abbia operato in modo autonomo.

Emerge quindi l’impellente necessita’ di darsi nuove regole leggi e adottare un nuovo Framework.

Il Pentagono ad esempio sta finalizzando nuove linee guida per la classificazione delle informazioni sul programma Replicator, al fine di proteggere i dettagli sensibili dagli avversari.

Il Dipartimento della Difesa degli Stati Uniti (DOD) sta prendendo misure per proteggersi dagli errori dell’intelligenza artificiale:

Il DOD prevede una “battaglia tra AI e contro-AI” per identificare e bloccare i tentativi di manipolazione dei sistemi di IA e creare sistemi di IA resistenti agli attacchi. Questo include l’utilizzo dell’IA per anticipare e contrastare le minacce in rete che si muovono “alla velocità della luce“.

L’ordine esecutivo firmato dalla Casa Bianca richiede al DOD e al Dipartimento della Sicurezza Interna (DHS) di condurre progetti pilota per utilizzare le capacità dell’IA per scoprire e correggere le vulnerabilità nei software, nei sistemi e nelle reti critiche del governo. Verranno pubblicati rapporti sulle vulnerabilità trovate e risolte grazie all’IA.

L’ordine esecutivo pone l’accento sul monitoraggio e sul collaudo continuo dei modelli di IA per garantire che siano implementati in modo sicuro e non causino danni. Ciò dovrebbe motivare le aziende a progettare e implementare meccanismi di test prima dell’entrata in vigore dei nuovi requisiti.

L’IA in ambito militare offre grandi opportunità, ma richiede una governance efficace per mitigare i rischi etici, legali, operativi e strategici. La convergenza di rischi cyber e bio, nonché l’interazione sicura tra uomo e macchina, sono ulteriori sfide da affrontare.

Il Diritto Umanitario non specifica come l’IA debba essere utilizzata, rendendo necessaria una governance internazionale per regolamentare l’uso etico e responsabile di questa tecnologia.

Stato dell’arte della regolamentazione sull’IA per usi militari e di difesa.

Stati Uniti

Gli Stati Uniti hanno adottato un approccio più leggero e guidato dall’industria per la regolamentazione dell’IA, con l’obiettivo di promuovere l’innovazione. Nel 2023, il Presidente Biden ha emanato un ampio ordine esecutivo sull’IA sicura, affidabile e degna di fiducia. Questo rappresenta un passo positivo, ma l’implementazione sarà impegnativa.

Il governo statunitense sta sviluppando standard, strumenti e test per garantire che i sistemi IA siano sicuri, affidabili e degni di fiducia, inclusa la protezione contro i rischi di utilizzo dell’IA per la produzione di materiali biologici pericolosi e la protezione dei cittadini statunitensi dalle frodi e dalle delusioni alimentate dall’IA.

Unione Europea

L’Atto sull’IA dell’UE esclude esplicitamente i sistemi IA utilizzati esclusivamente per scopi militari, di difesa o di sicurezza nazionale.

Tuttavia, l’Atto avrà comunque un impatto sull’innovazione militare europea, in quanto molti sistemi IA a doppio uso (civili e militari) saranno soggetti alle sue disposizioni. Applicare i requisiti normativi dell’Atto sull’IA, come l’orientamento umano e la supervisione, potrebbe non essere fattibile per i sistemi che operano in ambienti autonomi o classificati.

Canada, Corea del Sud e Australia

Il Canada dovrebbe regolamentare l’IA a livello federale attraverso l’Artificial Intelligence and Data Act (AIDA), che fa parte del disegno di legge C-27.

La Corea del Sud sta sviluppando un Atto sull’IA che dovrebbe diventare il corpo di legge consolidato che regola l’IA una volta approvato dall’Assemblea Nazionale.

L’Australia ha adottato un approccio basato su principi etici volontari per lo sviluppo responsabile dell’IA, con potenziali riforme in fase di considerazione.

Iniziative multilaterali

La NATO ha adottato una propria Strategia sull’IA nel 2021 e ha istituito un apposito organo di revisione per garantire lo sviluppo responsabile dell’IA.

Il G7 ha emanato regolamenti sull’IA che richiedono agli Stati membri di conformarsi al diritto internazionale sui diritti umani e ai pertinenti quadri internazionali.

L’ONU ha adottato una nuova risoluzione che incoraggia gli Stati membri a implementare approcci normativi e di governance nazionali per un consenso globale sui sistemi IA sicuri, affidabili e degni di fiducia.

In sintesi, mentre gli sforzi di regolamentazione dell’IA a livello globale e nazionale si intensificano, permangono sfide significative nell’applicare tali normative agli usi militari e di difesa dell’IA, data la natura a doppio uso di molte tecnologie IA.

Esistono esempi anche in Europa. La nuova agenzia per l’IA militare (AMIAD). La Francia lancerà nel 2024 una nuova agenzia governativa chiamata AMIAD (Agence ministérielle de l’intelligence artificielle de défense) per sviluppare l’IA nel settore della difesa.

L’AMIAD avrà un budget annuale di 300 milioni di euro e sarà diretta da Bertrand Rondepierre, ex manager di DeepMind. L’obiettivo dell’agenzia sarà di perfezionare gli armamenti, i servizi di intelligence e la pianificazione militare attraverso l’IA.

C’e’ un’altro Tema importante che e’ stato affrontato durante il workshop quello di mantenere saldi i principi etici costituzionali adeguandoli al contesto attuale, per questo è essenziale per preservare l’identità e l’efficacia delle forze armate italiane. Un impegno che riguarda tutti, dalle istituzioni ai singoli militari.

La valenza etica è fondamentale nel sistema militare, in quanto le forze armate rappresentano un corpo sociale a cui viene affidata la responsabilità dell’uso della forza. Alcuni punti chiave:

Fedeltà e responsabilità: Quando la società affida il monopolio della forza a un corpo militare, questo deve essere fedele ai principi etici e alle istituzioni democratiche. I militari hanno una responsabilità morale e professionale di agire in modo etico e di contenere l’uso della forza solo quando strettamente necessario.

Mitigazione dell’uso della forza: Nel corso della storia, si è affermata la necessità di mitigare l’uso indiscriminato della forza e della guerra attraverso lo sviluppo di un’etica militare. Questa si basa su principi come la distinzione tra obiettivi militari e civili, il rispetto dei prigionieri e dei non combattenti, e la proporzionalità nell’uso della forza.

Professionalità e disciplina: L’etica militare richiede ai soldati professionalità, disciplina e rispetto delle gerarchie, ma in un contesto di reciproco rispetto e collaborazione, senza rigidità ma con coscienza della propria condizione militare.

Bene comune e servizio alla società: In ultima analisi, l’etica militare deve essere orientata al bene comune e al servizio della società, superando una visione autoreferenziale e promuovendo valori come la solidarietà, la coesione sociale e il rispetto delle istituzioni democratiche.

Mantenere un vantaggio tecnologico è fondamentale per la difesa nazionale, il che ha spinto a sforzi crescenti per sviluppare e implementare tecnologie digitali come l’IA per scopi di difesa. Molti governi e organizzazioni come la NATO hanno identificato l’IA come una tecnologia chiave per mantenere la superiorità sugli avversari.

Tuttavia, questi sforzi per sviluppare e utilizzare l’IA per la difesa non sono stati accompagnati da sforzi per definire quadri etici per guidare l’uso dell’IA in questo dominio. Questa è una lacuna importante che deve essere affrontata.

Uno recente studio Ethical Artificial Intelligence in the Italian Defence: a Case Study (Giancotti e Fanni) sull’uso etico dell’intelligenza artificiale nel settore della difesa italiano ha rilevato che esiste una necessità percepita di introdurre un’etica di difesa basata sull’intelligenza artificiale per giustificare azioni militari contro gli avversari, al fine di “essere cattivi” e proteggere “i buoni”. Ciò evidenzia le sfide e i dilemmi etici che sorgono con l’uso dell’intelligenza artificiale per la difesa nazionale.

I ricercatori hanno proposto un quadro di cinque principi etici chiave per guidare l’uso dell’intelligenza artificiale nella difesa nazionale: usi giustificati e annullabili, sistemi e processi giusti e trasparenti, responsabilità morale umana, controllo umano significativo e sistemi di intelligenza artificiale affidabili.

Colmare il divario tra pratiche civili e militari per uno sviluppo e un utilizzo responsabili dell’intelligenza artificiale è importante per garantire un impiego etico ed efficace dell’intelligenza artificiale a fini di difesa nazionale.

Lo studio di caso di Fanni e Giancotti indaga l’uso etico delle tecnologie Big Data e Intelligenza Artificiale (IA) nella Difesa italiana, come Rivista.AI ne consigliamo la lettura.

Il documento categorizza questioni etiche chiave come pregiudizi negli algoritmi di IA, preoccupazioni sulla privacy e l’impatto sociale dell’IA. Sottolinea l’importanza della trasparenza, della responsabilità e della privacy nello sviluppo etico e nell’implementazione dell’IA.

Lo studio fornisce prove empiriche sulla percezione dell’IA etica all’interno dell’istituzione della Difesa italiana e su come la sua leadership pensa all’implementazione di sistemi di IA e alle implicazioni etiche.

Colma una lacuna critica nella letteratura sull’etica dell’IA presentando i risultati di dieci casi di studio e un’analisi trasversale.

Esamina la discussione sulle questioni etiche dell’IA e sulle strategie di mitigazione proposte nella letteraturaCategorizza le risposte organizzative osservate nella pratica, dimostrando che la Difesa italiana è altamente consapevole dell’importanza di affrontare l’etica dell’IA.

Lo studio contribuisce al dibattito in corso sul futuro dell’etica dell’IA, con l’obiettivo di guidare lo sviluppo di tecnologie di IA che sostengano la dignità umana e contribuiscano al bene comune. Sottolinea la necessità di quadri di governance solidi e di collaborazione internazionale per affrontare efficacemente le sfide etiche

Gli sforzi di regolamentazione dell’intelligenza artificiale a livello globale, nazionale e locale stanno convergendo verso un quadro normativo più coerente, nonostante le differenze di approccio tra Unione Europea e Stati Uniti

Livello globale: Raccomandazione UNESCO sull’etica dell’IA.

La Raccomandazione UNESCO, adottata all’unanimità dai 193 Stati membri nel 2021, rappresenta il primo standard globale sull’etica dell’IA

Promuove valori, principi e politiche per guidare i paesi nello sviluppo di quadri normativi per un’IA al servizio del bene comune. Affronta temi come trasparenza, responsabilità, privacy, impatto ambientale. Fornisce linee guida concrete per l’azione politica in ambiti come governance dei dati, istruzione, cultura, lavoro, sanità ed economia Nonostante sia una raccomandazione non vincolante, richiede agli Stati membri di riferire periodicamente sulle misure adottate

Livello UE: AI Act

Il regolamento UE sull’IA (AI Act), ancora in fase di negoziazione, adotta un approccio basato sul rischio. Definisce restrizioni rigorose per usi considerati ad alto rischio, come classificazione sociale e riconoscimento facciale. Impone valutazioni di conformità obbligatorie e processi di approvazione per l’IA ad alto rischio.

Livello USA: Executive Order di Biden

L’ordine esecutivo di Biden promuove standard di sicurezza volontari sviluppati in collaborazione con le autorità. Adotta una visione più ampia rispetto all’AI Act UE, includendo una gamma più vasta di applicazioni di IA. Si affida principalmente alla collaborazione volontaria con il governo, senza imporre divieti specifici su applicazioni controverse

Livello locale: iniziative di città e stati

Alcuni stati USA come California e città come New York e Boston stanno aggiungendo regole aggiuntive per i loro settori e giurisdizioni . Questo approccio multi-livello sta delineando un quadro normativo in evoluzione per l’IA, con standard globali, leggi regionali e norme locali che si integrano e rafforzano a vicenda.

Nonostante le differenze di approccio, c’è una convergenza verso la necessità di regole per garantire che l’IA sia sviluppata in modo responsabile e a beneficio dell’umanità.

La Raccomandazione UNESCO rappresenta un importante passo avanti verso standard etici globali, mentre l’UE e gli USA stanno sviluppando quadri normativi più dettagliati adatti ai loro contesti.

In sintesi, la digital disruption e l’AI stanno rivoluzionando il mondo del lavoro e della società, nel settore civile e im quello militare. Da un lato ci sono rischi di disoccupazione e disumanizzazione, ma dall’altro grandi opportunità di migliorare il lavoro e la vita delle persone se sapremo gestire questa transizione in modo oculato, con l‘uomo sempre al centro.

Servirà una strategia lungimirante a livello globale, nuovi Frameworks, nuovi mindset e una cultura aziendale e sociale che valorizzi il ruolo dell’essere umano.