Il settore dell’intelligenza artificiale (AI) sta affrontando una sfida unica e delicata quando si tratta di sviluppare tecnologie destinate all’uso nelle forze armate degli Stati Uniti. Aziende come OpenAI e Anthropic stanno cercando di navigare un percorso complesso, dove l’obiettivo è potenziare l’efficienza del Pentagono, senza però compromettere l’etica e la sicurezza. Mentre i loro strumenti non sono ancora utilizzati come armi autonome, l’intelligenza artificiale sta fornendo un “vantaggio significativo” nella gestione delle minacce, come ha dichiarato il Chief Digital and AI Officer del Pentagono, Dr. Radha Plumb, in un’intervista telefonica con TechCrunch.
L’AI sta contribuendo a migliorare la capacità del Pentagono di identificare, tracciare e valutare le minacce, soprattutto nelle fasi iniziali di pianificazione della “kill chain” – un sistema complesso che coinvolge sensori, piattaforme e armamenti per neutralizzare le minacce. Sebbene l’intelligenza artificiale stia dando un contributo importante nell’analisi dei dati e nella simulazione di scenari, la sua applicazione in contesti di morte e distruzione solleva preoccupazioni etiche.
La Kill Chain e l’Impatto dell’AI sulla Pianificazione Militare
La “kill chain”, un concetto fondamentale nelle operazioni militari, si riferisce al processo di identificazione, tracciamento e distruzione di minacce. In questo contesto, l’AI si sta rivelando utile nelle fasi di pianificazione e strategia. Il Pentagono sta sperimentando l’uso di modelli di AI generativa per simulare vari scenari e prevedere le risposte migliori in ambienti potenzialmente ostili. Dr. Plumb ha sottolineato come l’AI permetta ai comandanti di esplorare una gamma più ampia di risposte, aumentando la flessibilità e la creatività durante le operazioni.
Tuttavia, nonostante il valore che l’AI porta nel rafforzare la capacità decisionale del Pentagono, è ancora una questione spinosa per le aziende di Silicon Valley, che devono fare i conti con le implicazioni etiche di permettere che la loro tecnologia venga utilizzata in scenari di conflitto. Sebbene aziende come OpenAI, Anthropic e Meta abbiano rivisitato le loro politiche nel 2024 per consentire l’uso delle loro tecnologie da parte delle agenzie di difesa e intelligence statunitensi, rimangono fermi nel non autorizzare l’uso di AI per causare danni diretti agli esseri umani.
Le dichiarazioni di Dario Amodei, CEO di Anthropic, rivelano la difficoltà di trovare un equilibrio tra il rifiuto dell’uso della AI in scenari bellici e la necessità di gestire correttamente i rischi catastrofici legati all’intelligenza artificiale. Amodei ha dichiarato di non essere contrario all’uso di AI in ambito difensivo e di intelligence, ma ha insistito sulla necessità di un approccio equilibrato che impedisca l’uso irresponsabile di tali tecnologie. Tuttavia, l’uso della AI generativa nella kill chain, anche solo nelle fasi di pianificazione, sembra entrare in conflitto con le politiche di molte aziende tecnologiche, che vietano esplicitamente l’uso delle loro tecnologie per creare o modificare sistemi destinati a causare danni umani.
Uno degli aspetti più controversi è la questione dell’autonomia nei sistemi di armi. Nonostante il Pentagono abbia chiarito che non utilizza ancora armi completamente autonome, il dibattito su cosa definire “autonomo” e su come l’intelligenza artificiale possa o meno prendere decisioni letali è tutt’altro che risolto. In un’intervista, Plumb ha ribadito che, per motivi di affidabilità e etica, l’impiego della forza nelle operazioni militari sarà sempre sotto il controllo umano. Questo approccio implica che, sebbene l’AI possa supportare la pianificazione e la simulazione, la decisione finale rimane nelle mani di comandanti umani.
Il concetto di “autonomia” nel contesto delle armi ha suscitato discussioni anche tra esperti di tecnologia, con alcuni che affermano che l’uso di armi autonome non sia mai stato completamente privo di supervisione umana. Ad esempio, Palmer Luckey, CEO di Anduril, ha sottolineato che il Pentagono ha acquistato e utilizzato sistemi d’arma autonomi per decenni, ma questi sono sempre stati regolamentati e controllati da linee guida precise.
Il dibattito sull’uso dell’AI in ambito militare non ha suscitato lo stesso livello di opposizione che ha caratterizzato altre tecnologie, come nel caso delle proteste contro i contratti militari di Amazon e Google. Alcuni ricercatori, come Evan Hubinger di Anthropic, sostengono che l’uso dell’AI nelle forze armate sia inevitabile, ma che sia fondamentale collaborare con il governo per assicurarsi che le tecnologie vengano utilizzate responsabilmente. In un post su LessWrong, Hubinger ha affermato che cercare di escludere il governo dall’uso dell’AI non è una strategia praticabile. Inoltre, non basta concentrarsi solo sui rischi catastrofici, ma è cruciale anche evitare che i modelli vengano utilizzati in modo improprio dalle autorità.
Per approfondire le notizie sulla collaborazione tra il Pentagono e le aziende di AI, puoi consultare questo articolo.