Il 21 novembre 2024, (bellissimo articolo su Nature) un gruppo di esperti ha sollevato un allarme sui potenziali rischi bio-sanitari legati all’intelligenza artificiale (AI), in particolare riguardo alla capacità della tecnologia di progettare patogeni con nuove proprietà pericolose. In questo scenario, si delineano non solo le opportunità straordinarie per la ricerca biomedica, ma anche i rischi significativi che potrebbero derivare dall’uso non regolamentato di AI nella progettazione e manipolazione di agenti patogeni.

L’Intelligenza Artificiale e la Ricerca Biomedica

L’introduzione dell’AI nella ricerca biomedica ha il potenziale di rivoluzionare il settore, con applicazioni che spaziano dalla progettazione di anticorpi e vaccini, all’automazione di esperimenti di laboratorio attraverso l’uso di robot. Recentemente, i ricercatori del Los Alamos National Laboratory hanno testato l’AI, in particolare il modello GPT-4o, per assistere nella ricerca biologica. In questi esperimenti, GPT-4o è stato utilizzato per automatizzare compiti biologici complessi, come la coltura cellulare e la manipolazione genetica.

Tuttavia, questi sviluppi sollevano preoccupazioni in merito alla sicurezza bio-sanitari. Le stesse tecnologie che potrebbero accelerare la ricerca medica potrebbero essere sfruttate per scopi più nefasti, come la creazione di virus modificati geneticamente o di patogeni progettati per sfuggire al sistema immunitario umano. Nel 2023, sono stati condotti esperimenti con GPT-4 per progettare sub-tipi del virus SARS-CoV-2 in grado di evadere la risposta immunitaria umana, un pericolo che potrebbe sfociare in una pandemia.

La Sicurezza e la Collaborazione Internazionale

Per mitigare questi rischi, è cruciale una maggiore collaborazione tra i governi, i ricercatori in bio-sicurezza e i sviluppatori di AI. Diverse nazioni hanno già avviato iniziative per affrontare questi rischi. Ad esempio, nel 2023, il governo degli Stati Uniti ha siglato un ordine esecutivo volto a garantire lo sviluppo sicuro dell’AI, e ha stabilito che le aziende dovranno notificare al governo modelli di AI addestrati su dati biologici, prima che vengano rilasciati.

Inoltre, è stato creato il “Frontier Model Forum” per promuovere lo sviluppo sicuro di modelli di AI avanzati. Tuttavia, i progressi sono ancora limitati. Nonostante questi sforzi, il rischio che l’AI venga utilizzata per scopi malintenzionati rimane elevato. La questione cruciale riguarda la definizione e la gestione di ciò che costituisce un “bioweapon” (biotipo per scopi bellici). Se da un lato esistono accordi internazionali che regolano la proliferazione di armi biologiche, dall’altro c’è una mancanza di una definizione universalmente accettata che differenzi i rischi più contenuti da quelli di portata pandemica.

Priorità nella Regolamentazione: Focus su Rischi Pandemici

Un aspetto fondamentale della regolamentazione futura riguarda la priorità da dare alla mitigazione dei rischi che potrebbero causare una perdita massiva di vite umane e un’interruzione globale della società. Gli esperti suggeriscono che la prima attenzione dovrebbe essere posta sulla progettazione di patogeni trasmissibili, siano essi virali, batterici, o anche biologici legati a piante e animali. La possibilità che l’AI venga usata per creare virus resistenti ai vaccini o per ingegnerizzare patogeni capaci di saltare le barriere tra specie animali e umane potrebbe avere conseguenze devastanti.

A tal fine, è stato proposto un elenco di “capacità preoccupanti”, che evidenzia quelle specifiche funzionalità dell’AI che, se abusate, potrebbero portare a un livello di distruzione paragonabile a una pandemia. Alcuni esempi includono la progettazione di virus che evadano l’immunità umana, la sintesi di patogeni de novo (nuovi patogeni creati artificialmente), o la manipolazione genetica di patogeni esistenti per renderli più contagiosi.

Il Ruolo Cruciale della Collaborazione tra Esperti e Istituzioni

Il percorso verso una gestione sicura ed etica dell’AI nel campo della biomedicina richiede un impegno globale e una collaborazione tra esperti di intelligenza artificiale, biologia computazionale, bio-sicurezza e politiche scientifiche. Sono necessari istituti di sicurezza indipendenti che abbiano il compito di esaminare i rischi di AI senza conflitti di interesse. La creazione di enti come l’AI Safety Institute negli Stati Uniti e nel Regno Unito è un passo importante verso la costruzione di una rete di esperti indipendenti, ma il finanziamento e il supporto continuativo sono essenziali per garantire il loro successo.

Gli sviluppi di AI nel campo biomedico sono in continua accelerazione, e sebbene possano portare a miglioramenti significativi nella medicina, è essenziale che la sicurezza bio-sanitari rimanga una priorità. Gli esperti concordano sul fatto che sia necessaria una strategia di testing che vada oltre la semplice valutazione dei modelli singoli, e che consideri come diverse tecnologie AI possano essere integrate per generare risultati pericolosi.

Il prossimo incontro del Global AI Action Summit, che si terrà a Parigi nel febbraio 2025, fornirà un’opportunità importante per rafforzare la collaborazione tra governi e industrie per costruire una visione condivisa sulla gestione sicura e responsabile dell’intelligenza artificiale.

La crescente influenza dell’AI sulla ricerca biologica è innegabile, ma il suo potenziale uso improprio per la creazione di patogeni pericolosi potrebbe avere impatti devastanti. È essenziale un approccio equilibrato che consenta di sfruttare le opportunità dell’AI nella biomedicina senza compromettere la sicurezza globale. Il coinvolgimento di governi, sviluppatori e esperti in bio-sicurezza è fondamentale per prevenire i rischi associati e garantire che l’AI venga utilizzata per il bene dell’umanità.