Uno studio ha scoperto che gli attuali modelli linguistici di intelligenza artificiale e gli strumenti biologici non pongono rischi immediati per la biosicurezza, ma che sono necessarie ricerche più rigorose sulle potenziali minacce future. Parallelamente Air Street Press ha sostenuto che, nonostante esistano rischi per la biosicurezza dell’intelligenza artificiale, concentrarsi principalmente sugli LLM piuttosto che su strumenti di bioprogettazione più specializzati potrebbe essere un errore.
L’intelligenza artificiale, con i suoi modelli linguistici di grandi dimensioni (LLM) e gli strumenti biotecnologici, ha aperto nuovi orizzonti in ambito scientifico. Mentre alcuni studi affermano che non sussistono rischi immediati per la biosicurezza derivanti da queste tecnologie, è emersa la necessità di un monitoraggio più rigoroso e di ricerche più approfondite sulle potenziali minacce future. Sebbene i progressi siano sorprendenti, come quelli nel campo della progettazione proteica con l’uso di AI, le implicazioni della combinazione di biotecnologia e intelligenza artificiale non sono prive di preoccupazioni.
Nel contesto della biotecnologia alimentata dall’IA, non si può ignorare il fatto che la tecnologia è duale: se da un lato essa promuove il progresso scientifico e potenzia la medicina, dall’altro rappresenta anche una potenziale minaccia per la sicurezza biologica. I recenti sviluppi della biologia AI-first, tra cui strumenti come AlphaFold e RFdiffusion, hanno consentito di affrontare sfide che prima richiedevano decenni di ricerca, rivoluzionando la progettazione proteica e il design di farmaci. Tuttavia, la stessa rapidità con cui vengono sviluppate queste tecnologie pone interrogativi sulle implicazioni in ambito di biosicurezza, in particolare per quanto riguarda l’uso improprio di strumenti specializzati in bioprogettazione.
La paura della sperimentazione biologica AI-Driven: focolai di rischio
Inizialmente, la preoccupazione per la biosicurezza si concentrava sui LLM. Studi come quello condotto da Anthropic, che ha indagato se i LLM potessero accelerare le azioni di attori malintenzionati nell’ambito biologico, hanno suscitato un’ondata di preoccupazione globale. Secondo i ricercatori di Anthropic, senza le giuste misure di mitigazione, i LLM potrebbero facilitare la creazione di agenti biologici da parte di attori non statali, a prescindere dalla conoscenza preesistente di patogeni. Tuttavia, la ricerca su questo fronte ha mostrato risultati contrastanti. Molti studi, tra cui quelli di OpenAI e RAND Corporation, non hanno riscontrato rischi aggiuntivi significativi rispetto all’accesso a internet tradizionale, suggerendo che l’uso di LLM per progettare armi biologiche non rappresenti un rischio maggiore rispetto agli strumenti esistenti.
Questo non significa che non esista un rischio reale, ma che il dibattito tende a concentrarsi su scenari che non sempre riflettono la complessità del processo di creazione di agenti biologici. Il principale ostacolo rimane l’accesso a laboratori e attrezzature specializzate. Un attore malintenzionato, anche se armato di conoscenze teoriche, avrebbe comunque bisogno di competenze pratiche e infrastrutture avanzate per realizzare un attacco biologico di grande impatto.
Gli strumenti di bioprogettazione: un rischio maggiore?
Sebbene l’attenzione sia stata rivolta ai LLM, c’è un crescente allarme riguardo all’utilizzo improprio degli strumenti di bioprogettazione (BDTs), come AlphaFold, RFdiffusion e altri modelli come ESM. Questi strumenti sono in grado di progettare proteine e altri agenti biologici con un livello di precisione mai visto prima. Se da un lato tali tecnologie sono fondamentali per la ricerca medica e la scoperta di nuovi farmaci, dall’altro lato la stessa capacità di progettare agenti biologici li rende suscettibili di abuso.
Gli strumenti di bioprogettazione, con la loro capacità di analizzare sequenze genetiche e creare nuovi agenti biologici, potrebbero teoricamente essere usati per progettare virus, tossine o batteri patogeni in modo più efficiente rispetto ai metodi tradizionali. Questo comporta la possibilità di creare nuovi agenti biologici senza analoghi naturali, il che potrebbe complicare la loro rilevazione con i tradizionali sistemi di screening. Inoltre, la facilità con cui questi strumenti possono essere adattati per uso malevolo aumenta il rischio di accesso da parte di attori non statali con motivazioni criminali.
La regolamentazione: il rischio di fallire nel riconoscere la minaccia
Nonostante il crescente dibattito sul biorischio, la regolamentazione in atto per monitorare l’uso delle tecnologie AI-first non è sempre all’altezza della situazione. Le normative attuali, che si concentrano principalmente sulle dimensioni dei modelli e sulle risorse computazionali, non sono sufficienti a gestire i rischi associati a strumenti altamente specializzati come i BDT. Questi strumenti, essendo più piccoli e meno intensivi dal punto di vista computazionale, possono essere utilizzati da attori malintenzionati senza la necessità di enormi risorse.
La legislazione esistente rischia quindi di ignorare alcuni dei pericoli più gravi. La proposta di regolamentazione deve evolversi, non solo per monitorare la crescita dei modelli AI ma anche per prendere in considerazione i rischi concreti legati all’abuso di strumenti biotecnologici avanzati. Questo include la creazione di meccanismi per una gestione più strutturata dell’accesso a tali tecnologie e la protezione delle infrastrutture di laboratorio.
Le prospettive future: prevenzione e sicurezza
Il futuro della biosicurezza nel contesto dell’AI richiede un approccio che non solo sia in grado di affrontare i rischi immediati, ma che preveda anche misure di sicurezza per prevenire l’abuso a lungo termine di queste potenti tecnologie. Non possiamo fermare la ricerca biologica AI-first, poiché ha il potenziale di portare enormi benefici per la medicina e la scienza. Tuttavia, è imperativo che gli sforzi per sviluppare questi strumenti siano accompagnati da un sistema di governance robusto che possa garantire la loro sicurezza e prevenire i rischi di abuso.
La comunità scientifica sta cominciando a riconoscere l’importanza di stabilire standard di sicurezza per la progettazione proteica e di impegnarsi in un dialogo continuo sulla sicurezza nell’uso di queste tecnologie. Con il giusto quadro regolamentare e un monitoraggio efficace, è possibile sfruttare le potenzialità dell’intelligenza artificiale per il bene comune, riducendo al minimo i rischi associati a un suo uso improprio.
La sfida più grande sarà garantire che l’evoluzione delle tecnologie AI-first nella biotecnologia sia accompagnata da politiche e misure di sicurezza adeguate, in modo da massimizzare i benefici senza compromettere la sicurezza globale.
Qui Trovate un’altro Articolo Interessante del MIT.
Newsletter – Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale: iscriviti alla newsletter di Rivista.AI e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!