OpenAI’s newest GPT-o1 AI model ha dimostrato capacità che potrebbero aiutare gli esperti a riprodurre minacce biologiche conosciute e nuove, ha riferito un ex dipendente dell’azienda ai senatori statunitensi questa settimana.
“Il nuovo sistema di IA di OpenAI è il primo a mostrare passi verso il rischio di armi biologiche, poiché è in grado di aiutare gli esperti nella pianificazione per riprodurre una minaccia biologica conosciuta,” ha dichiarato William Saunders, ex membro del personale tecnico di OpenAI, durante l’audizione della Commissione Giudiziaria del Senato sugli aspetti della privacy, tecnologia e legge.
Questa capacità, ha avvertito, comporta il potenziale per “danni catastrofici” se i sistemi di intelligenza artificiale generale (AGI) vengono sviluppati senza le dovute protezioni.
Gli esperti hanno anche testimoniato che l’intelligenza artificiale sta evolvendo così rapidamente che un traguardo potenzialmente pericoloso noto come Intelligenza Artificiale Generale si profila all’orizzonte. A livello AGI, i sistemi IA possono eguagliare l’intelligenza umana in una vasta gamma di compiti cognitivi e apprendere autonomamente. Se un sistema accessibile al pubblico può comprendere la biologia e sviluppare nuove armi senza un adeguato controllo, il potenziale per utenti malintenzionati di causare danni gravi cresce esponenzialmente.
Saunders ha dichiarato alla Commissione del Senato: “Le aziende di IA stanno facendo progressi rapidi verso la costruzione dell’AGI. È plausibile che un sistema AGI possa essere costruito in appena tre anni.”
Helen Toner, che faceva parte del consiglio di OpenAI e ha votato a favore del licenziamento del co-fondatore e CEO Sam Altman, prevede anche di vedere l’AGI prima piuttosto che dopo. “Anche se le stime più brevi si rivelassero errate, l’idea che l’IA a livello umano venga sviluppata nei prossimi dieci o venti anni dovrebbe essere vista come una possibilità reale che richiede azioni preparatorie significative ora,” ha testimoniato.