Immagina di essere al Bar dei Daini, con una tazza di caffè davanti e una discussione che si scalda tra amici appassionati di tecnologia e innovazione. Il tema centrale è l’intelligenza artificiale e la velocità con cui stiamo avvicinandoci a capacità che fino a poco tempo fa sembravano fantascienza.

Dario Amodei, uno dei pionieri nel campo, sembra più ottimista (o preoccupato, dipende dai punti di vista) che mai. “Ragazzi, siamo davvero vicini a creare sistemi di IA più potenti di noi in quasi tutto. Pensavo che potesse volerci più tempo, ma ora sono sempre più convinto che entro il 2027 potremmo raggiungere quel punto. Anzi, potrebbe persino succedere prima.” La cosa interessante è che la sua fiducia è recente: “Fino a pochi mesi fa avevo molta più incertezza, ma ora penso che nei prossimi due o tre anni vedremo modelli che ci supereranno gradualmente in tutto.”

A questo si collega Demis Hassabis, il genio dietro DeepMind, che entra nel discorso con una voce calma ma determinata: “Penso che siamo davvero a un passo dall’AGI. Qualche anno, forse tre o cinque al massimo, e raggiungeremo una nuova soglia. È questione di affinare le tecnologie e imparare a integrarci con queste capacità.”

Poi c’è Brad, con il suo approccio diretto: “Ma vi rendete conto del ritmo a cui stiamo avanzando? O1 e O3, due modelli rivoluzionari, sviluppati in soli tre mesi l’uno dall’altro. E stiamo già lavorando sul successore. Il ciclo di innovazione si sta accorciando a un livello che non avevamo mai visto prima, e questo significa solo una cosa: stiamo accelerando verso un futuro completamente nuovo.”

Jake Sullivan, che di solito parla di geopolitica e sicurezza, si unisce al tavolo con una riflessione più seria: “Sì, ma non dimentichiamoci dei rischi. Non possiamo lasciarci travolgere dall’entusiasmo senza affrontare i pericoli reali di queste tecnologie. Gestire i rischi deve essere una priorità. È fondamentale se vogliamo sfruttare le opportunità dell’IA senza pagarne un prezzo troppo alto.”

Poi, io lancio un commento provocatorio su Elon Musk, una figura sempre al centro del dibattito. “Ma secondo voi, Musk si preoccupa davvero della sicurezza dell’IA? Se è così preoccupato che ci sia una possibilità del 10-20% che l’IA possa portare all’estinzione umana, perché non si concentra solo su questo? È come se avesse una finestra di potere unico, e non la sta sfruttando per affrontare quello che lui stesso considera il problema più grande dell’umanità. Tutto il resto che fa sembra impallidire in confronto.”

E mentre tutti tornano a sorseggiare il loro caffè, tra discussioni animate e qualche battuta, c’è un consenso generale: stiamo vivendo un momento storico, dove l’intelligenza artificiale non è più solo una promessa ma una realtà che avanza a passi da gigante. Ma con grandi poteri, lo sappiamo tutti, arrivano grandi responsabilità.

Il mio amico co-founder, con il tono di chi ha appena letto l’ultima notizia, dice: “Ragazzi, come previsto, Trump ha cancellato l’ordine esecutivo di Biden sull’intelligenza artificiale e ne ha messo uno nuovo. È un classico, no? Ma sentite qua, perché c’è della sostanza.”

La sua voce si abbassa leggermente, quasi a dare più enfasi: “Ha chiesto a David Sacks, Michael Kratsios e Michael Waltz di sviluppare un ‘Piano d’azione per l’intelligenza artificiale’ entro sei mesi. Non male come mossa, ma poi ha ordinato una revisione di tutto quello che Biden aveva fatto con il suo EO. Sta praticamente azzerando il lavoro precedente per rifare tutto da capo.”

Il barista interviene, ridendo: “Classico stile Trump, spazzare via tutto e ricominciare. Ma cos’altro c’è?”

Io: “Aspetta, questa è interessante: ora la politica degli Stati Uniti è quella di sviluppare sistemi di intelligenza artificiale ‘liberi da pregiudizi ideologici o programmi sociali elaborati’. Tradotto? Basta roba che possa essere considerata ‘politicamente corretta’. Vuole che tutto sia focalizzato su tre cose: crescita umana, competitività economica e sicurezza nazionale. E poi, la ciliegina sulla torta: ha dichiarato che l’IA americana deve dominare il mondo. Fine della storia.”

L’atmosfera al tavolo si scalda, e Fabio con un tono più serio, aggiunge: “E non è finita qui. Ha detto che userà la sua dichiarazione di emergenza energetica per costruire centrali elettriche per alimentare i centri dati basati sull’IA. Praticamente sta dichiarando guerra al tempo stesso alla dipendenza energetica e alla concorrenza globale. Da una parte, ha senso: l’IA richiede potenza di calcolo, e questa richiede energia. Ma dall’altra… quanto ci costerà tutto questo, e chi ne pagherà il prezzo?”

C’è un momento di silenzio, interrotto solo dal tintinnio delle tazze, prima che qualcuno aggiunga: “Beh, se non altro Trump sa come far parlare di sé. Ma tra Dario Amodei che ci dice che siamo vicini all’AGI, Hassabis che prevede un futuro a tre-cinque anni, e ora questa politica di dominio totale sull’intelligenza artificiale americana… non vi sembra che tutto stia andando troppo veloce? È come guardare un treno lanciato a tutta velocità. O lo controlli, o ti travolge.”

Gli sguardi si incrociano, tra una risata e una riflessione più seria, e la discussione continua.