Nessuno può dire con certezza quale direzione prenderà Donald Trump su qualsiasi tema, men che meno sull’Intelligenza Artificiale (IA), uno dei temi più divisivi e densi di opportunità economiche e rischi strategici del nostro tempo. Tuttavia, le dichiarazioni rilasciate dallo stesso Trump e dai suoi più stretti collaboratori danno qualche indizio sulle potenziali linee di politica economica in questo ambito.
Trump ha definito l’IA come una “superpotenza” e ha evidenziato la necessità strategica per gli Stati Uniti di rimanere in vantaggio sulla Cina, sottolineando la competitività come chiave di volta per mantenere una posizione economica e geopolitica dominante. Questo tipo di retorica, pur ambigua nei dettagli, suggerisce una visione economica fondata sulla competizione globale per la leadership tecnologica, in cui l’IA rappresenta uno degli strumenti principali.
In un’intervista recente, Trump ha sottolineato che “la produzione di elettricità” sarà fondamentale per espandere le capacità dell’IA americana, dimostrando una percezione pragmatica: senza una base infrastrutturale robusta e un’energia a basso costo, gli Stati Uniti non potranno sostenere l’innovazione necessaria per tenere il passo con i rivali. In pratica, la produzione energetica e l’IA vengono viste come due settori interdipendenti, con effetti potenzialmente a cascata sull’intera economia.
Tra le promesse più concrete, Trump ha dichiarato che abrogherà l’ordine esecutivo firmato da Biden, volto a regolamentare alcuni aspetti della sicurezza dell’IA. Il Partito Repubblicano ha rinforzato questa posizione, descrivendo l’ordine come una mossa che impone “idee di sinistra radicale” sullo sviluppo della tecnologia, definendola pericolosa per il libero mercato.
Dal punto di vista economico, una tale abrogazione potrebbe rimuovere vincoli significativi per le aziende tecnologiche statunitensi, favorendo una maggiore sperimentazione e innovazione, ma anche aumentando i rischi di impatti sociali imprevisti. L’incertezza normativa, tuttavia, potrebbe rendere necessario un compromesso: da una parte un’industria dell’IA libera di crescere, dall’altra una maggiore esposizione a potenziali crisi, come instabilità occupazionale o impatti sui mercati finanziari.
Fonti come il Washington Post riportano che una nuova amministrazione Trump potrebbe non limitarsi a un semplice annullamento dell’ordine esecutivo di Biden. È possibile che venga introdotto un nuovo “Progetto Manhattan” per l’IA militare, volto a integrare l’IA in ambiti strategici come la difesa e la sicurezza nazionale.
Se realizzato, un tale piano consoliderebbe il ruolo dell’industria come attore centrale nello sviluppo tecnologico degli Stati Uniti, con investimenti governativi a sostegno dei progetti a maggiore impatto militare e strategico. In questo contesto, le spese per l’IA potrebbero registrare un aumento sostanziale, con possibili effetti moltiplicativi per il settore privato e per l’innovazione in settori collaterali come la robotica, la sicurezza informatica e i trasporti.
Nell’orbita di Trump ci sono figure di spicco del mondo tecnologico come JD Vance, Marc Andreessen e Peter Thiel. Questo gruppo di investitori è apertamente anti-regolamentazione e ha posizioni allineate a una visione dell’IA come leva di potere strategico, più che come rischio da controllare. Thiel, in particolare, ha cambiato la sua visione, spostando l’attenzione sui rischi di perdere la corsa con la Cina piuttosto che su quelli dell’IA stessa. Questi attori, con interessi considerevoli nel settore tecnologico, sono quindi motivati a spingere per politiche di laissez-faire che permettano agli Stati Uniti di rimanere competitivi, senza troppi vincoli.
Elon Musk rappresenta un caso particolare. Benché vicino a Trump e teoricamente incline a posizioni deregolamentate, Musk ha ripetutamente avvertito dei rischi esistenziali dell’IA, dichiarando che potrebbe rappresentare una minaccia senza precedenti per l’umanità. Nel suo discorso, Musk auspica una regolamentazione mirata, un meccanismo di sorveglianza che possa monitorare da vicino i progetti di IA avanzati. Paradossalmente, quindi, potrebbe essere uno dei pochi alleati di Trump a spingere per un intervento regolatore sul lungo termine, specialmente se si troveranno compromessi che garantiscano la competitività statunitense.
In questo quadro complesso, dominato dalla tensione tra regolamentazione e laissez-faire, tra il potenziale e i rischi esistenziali dell’IA, emerge un’unica certezza: l’incertezza. La politica dell’IA di Trump, se verrà realizzata, potrebbe prendere strade inattese, influenzata da voci contraddittorie, da consiglieri con opinioni divergenti e dalla stessa mutevolezza di Trump.
Nonostante la retorica di competizione con la Cina e la tendenza a privilegiare un approccio più leggero alla regolamentazione, l’unica costante in questa nuova economia dell’IA è che nulla è prevedibile con assoluta certezza. La traiettoria americana verso il dominio dell’IA, così come l’allocazione delle risorse e le politiche di investimento pubblico-privato, potrebbero assumere forme nuove e inaspettate, dando vita a un’epoca di innovazione e rischio insieme.
Il dibattito sulla regolamentazione dell’intelligenza artificiale sta guadagnando terreno e divide gli operatori del settore, i legislatori e le aziende leader della Silicon Valley. OpenAI, Anthropic e altri grandi nomi del software proprietario hanno già avanzato l’idea che i governi dovrebbero mettere un freno ai modelli di intelligenza artificiale più potenti, specialmente quelli che potrebbero facilmente finire nelle mani sbagliate. Anthropic ha addirittura preso una posizione chiara contro l’intelligenza artificiale open source, citando problemi di sicurezza, quasi a voler lanciare un avvertimento: il rischio che malintenzionati ne abusino è troppo alto per essere ignorato.
In una dichiarazione, Mark Zuckerberg, CEO di Meta, ha affermato in un post pubblicato a luglio che il rischio di spionaggio è una realtà tangibile e che “rubare modelli d’IA potrebbe essere semplice come copiare un file su una chiavetta USB”. In effetti, Zuckerberg sembra sollevare un punto chiave: la sicurezza attorno ai modelli d’IA, anche nei colossi tech, non è ancora impermeabile. Tuttavia, questa presa di posizione si scontra con un ostacolo non trascurabile: l’establishment della sicurezza nazionale, che potrebbe non condividere una visione così drastica. Anche se le parole di Zuckerberg trovassero un certo consenso, spingere le istituzioni a riconsiderare il paradigma open source si preannuncia una sfida tutt’altro che semplice.
D’altra parte, il panorama politico è in fermento, e molte delle sorti del settore potrebbero dipendere da chi si posizionerà come voce di riferimento nelle prossime amministrazioni. L’ex presidente Trump, potenzialmente in corsa per un ritorno alla Casa Bianca, ha già anticipato che si consulterà con personaggi chiave del settore tech, incluso il controverso promotore dell’open source Elon Musk, e l’eletto vicepresidente JD Vance, noto per le sue posizioni favorevoli all’IA open source. Secondo Vance, l’open source potrebbe essere un antidoto alla “propaganda” dei giganti tecnologici, impedendo loro di imporre visioni politiche unilaterali.
In questo contesto, Meta potrebbe trovarsi a fare i conti con un dilemma complesso. Se Trump decidesse di adottare una linea più dura nei confronti dell’open source, l’azienda di Zuckerberg potrebbe essere costretta a trasformare il suo modello di punta, Llama, in una piattaforma chiusa per evitare complicazioni politiche e legali. Ma questo cambiamento radicale potrebbe avere costi enormi, privandola dei due vantaggi principali su cui ha costruito la sua strategia: il controllo autonomo offerto agli utenti di Llama e il posizionamento di Meta come sostenitrice degli sviluppatori indipendenti.
Sarebbe un ribaltamento notevole. Se Llama diventasse un modello proprietario, Meta si ritroverebbe inevitabilmente a competere testa a testa con i giganti dell’IA proprietaria, senza però gli stessi benefici che offre ai suoi utenti open source. Un’impresa non solo tecnicamente impegnativa, ma che potrebbe avere ripercussioni dirette sulla fiducia e sulla lealtà della community di sviluppatori che l’ha sostenuta fino a questo momento.
Tutto questo sottolinea quanto sia delicata la situazione per l’intero settore. La linea tra innovazione e sicurezza non è mai stata così sottile, e ogni mossa in questo scacchiere rischia di ridisegnare il futuro dell’intelligenza artificiale per anni a venire.