Se c’era ancora qualche illusione sull’impegno reale dei governi nell’affrontare i rischi dell’intelligenza artificiale, il Paris AI Action Summit l’ha spazzata via senza pietà.
Ma non nel senso sperato dagli organizzatori. Quello che doveva essere un vertice cruciale per la cooperazione internazionale si è trasformato in un’amara lezione su come gli interessi nazionali possano sabotare qualsiasi tentativo serio di governance globale.
Emmanuel Macron ha sfruttato l’evento per celebrare l’industria tecnologica francese, più che per affrontare i pericoli dell’AI. Tra un’autocelebrazione e l’altra, il summit è stato monopolizzato dalla promozione sfacciata di Mistral AI e altre startup francesi, con toni trionfalistici sul ritorno della Francia nella corsa all’intelligenza artificiale.
![](https://www.rivista.ai/wp-content/uploads/2025/02/image-181-1024x576.png)
Il legame tra governo e industria era palese: Mistral è stata co-fondata dall’ex ministro per il digitale Cédric O, segno evidente della solita porta girevole tra potere pubblico e interessi privati.
Il vero cuore del summit, la discussione sulla sicurezza dell’AI, è stato relegato a un angolo oscuro. Il rapporto “International Science of AI Safety“, che avrebbe dovuto essere il punto di riferimento per la governance dell’AI come l’IPCC lo è per il clima, è stato trattato come un evento marginale, mentre il palcoscenico principale era riservato alle corporate del settore.
![](https://www.rivista.ai/wp-content/uploads/2025/02/image-177.png)
La direttrice del summit, Anne Bouverot, ha liquidato i rischi esistenziali come “fantascienza“, stabilendo fin dall’inizio che la sicurezza non sarebbe stata una priorità.
Il contrasto con i precedenti vertici è imbarazzante. A Bletchley si era parlato seriamente di rischi catastrofici. A Seoul si erano definiti impegni concreti per valutare il rischio e la capacità dei sistemi avanzati. Parigi avrebbe dovuto costruire su queste basi, ma ha scelto di ignorarle completamente.
Nel frattempo, fuori dalle sale del summit, le voci più autorevoli del settore lanciavano allarmi ben più concreti.
![](https://www.rivista.ai/wp-content/uploads/2025/02/image-178.png)
Demis Hassabis di DeepMind ha dichiarato che l’AGI potrebbe arrivare entro cinque anni. Dario Amodei di Anthropic ha predetto l’intelligenza artificiale di livello umano entro il 2027 e ha definito il summit “un’occasione persa“.
Secondo lui, “servono maggiore attenzione e urgenza“ visto il ritmo dello sviluppo tecnologico.
Non sono discorsi da profeti di sventura, ma avvertimenti di chi sta costruendo questi sistemi e ammette apertamente di non sapere ancora come renderli sicuri.
Nel bel mezzo di questa tempesta, la Dichiarazione finale del summit è stata un capolavoro di vuoto politico.
![](https://www.rivista.ai/wp-content/uploads/2025/02/image-179.png)
La versione trapelata era stata già stroncata dagli esperti: Stuart Russell l’ha definita “una negligenza senza precedenti“ per il suo mancato riconoscimento dei rischi catastrofici.
Il documento finale non ha fatto nulla per correggere il tiro, risultando talmente insignificante che sia gli Stati Uniti che il Regno Unito hanno rifiutato di firmarlo.
Londra ha spiegato senza mezzi termini che il testo “non offre alcuna chiarezza pratica sulla governance globale“ e non affronta le vere questioni di sicurezza.
![](https://www.rivista.ai/wp-content/uploads/2025/02/image-180.png)
Washington, invece, ha mandato JD Vance, portavoce dell’accelerazionismo tecnologico, lasciando la Francia a mani vuote nel tentativo di mediare un accordo tra USA e Cina.
Ironia della sorte, il fallimento del summit dimostra esattamente perché la cooperazione internazionale sulla governance dell’AI è indispensabile. Lasciati a se stessi, gli stati danno priorità agli interessi economici di breve termine piuttosto che alla sicurezza collettiva.
È il classico problema dell’azione collettiva: tutti sanno che servono regole comuni, ma nessuno vuole essere il primo a sacrificare i propri vantaggi competitivi.E il tempo sta scadendo.
Se gli esperti del settore hanno ragione, entro due anni potremmo trovarci di fronte ai primi sistemi di AGI. Eppure, invece di affrontare l’urgenza della situazione, i governi hanno passato l’ennesima settimana a far finta di fare qualcosa, senza risultati concreti.
Questa pantomima deve finire. Le dichiarazioni diplomatiche vuote e gli impegni non vincolanti non bastano più. Serve un cambio di passo, una presa di coscienza reale di ciò che sta per arrivare.
Il fallimento del Paris AI Action Summit deve essere un campanello d’allarme. Ha dimostrato che l’approccio attuale alla governance dell’IA è già obsoleto. La vera domanda è: ci resta ancora abbastanza tempo per rimediare?
Newsletter – Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale: iscriviti alla nostra newsletter gratuita e accedi ai contenuti esclusivi di Rivista.AI direttamente nella tua casella di posta!