Il governo del Regno Unito ha annunciato un’importante trasformazione: l’AI Safety Institute (AISI) cambia nome e diventa l’AI Security Institute. Questo cambiamento non è solo una questione di rebranding, ma riflette un mutamento strategico nella gestione dei rischi associati all’intelligenza artificiale.

La nuova denominazione mette in evidenza un focus su rischi seri con implicazioni per la sicurezza nazionale, come l’utilizzo dell’IA per sviluppare armi chimiche e biologiche, per compiere cyber-attacchi e per agevolare crimini come le frodi e gli abusi sessuali su minori. La missione dell’Istituto si concentra esclusivamente sui rischi più gravi legati alla tecnologia, escludendo intenzionalmente temi come i bias algoritmici o la libertà di parola. L’obiettivo dichiarato è quello di costruire una base scientifica solida che aiuti i decisori politici a proteggere il Paese mentre l’IA continua a evolversi.

Ian Hogarth, presidente di AISI (chiamato the AI Tsar), ha sottolineato che non si tratta solo di proteggersi da attori malintenzionati, ma anche di affrontare i rischi legati al controllo e alla supervisione di sistemi avanzati, simili all’AGI (Artificial General Intelligence).

Un’analisi attenta delle modifiche apportate sul sito web dell’Istituto rivela un cambiamento significativo nella narrativa. Termini come “impatto sociale” sono stati sostituiti da “resilienza sociale”, e non vi sono più riferimenti ai rischi di “disuguaglianze” o di “danni al benessere individuale”. Anche il concetto di “accountability pubblica” è stato sostituito con la più stringente necessità di garantire “sicurezza e protezione pubblica”.

Questo cambiamento ha suscitato discussioni: alcuni vedono in questa evoluzione un allontanamento dall’affrontare i rischi catastrofici ed esistenziali dell’IA, ma c’è chi la interpreta come una focalizzazione ancora più netta su tali pericoli.

Il contesto politico gioca un ruolo chiave in questa trasformazione. Al momento della fondazione dell’AISI nel 2023, vi era una forte pressione per includere questioni di etica e bias dell’IA sotto l’ombrello della “sicurezza dell’IA”. Tuttavia, un anno dopo, con un panorama politico globale in evoluzione e in particolare con le dinamiche legate alle elezioni negli Stati Uniti, l’approccio è cambiato.

In particolare, la mossa del Regno Unito sembra allinearsi strategicamente con l’amministrazione Trump, cercando di evitare che la sicurezza dell’IA venga politicizzata. La scelta di concentrarsi sulla “sicurezza” piuttosto che sulla “sicurezza ed etica” mira a costruire un consenso più ampio sulle questioni di sicurezza catastrofica, evitando di includere temi polarizzanti come i bias etici che potrebbero rallentare il progresso delle normative.

La decisione del Regno Unito potrebbe segnare l’inizio di un trend globale. Si prevede che il termine “AI safety” sarà gradualmente sostituito da “AI security”, segnalando un cambiamento di priorità nei dibattiti politici e nelle strategie di regolamentazione a livello internazionale.

Nel frattempo, Peter Kyle Labour MP Secretary of State for Science, Innovation and Technology, ha dichiarato che il Regno Unito potrebbe obbligare i principali laboratori di IA a condividere i loro modelli con l’AISI, confermando che gli attuali accordi volontari potrebbero diventare obbligatori. Questo rappresenterebbe un passo avanti nella regolamentazione della sicurezza dell’IA, anche in un contesto di cooperazione internazionale sempre più complesso.