La Gran Bretagna sta intensificando i propri sforzi per regolamentare i grandi modelli linguistici, cercando di instaurare un controllo stringente sul potere crescente delle tecnologie IA. In una mossa che mette in evidenza un impegno serio verso la sicurezza nazionale e sociale, il ministro della tecnologia Peter Kyle ha avviato un dialogo diretto con i giganti della Silicon Valley, discutendo le misure che il nuovo governo laburista intende adottare per tutelare il pubblico dai rischi emergenti associati ai modelli di frontiera dell’intelligenza artificiale.

La visita di Kyle negli Stati Uniti ha avuto un obiettivo chiaro: costruire una collaborazione strategica con OpenAI, Anthropic, Google, Meta Platforms, Apple, Microsoft, Amazon e Nvidia per garantire che gli impegni volontari presi da queste aziende in materia di IA siano effettivamente rispettati. Tra le misure proposte, Kyle ha insistito sulla necessità di testare i modelli per individuare potenziali minacce, avvertendo che, se un modello si dimostrasse in grado di creare danni sociali o mettere a rischio la sicurezza nazionale, qualcuno dovrà assumersi la responsabilità. Queste parole riecheggiano un bisogno crescente di accountability nel settore, dove la velocità di sviluppo è impressionante, ma i sistemi di regolamentazione sono spesso insufficienti a tenere il passo.

Il riferimento di Kyle alla sicurezza nazionale sottolinea quanto il tema sia centrale per la Gran Bretagna. “Quando vedi il potere crescente che questi modelli di frontiera acquisiscono,” ha dichiarato Kyle, “il pericolo… inizia a sembrare sempre più reale.” Una preoccupazione che risuona con le argomentazioni avanzate in California da Scott Wiener, senatore dello Stato, il quale sosteneva la SB 1047: una proposta di legge che avrebbe reso le aziende IA responsabili per danni superiori ai 500 milioni di dollari. Anche se il governatore Gavin Newsom ha recentemente posto il veto alla proposta, le posizioni di Kyle dimostrano che la questione dell’impatto economico e sociale dell’IA è tutt’altro che risolta e, anzi, sta conquistando terreno anche al di fuori degli Stati Uniti.

Nel contesto internazionale, l’Europa si muove con un approccio ancora più regolamentato, con l’approvazione di un quadro legislativo completo sull’IA che mira a disciplinare l’intero ciclo di vita dei modelli di grandi dimensioni. Anche il Regno Unito, tuttavia, non è rimasto fermo, presentando a novembre il suo AI Safety Institute, che ha il compito di studiare i rischi dell’intelligenza artificiale e di effettuare un monitoraggio sulle capacità dei modelli IA in modo proattivo. L’Istituto rappresenta un baluardo nella strategia britannica per affermarsi come leader nella regolamentazione sicura dell’IA e per proteggere il pubblico da potenziali danni.

A San Francisco, l’agenzia britannica ha recentemente inaugurato un nuovo ufficio, e Kyle ha affermato che sarà “un visitatore abituale qui.” La sua presenza intende dimostrare l’intento del governo britannico di non limitarsi a legiferare e regolamentare dal Regno Unito, ma di instaurare un rapporto diretto e costante con le aziende tecnologiche internazionali. “Non voglio essere un Segretario di Stato che siede nel suo ufficio pensando di poter controllare le cose legiferando e regolamentando da Westminster,” ha dichiarato Kyle. “Dobbiamo avere un approccio molto più basato sulle relazioni per interagire con Big Tech.”

Il Regno Unito punta dunque a posizionarsi come un attore di primo piano nella regolamentazione globale dell’IA, bilanciando la necessità di protezione pubblica con un approccio relazionale che consenta alle grandi aziende tecnologiche di prosperare senza sacrificare la sicurezza e il benessere della società.