L’intelligenza Artificiale rimane al centro dell’agenda politica mondiale e dopo l’Unione Europea, scende in campo anche il G7. La dichiarazione di Hiroshima adottata oggi, 30 ottobre 2023, dai leader di Canada, Francia, Germania, Giappone, Italia, Regno Unito e Stati Uniti vuole sottolineare le opportunità innovative e il potenziale trasformativo dei sistemi avanzati di Intelligenza Artificiale (IA), in particolare, dei modelli di base e dell’IA generativa.
“Riconosciamo la necessità di gestire i rischi connessi, di proteggere gli individui, la società e i nostri principi condivisi come lo Stato di Diritto e i valori democratici, ponendo l’umanità al centro” si legge nella dichiarazione di Hiroshima, che è integrata da 2 documenti più operativi: gli 11 principi guida per i sistemi di AI Generativa avanzata e un Codice di condotta internazionale, che saranno costantemente modificati, se necessario, alla luce del rapido evolversi della materia di cui si occupano.
A tale proposito, i leader dei Paesi del G7 sono favorevoli ad incoraggiare l’adozione di misure adeguate durante l’intero processo di sviluppo di sistemi avanzati di intelligenza artificiale anche prima e durante la loro distribuzione e commercializzazione, con l’obiettivo di identificare, valutare e mitigare i rischi lungo l’intero ciclo di vita delle tecnologie emergenti. Tra queste misure dovrebbero essere previsti anche dei test interni ed esterni indipendenti.
Per quanto riguarda invece l’uso improprio, le organizzazioni responsabili dello sviluppo di sistemi avanzati sono chiamate a monitorare attentamente vulnerabilità, incidenti e rischi emergenti. Dovrebbero facilitare la scoperta e la segnalazione di problemi e vulnerabilità da parte degli utenti dopo l’implementazione. La trasparenza da questo punto di vista è fondamentale, e le capacità, le limitazioni e gli ambiti di utilizzo appropriato e inappropriato dovrebbero essere comunicati pubblicamente attraverso rapporti dettagliati.
La condivisione responsabile delle informazioni e la segnalazione degli incidenti rappresentano dei punti cruciali per i Paesi del G7, coinvolgendo industria, governi, società civile e mondo accademico. L’approccio raccomandato è basato sulla gestione del rischio, in linea con il Regolamento UE in fase di completamento. Ciò implica processi di responsabilità e di governance per valutare e mitigare i rischi.
Occorrono poi dei meccanismi affidabili di autenticazione e di provenienza dei contenuti, come watermarking, etichettatura o dichiarazioni di non responsabilità, in modo da consentire agli utenti di determinare se un contenuto è stato creato con il sistema di intelligenza artificiale di una specifica organizzazione.
Tra le priorità elencate vi è poi la mitigazione dei rischi per la società e la sicurezza, nonché lo sviluppo di sistemi avanzati per affrontare sfide come la crisi climatica, la salute globale e l’istruzione, in linea con gli Obiettivi di Sviluppo Sostenibile delle Nazioni Unite. Infine, i leader del G7 sottolineano l’importanza di promuovere lo sviluppo e, se del caso, l’adozione di standard tecnici internazionali, insieme a misure adeguate di protezione dei dati personali e della proprietà intellettuale.
A margine di questo accordo, Ursula fon der Leyen, Presidente della Commissione Europea, si è detta lieta di accogliere i principi guida internazionali del G7 e il codice di condotta volontario, esprimendosi a favore dell’impegno congiunto per favorire lo sviluppo tecnologico ponendo in primo piano il tema della sicurezza e dell’affidabilità delle tecnologie.
“I benefici potenziali che l’AI comporta per l’economia e i cittadini europei sono fondamentali. Non dobbiamo però dimenticare che la velocità dei processi innescati dall’AI porta con sé anche nuove sfide”, il commento della von der Leyen alla Dichiarazione di Hiroshima, che prosegue “l’Ue è già all’avanguardia, dal punto di vista normativo, grazie all’AI Act, che rappresenta un importante contributo anche a livello di governance globale”.