Notizie di Intelligenza Artificiale Inclusiva in Tempo Reale: Innovazione e Accessibilità per Tutti

Tag: G7

Pope Francis Warns of AI

Pope Francis has called for a worldwide ban on lethal autonomous weapons, which can target and attack without human input. During his speech he made this appeal during his address to the G7 leaders’ summit in Italy on June 14, 2024.

Papa Francesco al G7: la tecnologia sia al servizio dell’essere umano

Al via oggi a Borgo Egnazia la seconda e ultima giornata di lavori del G7 dei leader, che ha visto poco fa Papa Francesco nella veste di “keynote speaker”‘ nell’ultima sessione del summit, dedicata all’Intelligenza Artificiale.

Un evento annunciato e atteso – per la prima volta in assoluto un Pontefice partecipa ai lavori del G7 – anche per l’attenzione che il Santo Padre e il Vaticano hanno dedicato al tema da qualche anno, a partire dalla firma a Roma, nel 2020, della Rome Call for AI Ethics e, più in generale, per tutti gli interventi volti a rimarcare la necessità di una moderazione etica degli algoritmi e dei programmi di Intelligenza Artificiale che poi è stata definita con la parola “algoretica”.

G7, Meloni: Intelligenza Artificiale tra le sfide più urgenti

Abbiamo come oratore principale ad aprire i nostri lavori Sua Sanità Papa Francesco. La sua partecipazione è per noi un grande onore. Questa è la prima volta che un Pontefice partecipa a un meeting del G7 e questo rende l’appuntamento di oggi un momento storico. Quindi non ringrazieremo mai abbastanza Sua Sanità per essere qui“, sono le parole con cui la presidente del Consiglio, Giorgia Meloni, ha aperto l’ultima sessione di lavoro del G7 in corso a Borgo Egnazia incentrata sui temi dell’Intelligenza Artificiale, dell’energia, dell’Africa/Mediterraneo che si è svolta in modalità allargata, con la partecipazione, oltre che di Papa Francesco anche dei Paesi e organizzazioni invitate dalla Presidenza italiana del vertice.

Tra le tante sfide globali che dobbiamo affrontare in questo periodo” sottolinea la premier Giorgia Meloni “abbiamo deciso di dedicare la sessione outreach a quelle che consideriamo più urgenti: l’Intelligenza Artificiale prima di tutto con le opportunità che si aprono e i rischi collegati, al mediterraneo, un’area di crisi e un luogo di dialogo, all’Africa, continente con cui vogliamo avviare una cooperazione completamente nuova“, sottolineando come ci sia bisogno di lavorare senza approcci ideologici.


Newsletter – Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale. Iscriviti alla newsletter di Rivista.AI e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

G7 BlackRock, Microsoft, Brookfield e la Banca Mondiale assieme a Biden

Il neoliberismo, basato su ridimensionamento del ruolo dello stato, tagli alle tasse e deregolamentazione, non ha mantenuto le sue promesse di crescita economica e benessere diffuso. Invece, ha portato a maggiori disuguaglianze e insicurezza finanziaria.

In attesa del G7 2024 a Borgo Egnazia. Focus su crescita, AI etica e partecipazione storica di Papa Francesco

Si terrà a Borgo Egnazia, in Puglia, dal 13 al 15 giugno il vertice del G7 nell’anno di presidenza dell’Italia.

Al summit partecipano i Capi di Stato e di Governo dei sette Stati membri – Canada, Francia, Germania, Giappone, Italia, Regno Unito, Stati Uniti – oltre al Presidente del Consiglio Europeo, Charles Michel e alla Presidente della Commissione Europea, Ursula von der Leyen,  in qualità di rappresentanti dell’Unione europea. Alle delegazioni su uniranno anche il presidente turco Erdogan e il presidente ucraino Valdimir Zelensky.

Tra i tanti argomenti del meeting che riguarderanno, giusto per citarne alcuni, la crescita economica, lo sviluppo, il clima, l’ambiente, l’energia, la sicurezza, l’immigrazione, l’Africa e il libero mercato (soprattutto in relazione al tema della competitività con la Cina nei settori considerati strategici), il governo italiano ha spinto molto per inserire nell’agenda anche il tema dell’uso consapevole dell’Intelligenza Artificiale prendendo in qualche modo in mano il testimone dalla delegazione giapponese che ha guidato il G7 lo scorso anno e che aveva puntato molto proprio su questo tema fino ad arrivare all’approvazione della Dichiarazione di Hiroshima.

Proprio in tema di Intelligenza Artificiale, la grande novità dell’edizione a guida italiana è la partecipazione di Papa Francesco che ha accettato di essere presente per tutta la sessione dedicata proprio all’Intelligenza Artificiale in programma venerdi 14 giugno su all’utilizzo etico e umano centrico dell’Ai, al suo impatto sull’occupazione e su come evitare che questo aumenti il gap tra i Paesi avanzati e quelli meno sviluppati. Si tratta della prima partecipazione per un Pontefice ad un incontro del G7.

Sempre nella giornata del 14 giugno saranno presenti in una sessione pomeridiana i Paesi codietti ‘outreach’: Brasile, India e Sudafrica, oltre che la Mauritania, il Kenya, l’Algeria, la Giordania, la Turchia, l’Arabia Saudita, gli Emirati Arabi Uniti, la Tunisia, l’ Argentina, la Banca Africana di Sviluppo, l’Onu, l’Ocse, l’Fmi e la Banca mondiale.


Newsletter – Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale. Iscriviti alla newsletter di Rivista.AI e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

La cattedra dei non credenti aspettando Papa Francesco al G7 Borgo Egnazia

La Cattedra dei non credenti è stata probabilmente una delle intuizioni più caratterizzanti l’episcopato di Carlo Maria Martini a Milano. L’iniziativa si sviluppò dal 1987 al 2002, lungo 12 edizioni e 50 incontri.

«… Ciascuno di noi ha dentro di sé un non credente e un credente che ci parlano dentro, che si interrogano a vicenda».

Cardinale Carlo Maria Martini

Intervista a Chiara Mugnai sull’AI e il suo ruolo in Eoliann

LE INTERVISTE DI WOMEN IN AI – Chiara Mugnai, un viaggio tra la resilienza climatica, l’Intelligenza Artificiale e verso il cambiamento che genera valore.

Chiara Mugnai ha una laurea magistrale in Ingegneria Bionica e lavora da 6 anni nel campo dell’intelligenza artificiale. Attualmente è co-fondatrice e Chief Data Scientist (CDS) di Eoliann, una startup italiana che, utilizzando l’intelligenza artificiale applicata ai dati satellitari, aiuta le aziende ad adattarsi al cambiamento climatico fornendo probabilità e impatto degli eventi estremi.

Il ruolo di Chiara in Eoliann è fondamentale nel plasmare la direzione e l’impatto tecnologico dell’azienda.

Intervento del Presidente della Repubblica Sergio Mattarella nell’incontro con i rappresentanti delle Accademie nazionali delle Scienze dei Paesi del G7, in occasione del S7 + SSH7 Academic Summit

Il Presidente della Repubblica, Sergio Mattarella, ha ricevuto questa mattina al Quirinale i rappresentanti delle Accademie nazionali delle scienze dei Paesi del G7, in occasione del S7 + SSH7 Academic Summit, dal titolo “Science for the Future. Challenges, Responsibilities and Opportunities”.

In rappresentanza dell’Accademia nazionale dei Lincei, organizzatrice della conferenza, erano presenti il Presidente Roberto Antonelli e il Vice Presidente Giorgio Parisi.

Dopo l’indirizzo di saluto del Prof. Antonelli, sono stati consegnati al Presidente Mattarella i documenti elaborati dalle Accademie delle scienze su sei grandi temi di interesse globale: Controllo degli Armamenti Nucleari, Salute, Scienza dei beni culturali, Agricoltura, Intelligenza artificiale, Disuguaglianze sociali.

Il presidente ha espresso la sua gratitudine agli illustri rappresentanti delle Accademie delle Scienze dei Paesi del G7 e delle Associazioni internazionali delle Accademie delle Scienze per il loro contributo prezioso in vista dell’incontro imminente del G7.

Ha sottolineato l’importanza del ruolo svolto dalle Accademie nella tutela e promozione della scienza, e ha auspicato che le raccomandazioni e le considerazioni espresse durante l’incontro vengano accolte non solo dal G7, ma anche dal G20 e dalla comunità internazionale nel suo complesso.

Il presidente ha evidenziato diversi argomenti di grande rilevanza, tra cui la minaccia degli armamenti nucleari, la sicurezza alimentare, la tutela della salute, le diseguaglianze sociali e la povertà, nonché le implicazioni dell’Intelligenza Artificiale.

Ha sottolineato l’importanza di fare un uso positivo degli avanzamenti scientifici e di evitare utilizzi distorti e pericolosi.

Inoltre, ha richiamato l’attenzione sul patrimonio culturale come fonte di saggezza per l’umanità e ha esortato a mantenere un rapporto stretto con esso, come garanzia di progresso, benessere e pace per il futuro dell’umanità.

Il presidente ha concluso ringraziando nuovamente le Accademie per il loro prezioso contributo e augurando loro ogni successo nella loro attività.

Dichiarazione di Trento G7, quali possibili effetti sul Bias di Genere

La “Dichiarazione di Trento”, firmata il 15 marzo 2024 dai ministri del G7 di industria, tecnologia e digitale, si propone di sviluppare l’intelligenza artificiale (AI) in modo etico e responsabile. Questo accordo è il risultato del processo avviato durante la presidenza giapponese del G7, conosciuto come il “processo di Hiroshima”.

Il nome “processo di Hiroshima” è stato scelto per richiamare l’attenzione sulle questioni etiche e sulla responsabilità nell’utilizzo della tecnologia, richiamando il ricordo delle tragedie legate alla bomba atomica durante la Seconda Guerra Mondiale, che ha avuto un impatto significativo sulla città di Hiroshima.

La dichiarazione è composta da 62 articoli e quattro allegati (la trovate in fondo all’articolo), che mirano a definire linee guida per l’implementazione di pratiche etiche nell’utilizzo e nello sviluppo dell’AI.

L’incontro si è svolto a Palazzo Geremia, sede di rappresentanza del Comune di Trento, ed è stato presieduto dal ministro delle imprese e del Made in Italy, Adolfo Urso, insieme al sottosegretario all’innovazione tecnologica e transizione digitale, Alessio Butti.

Durante la conferenza stampa, il ministro Urso ha sottolineato il passaggio dalla competizione tra i Paesi del G7 alla collaborazione piena, citando l’esempio dell’approvvigionamento dei chip come un ambito in cui la collaborazione internazionale è fondamentale.

Il 16 marzo 2023 la Commissione europea aveva giù lanciato il Critical Raw Materials Act. Tale proposta di regolamento introduce il concetto di materie prime strategiche

Poi sul  dossier G7 2023 materie prime critiche i Paesi membri hanno raggiunto un vero consenso. 

Parola d’ordine:  “riduzione del rischio”. La stessa presidente della Commissione europea Ursula von der Leyen, forte dei target contenuti nel Critical Raw Material Act, si è espressa proprio in questi termini in un duro discorso tenuto al Mercator Institute for China Studies.

Ha inoltre enfatizzato l’importanza di un utilizzo etico e responsabile dell’AI, preservando la privacy, la sicurezza dei dati personali e l’equità nei processi decisionali automatizzati.

Riteniamo che la Dichiarazione di Trento e il processo di sviluppo dell’intelligenza artificiale (AI) in modo etico e responsabile possono avere diversi effetti sull’inclusività, con un focus particolare sul superamento dei bias di genere e sull’incremento della rappresentazione e partecipazione nel campo tecnologico. Ecco alcuni possibili effetti:

Riduzione del bias di genere: L’adozione di principi etici e responsabili nell’AI potrebbe contribuire a ridurre i bias di genere presenti nei sistemi AI.

Promozione dell’inclusività e della diversità: La dichiarazione potrebbe anche promuovere l’inclusività e la diversità nel settore tecnologico, inclusa una maggiore partecipazione delle donne. Ciò potrebbe avvenire attraverso l’adozione di politiche che favoriscono l’uguaglianza di genere nelle opportunità di lavoro nel settore tecnologico e nell’accesso alla formazione e all’istruzione in campi correlati all’IA.

Miglioramento della rappresentazione: Un impegno per un’IA etica e responsabile potrebbe anche portare a un miglioramento della rappresentazione delle donne nei dati utilizzati per addestrare gli algoritmi e nei processi decisionali automatizzati.

Sensibilizzazione e educazione: La Dichiarazione di Trento potrebbe anche sottolineare l’importanza della sensibilizzazione e dell’educazione riguardo ai problemi di genere nell’IA e all’inclusività nel settore tecnologico.

In sintesi, la Dichiarazione di Trento e l’impegno per un’IA etica e responsabile possono avere un impatto positivo sulle donne e sull’inclusività, promuovendo una maggiore equità di genere, partecipazione e rappresentanza nel settore tecnologico e nell’implementazione dell’IA.

Meloni a Tokyo: l’Intelligenza Artificiale al centro dell’agenda italiana del G7

La presidente del Consiglio si trova nel paese nipponico per il passaggio di consegne tra la presidenza giapponese del G7 e quella italiana. L’incontro bilaterale è stato anche l’occasione per approfondire non solo le questioni legate alla cooperazione internazionale ma anche temi come l’Intelligenza artificiale e le sue applicazioni.

Un tema quello dell’Intelligenza Artificiale lanciato dal G7 di Hiroshima sul quale la premier ha rilasciato un’ampia intervista al quotidiano Yomiuri Shimbun durante la quale ha spiegato come la Presidenza giapponese del G7 abbia fatto “un lavoro straordinario per attirare l’attenzione su una tecnologia che può generare grandi opportunità ma può anche nascondere enormi rischi per le nostre società. I sistemi di IA generativa possono avere un impatto decisivo sul mondo del lavoro, dell’informazione, sugli equilibri globali e sulla nostra sicurezza. La Dichiarazione di Hiroshima sull’AI è di importanza cruciale in questo contesto, in quanto afferma la necessità di adottare principi guida e un codice di condotta per le aziende che sviluppano intelligenza artificiale”.

Da parte italiana, continua la premier, “svilupperemo ulteriormente questo lavoro per garantire che l’IA sia incentrata sull’uomo e controllata dall’uomo, tenendo conto dei principi etici fondamentali dell’umanità. Siamo anche di fronte alla possibilità concreta che molte professioni, anche altamente qualificate, vengano rapidamente sostituite dagli algoritmi, causando crisi sociali e contribuendo all’aumento del divario tra ricchi e poveri, potenzialmente cancellando la classe media”.

Per questo motivo, spiega Meloni, è intenzione dell’Italia di focalizzare l’attenzione dei Paesi partner sull’impatto dell’AI sul mondo del lavoro, coinvolgendo non solo le aziende ma anche la società civile e i sindacati per dare risposte a quello che è un rischio molto concreto per i lavoratori.

Per quanto riguarda l’impatto politico dell’Intelligenza Artificiale e le fake news che questa tecnologia è in grado di generare, Meloni sostiene che “si tratta di un problema molto attuale che si sta diffondendo ovunque a grande velocità, con impatti che vanno dalla polarizzazione interna delle nostre società all’interferenza nelle elezioni e nei processi democratici. Le false informazioni sono una parte importante della guerra ibrida, che mette a rischio la coesione delle nostre democrazie. Dobbiamo trovare il giusto equilibrio, contrastando gli attacchi e le interferenze esterne e garantendo allo stesso tempo la libertà di espressione, che è un pilastro fondamentale delle nostre democrazie” auspicando poi che la politica, grazie al lavoro congiunto in sedi come il G7, possa essere in grado di  combinare soluzioni tecniche e strumenti normativi adeguati alla portata della sfida.

Parlando poi in termini più ampi in qualità di Presidente del G7, oltre al Vertice che si terrà nella Regione Puglia il 13-15 giugno, Meloni ha sottolineato come la Presidenza italiana intenda affrontare, oltre all’AI anche temi come la situazione in Ucraina, il conflitto in Medio Oriente e le relazioni con i Paesi in via di sviluppo e le economie emergenti.

L’Italia ha concluso poi la Premier concentrerà i propri sforzi anche su temi chiave come le migrazioni, il clima, la salute globale, la sicurezza energetica, la sicurezza alimentare e le sfide derivanti dall’invecchiamento della popolazione.

Il Giappone passa la presidenza del G7 all’Italia. Tra gli obiettivi lavoro e Intelligenza Artificiale

Il Giappone ha passato l’8 novembre all’Italia la Presidenza del G7 (che ha durata annuale e ruota tra i paesi membri in base alla sequenza Stati Uniti, Regno Unito, Germania, Giappone, Italia, Canada, Francia): tra le attività già annunciate dall’Italia ci sarà una conferenza sul rapporto tra Intelligenza Artificiale e lavoro.

Una materia, quella dell’AI “sulla quale dobbiamo coinvolgere gli attori privati, perché costruire una governance dell’intelligenza artificiale non vuol dire lavorare contro le aziende, ma dialogare col mondo privato in un mondo in cui gli interessi pubblici e privati, entrambi legittimi, non sono sempre sovrapponibili e a volte sono in contrasto” il commento del presidente del Consiglio Giorgia Meloni al Comitato per la Transizione digitale a Palazzo Chigi.

Noi dobbiamo evitare” continua la Meloni “che aumenti il divario tra i ricchi e i poveri, che scompaia la classe media e che in definitiva l’impatto dell’intelligenza artificiale sia più negativo che positivo sulle nostre vite e sulle nostre società”.

Tra le priorità indicate dal presidente del Consiglio, quella di fare in modo che l’IA sia incentrata sull’uomo e controllata dall’uomo, lavorando “per garantire delle barriere etiche all’Intelligenza artificiale e dare applicazione pratica al concetto di algoretica, ovvero dare un’etica agli algoritmi” che ha chiuso ringraziando su questo punto Padre Paolo Benanti, docente all’Università Gregoriana, che è stato recentemente nominato dal Segretario Generale delle Nazioni Unite, unico italiano, come membro del Comitato di esperti sull’Intelligenza Artificiale.

Il G7 2024 si svolgerà dal 13 al 15 giugno in Puglia, nella Valle d’Itria, a Borgo Egnazia.

Dichiarazione di Hiroshima: gli 11 principi guida per i sistemi avanzati di AI

I Principi Guida Internazionali per le Organizzazioni che Sviluppano Sistemi AI Avanzati mirano a promuovere l’IA sicura e affidabile a livello mondiale e a fornire orientamenti per le organizzazioni che sviluppano e utilizzano i sistemi AI più avanzati, compresi i sistemi di AI generativi. Per organizzazioni si intendono realtà del settore privato, del settore pubblico, della società civile e del mondo accademico.

Una lista non esaustiva di principi guida che viene proposta come un documento in costante aggiornamento in risposta agli sviluppi recenti nei sistemi AI avanzati e ha l’obiettivo di aiutare a cogliere i benefici e affrontare i rischi e le sfide portate da queste tecnologie. Principi che dovrebbero applicarsi a tutti gli attori dell’IA, quando e come applicabili, nella progettazione, sviluppo, implementazione e l’uso dei sistemi AI avanzati.

In buona sostanza, mentre sfruttano le opportunità dell’innovazione, le organizzazioni dovrebbero rispettare lo stato di diritto, i diritti umani, la diversità, l’equità, la non discriminazione, la democrazia e l’umanocentricità, nella progettazione, sviluppo e implementazione dei sistemi AI avanzati. Le organizzazioni non dovrebbero sviluppare o implementare sistemi AI avanzati in modo che minaccino i valori democratici, che siano particolarmente dannosi per individui o comunità, che facilitino il terrorismo, consentano un uso criminale o comportino rischi sostanziali per la sicurezza, la stabilità e i diritti umani, e quindi non siano accettabili.

Gli Stati dal canto loro debbono rispettare i loro obblighi ai sensi del diritto internazionale dei diritti umani per promuovere il pieno rispetto e la protezione dei diritti umani, mentre le attività del settore privato dovrebbero essere in linea con i quadri internazionali come i Principi Guida delle Nazioni Unite su Impresa e Diritti Umani e le Linee Guida dell’OCSE per le Imprese Multinazionali.

In particolare, viene chiesto alle organizzazioni di attenersi ai seguenti principi, commisurati ai rischi:

  1. Adottare misure adeguate lungo lo sviluppo dei sistemi AI avanzati, compreso prima e durante la loro implementazione e messa sul mercato, per identificare, valutare e mitigare i rischi lungo l’intero ciclo di vita dell’IA. Ciò include l’impiego di diverse misure di test interni ed esterni indipendenti, attraverso una combinazione di metodi come il red-teaming, e l’attuazione di adeguate misure di mitigazione per affrontare rischi e vulnerabilità identificati. Le misure di test e mitigazione dovrebbero, ad esempio, cercare di garantire l’affidabilità e la sicurezza dei sistemi per l’intero ciclo di vita, in modo che non comportino rischi irragionevoli. A sostegno di tali test, gli sviluppatori dovrebbero cercare di abilitare la tracciabilità, in relazione a set di dati, processi e decisioni prese durante lo sviluppo del sistema.
  2. Modelli di abuso, dopo l’implementazione inclusa la messa sul mercato. Le organizzazioni dovrebbero utilizzare, quando appropriato e commisurato al livello di rischio, i sistemi AI come previsto e monitorare vulnerabilità, incidenti, rischi emergenti e abusi dopo l’implementazione, prendendo le misure appropriate per affrontare questi problemi. Si incoraggiano le organizzazioni a considerare, ad esempio, come facilitare la scoperta e la segnalazione di problemi e vulnerabilità da parte di terze parti e utenti dopo l’implementazione. Le organizzazioni sono inoltre incoraggiate a mantenere una documentazione adeguata degli incidenti segnalati e mitigare i rischi e le vulnerabilità identificati, in collaborazione con altri stakeholder. I meccanismi per segnalare le vulnerabilità, dovrebbero essere accessibili a un insieme diversificato di stakeholder.
  3. Rendere pubbliche le capacità, i limiti e i domini di uso appropriato e inappropriato dei sistemi AI avanzati, per garantire una trasparenza sufficiente, contribuendo così ad aumentare la responsabilità. Questo dovrebbe includere la pubblicazione di rapporti di trasparenza contenenti informazioni significative per tutti i nuovi rilasci dei sistemi AI avanzati. Le organizzazioni dovrebbero rendere le informazioni nei rapporti di trasparenza sufficientemente chiare e comprensibili per consentire agli sviluppatori e agli utenti, secondo l’opportunità e la rilevanza, di interpretare l’output del modello/sistema e di utilizzarlo in modo appropriato, e la segnalazione di trasparenza dovrebbe essere supportata e informata da processi di documentazione esaustivi.
  4. Lavorare per la condivisione responsabile delle informazioni e la segnalazione degli incidenti tra le organizzazioni che sviluppano sistemi AI avanzati, comprese le industrie, i governi, la società civile e l’accademia. Ciò include la condivisione responsabile di informazioni, se appropriato, compresi, ma non solo, rapporti di valutazione, informazioni su rischi di sicurezza, rischi per la sicurezza, capacità pericolose, intenzionali o non intenzionali, e tentativi di attori AI di eludere le protezioni lungo l’intero ciclo di vita dell’IA.
  5. Sviluppare, implementare e divulgare politiche di governance e gestione dei rischi dell’IA, basate su un approccio basato sul rischio, comprese le politiche sulla privacy e misure di mitigazione, in particolare per le organizzazioni che sviluppano sistemi AI avanzati. Ciò include la divulgazione, quando opportuno, delle politiche sulla privacy, comprese le politiche per i dati personali, gli avvisi all’utente e gli output dei sistemi AI avanzati. Si prevede che le organizzazioni stabiliscano e divulghino le loro politiche di governance dell’IA e i meccanismi organizzativi per attuare tali politiche in conformità con un approccio basato sul rischio. Ciò dovrebbe includere processi di responsabilità e governance per valutare e mitigare i rischi, quando possibile, lungo l’intero ciclo di vita dell’IA.
  6. Investire ed implementare controlli di sicurezza robusti, inclusa la sicurezza fisica, la sicurezza informatica e le salvaguardie contro minacce interne lungo l’intero ciclo di vita dell’IA. Questi possono includere la sicurezza dei pesi e degli algoritmi del modello, dei server e dei set di dati, ad esempio attraverso misure di sicurezza operative per la sicurezza delle informazioni e controlli di accesso adeguati alla sicurezza fisica/cibernetica.
  7. Sviluppare e implementare meccanismi affidabili di autenticazione dei contenuti e di provenienza, quando tecnicamente possibile, come il watermarking o altre tecniche per consentire agli utenti di identificare i contenuti generati dall’IA. Ciò include, quando opportuno e tecnicamente possibile, meccanismi di autenticazione dei contenuti come la provenienza per i contenuti creati con il sistema AI avanzato di un’organizzazione. I dati di provenienza dovrebbero includere un identificatore del servizio o del modello che ha creato il contenuto, ma non devono includere informazioni sugli utenti. Le organizzazioni dovrebbero anche cercare di sviluppare strumenti o API per consentire agli utenti di determinare se un particolare contenuto è stato creato con il loro sistema AI avanzato, ad esempio tramite watermarking. Le organizzazioni sono inoltre incoraggiate a implementare altri meccanismi come etichettature o disclaimer per consentire agli utenti, quando possibile e appropriato, di sapere quando stanno interagendo con un sistema AI.
  8. Dare priorità alla ricerca per mitigare i rischi sociali, di sicurezza e di sicurezza e dare priorità agli investimenti in misure di mitigazione efficaci. Ciò include la conduzione, la collaborazione e l’investimento nella ricerca che supporta l’avanzamento della sicurezza, della sicurezza e della fiducia nell’IA, e l’affrontare rischi chiave, nonché investire nello sviluppo di strumenti di mitigazione appropriati.
  9. Dare priorità allo sviluppo di sistemi AI avanzati per affrontare le sfide più grandi del mondo, in particolare ma non solo la crisi climatica, la salute globale e l’istruzione. Questi sforzi sono intrapresi a sostegno dei progressi degli Obiettivi di Sviluppo Sostenibile delle Nazioni Unite e per incoraggiare lo sviluppo dell’IA a beneficio globale. Le organizzazioni dovrebbero dare priorità alla gestione responsabile dell’IA affidabile e umana e sostenere anche le iniziative di alfabetizzazione digitale.
  10. Promuovere lo sviluppo e, quando opportuno, l’adozione di standard tecnici internazionali. Ciò include il contributo allo sviluppo e, quando opportuno, l’uso di standard tecnici internazionali e buone pratiche, compresi quelli per il watermarking, e la collaborazione con le organizzazioni di sviluppo.
  11. Implementare adeguate misure di input e protezioni dei dati personali e della proprietà intellettuale. Si incoraggia le organizzazioni a prendere misure adeguate per gestire la qualità dei dati, compresi i dati di formazione e la raccolta di dati, per mitigare eventuali pregiudizi dannosi. Si dovrebbe anche sostenere la trasparenza adeguata dei set di dati di formazione e le organizzazioni dovrebbero conformarsi ai quadri giuridici applicabili.

Dichiarazione di Hiroshima: intesa al G7 sui codici di condotta sull’Intelligenza Artificiale

L’intelligenza Artificiale rimane al centro dell’agenda politica mondiale e dopo l’Unione Europea, scende in campo anche il G7. La dichiarazione di Hiroshima adottata oggi, 30 ottobre 2023, dai leader di Canada, Francia, Germania, Giappone, Italia, Regno Unito e Stati Uniti vuole sottolineare le opportunità innovative e il potenziale trasformativo dei sistemi avanzati di Intelligenza Artificiale (IA), in particolare, dei modelli di base e dell’IA generativa.

Riconosciamo la necessità di gestire i rischi connessi, di proteggere gli individui, la società e i nostri principi condivisi come lo Stato di Diritto e i valori democratici, ponendo l’umanità al centro” si legge nella dichiarazione di Hiroshima, che è integrata da 2 documenti più operativi: gli 11 principi guida per i sistemi di AI Generativa avanzata e un Codice di condotta internazionale, che saranno costantemente modificati, se necessario, alla luce del rapido evolversi della materia di cui si occupano.

A tale proposito, i leader dei Paesi del G7 sono favorevoli ad incoraggiare l’adozione di misure adeguate durante l’intero processo di sviluppo di sistemi avanzati di intelligenza artificiale anche prima e durante la loro distribuzione e commercializzazione, con l’obiettivo di identificare, valutare e mitigare i rischi lungo l’intero ciclo di vita delle tecnologie emergenti. Tra queste misure dovrebbero essere previsti anche dei test interni ed esterni indipendenti.

Per quanto riguarda invece l’uso improprio, le organizzazioni responsabili dello sviluppo di sistemi avanzati sono chiamate a monitorare attentamente vulnerabilità, incidenti e rischi emergenti. Dovrebbero facilitare la scoperta e la segnalazione di problemi e vulnerabilità da parte degli utenti dopo l’implementazione. La trasparenza da questo punto di vista è fondamentale, e le capacità, le limitazioni e gli ambiti di utilizzo appropriato e inappropriato dovrebbero essere comunicati pubblicamente attraverso rapporti dettagliati.

La condivisione responsabile delle informazioni e la segnalazione degli incidenti rappresentano dei punti cruciali per i Paesi del G7, coinvolgendo industria, governi, società civile e mondo accademico. L’approccio raccomandato è basato sulla gestione del rischio, in linea con il Regolamento UE in fase di completamento. Ciò implica processi di responsabilità e di governance per valutare e mitigare i rischi.

Occorrono poi dei meccanismi affidabili di autenticazione e di provenienza dei contenuti, come watermarking, etichettatura o dichiarazioni di non responsabilità, in modo da consentire agli utenti di determinare se un contenuto è stato creato con il sistema di intelligenza artificiale di una specifica organizzazione.

Tra le priorità elencate vi è poi la mitigazione dei rischi per la società e la sicurezza, nonché lo sviluppo di sistemi avanzati per affrontare sfide come la crisi climatica, la salute globale e l’istruzione, in linea con gli Obiettivi di Sviluppo Sostenibile delle Nazioni Unite. Infine, i leader del G7 sottolineano l’importanza di promuovere lo sviluppo e, se del caso, l’adozione di standard tecnici internazionali, insieme a misure adeguate di protezione dei dati personali e della proprietà intellettuale.

A margine di questo accordo, Ursula fon der Leyen, Presidente della Commissione Europea, si è detta lieta di accogliere i principi guida internazionali del G7 e il codice di condotta volontario, esprimendosi a favore dell’impegno congiunto per favorire lo sviluppo tecnologico ponendo in primo piano il tema della sicurezza e dell’affidabilità delle tecnologie.

I benefici potenziali che l’AI comporta per l’economia e i cittadini europei sono fondamentali. Non dobbiamo però dimenticare che la velocità dei processi innescati dall’AI porta con sé anche nuove sfide”, il commento della von der Leyen alla Dichiarazione di Hiroshima, che prosegue “l’Ue è già all’avanguardia, dal punto di vista normativo, grazie all’AI Act, che rappresenta un importante contributo anche a livello di governance globale”.

La corsa a due per la leadership nello sviluppo dell’Intelligenza Artificiale

L’intelligenza artificiale (IA) è diventata un terreno di sfida globale, con un’aspra competizione per il primato nello sviluppo di tecnologie avanzate. Al centro di questa corsa, la rivalità tra Stati Uniti e Cina emerge in primo piano, ma anche l’Unione Europea, i suoi paesi membri e altre realtà come Gran Bretagna, Canada e India giocano un ruolo significativo.

Gli Stati Uniti sono il leader indiscusso nello sviluppo dell’intelligenza artificiale, con le principali aziende tecnologiche della Silicon Valley a guidare la carica

Gli Stati Uniti hanno dominato il panorama dell’IA sin dai suoi primi passi. Con un ecosistema ricco di talenti, risorse finanziarie e una cultura favorevole all’innovazione, le aziende americane sono all’avanguardia nello sviluppo di algoritmi avanzati e applicazioni pratiche. La costa pacifica continua ad essere l’epicentro di questa rivoluzione tecnologica, con giganti della tecnologia come Google, Facebook e Microsoft in prima linea nella ricerca e sviluppo con l’obiettivo di rafforzare la propria posizione nel settore.

La Cina è al secondo posto, con il governo che investe pesantemente nella ricerca e nello sviluppo dell’IA

Dall’altra parte dell’Oceano, la Cina ha dimostrato una crescita straordinaria nell’ambito dell’Intelligenza Artificiale. Con significativi investimenti governativi, una vasta base di dati e un approccio strategico a lungo termine, le aziende cinesi stanno emergendo come concorrenti di rilievo: Alibaba, Baidu e Tencent, sono tutte attivamente coinvolte nello spingere le capacità dell’intelligenza artificiale della Cina a nuovi livelli. La massiccia raccolta di dati e le politiche di supporto governativo offrono alla Cina una solida base per competere a livello globale. 

L’Europa è in ritardo

L’Europa nel suo complesso è in ritardo nello sviluppo dell’intelligenza artificiale, anche se alcuni Paesi come la Germania e la Francia stanno promuovendo investimenti mirati e collaborazioni tra settore pubblico e privato per cercare di recuperare terreno. L’iniziativa di creare un mercato unico digitale e lo sviluppo di una strategia europea sull’IA evidenziano comunque l’impegno dell’UE nel giocare un ruolo fondamentale nella definizione del futuro digitale.

Le posizioni di Gran Bretagna, Canada e India

La Gran Bretagna, con la sua ricca tradizione scientifica, potrebbe essere un attore chiave nello sviluppo dell’IA anche se dopo la Brexit si ritrova a giocare da sola in un mercato molto competitivo. L’approccio britannico enfatizza l’etica e la trasparenza, posizionando il paese come un innovatore responsabile. Nel continente americano, il Canada sta emergendo come un centro globale per la ricerca sull’IA, con un focus particolare sul deep learning.

In Asia, l’India sta rapidamente guadagnando terreno grazie alla sua vasta popolazione di ingegneri e scienziati informatici. Con una crescente attenzione agli investimenti in ricerca e sviluppo, l’India potrebbe svolgere un ruolo sempre più rilevante nell’ecosistema globale dell’IA.

I ritardatari tra nuove sfide e opportunità

Mentre alcuni paesi avanzano speditamente, altri faticano a stare al passo, per una questione di risorse finanziarie limitate, mancanza di competenze specializzate e anche questioni etiche legate all’uso dell’IA. I Paesi in via di sviluppo hanno certamente maggiori difficoltà a colmare il divario tecnologico, ma l’accesso a formazione, risorse finanziarie e partnership internazionali potrebbero aprire nuove opportunità.

La corsa all’intelligenza artificiale pur essendo un’attività globale è al momento una gara a due, tra Stati Uniti e Cina. La rivalità tra i due Paesi è palpabile, anche per motivi geopolitici, con Washington in indiscutibile vantaggio e Pechino che insegue per non rimanere indietro. Tuttavia, l’Unione Europea con le proprie iniziative e altri Paesi del G7 stanno dimostrando che il futuro dell’IA sarà plasmato da una collaborazione internazionale, guidata da valori etici e una visione condivisa per un futuro digitale avanzato e sostenibile.

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie