La Trustworthy AI (TAI) è l’Intelligenza Artificiale sostenibile, affidabile, di cui ci si può fidare, che promuove il benessere degli esseri umani e dell’ambiente e rispetta i diritti umani fondamentali. È diventata una necessità sempre più urgente, poiché sulla fiducia si costruiscono le fondamenta delle società, delle economie e del loro sviluppo sostenibile.
Ethics Guidelines for Trustworthy AI
- European Commission’s Ethics Guidelines: Le linee guida etiche per l’AI affidabile sono state stabilite dalla Commissione Europea. Queste linee guida identificano sette requisiti chiave per lo sviluppo di sistemi di AI affidabili:
- Lawfulness: I sistemi di AI devono rispettare le leggi e le norme applicabili.
- Ethical Principles: I sistemi di AI devono rispettare i principi etici e valori fondamentali.
- Technical Robustness and Safety: I sistemi di AI devono essere robusti e sicuri, garantendo la protezione dei dati e la prevenzione di danni.
- Privacy and Data Governance: I sistemi di AI devono rispettare la privacy e la gestione dei dati, garantendo la sicurezza e la trasparenza.
- Transparency: I sistemi di AI devono essere trasparenti, fornendo informazioni chiare e accessibili ai utenti.
- Diversity, Non-Discrimination and Fairness: I sistemi di AI devono essere progettati per essere inclusivi e imparziali, evitando bias e discriminazione.
- Societal and Environmental Well-being: I sistemi di AI devono essere progettati per beneficiare tutti gli esseri umani, compresi i futuri generazioni, e per essere sostenibili e ambientalmente friendly.
Di recente pubblicazione il documento “AI affidabile nella pratica: un’analisi delle esigenze e delle sfide dei professionisti” presenta i risultati di un sondaggio e di interviste semi-strutturate condotti da Maria Teresa Baldassarre, Domenico Gigante, Azzurra Ragone, Sara Tibidò e Marcos Kalinowski. Lo studio mirava a comprendere le sfide e le esigenze dei professionisti nello sviluppo di sistemi di AI affidabile (TAI).
(EASE 24) Principali Risultati
- Visione dei Professionisti sulla TAI: Lo studio ha rilevato che i professionisti hanno una visione chiara della TAI, enfatizzando l’importanza della trasparenza, della spiegabilità, dell’equità, della robustezza e della responsabilità.
- Affrontare i Principi TAI: I professionisti hanno riferito di utilizzare vari metodi per affrontare i principi TAI, tra cui:
- Spiegabilità: Utilizzo di tecniche come l’interpretabilità del modello, l’attribuzione delle caratteristiche e le visualizzazioni.
- Equità: Implementazione di tecniche come la pre-elaborazione dei dati, la regolarizzazione e la debiasing.
- Robustezza: Utilizzo di tecniche come l’aumento dei dati, l’addestramento avversario e le funzioni di perdita robuste.
- Esigenze e Sfide dei Professionisti:
- Mancanza di Standardizzazione: I professionisti hanno evidenziato la necessità di quadri di riferimento e linee guida standardizzate per lo sviluppo di TAI.
- Conoscenze Insufficienti: Hanno riferito di avere una mancanza di conoscenze sui principi TAI e su come implementarli in modo efficace.
- Strumenti e Risorse Limitati: I professionisti hanno espresso la necessità di più strumenti e risorse per supportare lo sviluppo di sistemi TAI.
- Raccomandazioni:
- Sviluppare Quadri di Riferimento Standardizzati: Stabilire linee guida e quadri di riferimento chiari per lo sviluppo di TAI.
- Fornire Formazione e Risorse: Offrire formazione e risorse ai professionisti sui principi TAI e sulle tecniche di implementazione.
- Migliorare gli Strumenti e l’Infrastruttura: Sviluppare e migliorare gli strumenti e l’infrastruttura per supportare lo sviluppo di sistemi TAI.
Lo studio fornisce preziose informazioni sulle sfide e le esigenze dei professionisti nello sviluppo di sistemi di Intelligenza Artificiale affidabili, evidenziando l’importanza della standardizzazione, della conoscenza e delle risorse per affrontare queste sfide.
Altri riferimenti >
AI HLEG’s Assessment List: L’AI HLEG ha sviluppato un elenco di valutazione per aiutare gli sviluppatori di AI a sviluppare sistemi di AI affidabili.
Deloitte ha sviluppato un framework multidimensionale per aiutare le organizzazioni a sviluppare misure etiche per lo sviluppo di sistemi di AI affidabili.
Take Away :
Le organizzazioni devono sviluppare una struttura di governance che incorpori i requisiti etici e legali per lo sviluppo di sistemi di AI affidabili, devono includere strategie per gestire i rischi associati allo sviluppo e all’utilizzo di sistemi di AI, garantendo la sicurezza e la protezione dei dati. I sistemi di AI devono prevedere meccanismi per la partecipazione dei stakeholder, garantendo che le decisioni prese siano in linea con i valori etici e legali.
Lascia un commento
Devi essere connesso per inviare un commento.