Il Giappone ha dimostrato un impegno significativo nello sviluppo etico dell’intelligenza artificiale (AI) e nella sua applicazione in campo medico, promuovendo politiche e regolamentazioni mirate alla trasparenza e alla protezione dei dati.
Il governo giapponese ha istituito l’AI Network Society per promuovere l’uso responsabile e sicuro dell’intelligenza artificiale (IA). Questa iniziativa rappresenta un passo significativo verso l’integrazione etica e responsabile delle tecnologie IA in vari settori, tra cui quello medico.
L’AI Network Society mira a sviluppare linee guida e raccomandazioni che favoriscano un dialogo costruttivo tra gli stakeholders pubblici e privati
Attraverso la Strategia Nazionale sull’AI e le linee guida del Ministero dell’Economia, del Commercio e dell’Industria (METI), il paese si pone all’avanguardia nell’adozione responsabile della tecnologia.
L’AI sta trasformando la diagnostica medica, la gestione dei pazienti e la ricerca farmaceutica, grazie anche a collaborazioni internazionali e progetti innovativi come l’AI Hospital Project e la robotica medica.
Con un forte focus sulla formazione e la sensibilizzazione, il Giappone investe nella creazione di un ecosistema che combina avanzamento tecnologico e principi etici, migliorando la qualità della vita e la cura sanitaria.
Benvenuti a questa intervista esclusiva, in cui discutiamo con un esperto di ingegneria del software e intelligenza artificiale medica. Abbiamo il piacere di parlare con Hirohito Okuda, 技術フェロー (Technology Fellow) presso Konica Minolta, Giappone. Okuda San è stato anche visiting research scientist e senior software developer a Yale. Con una carriera impressionante, Okuda ha accumulato un’esperienza significativa nel campo dell’intelligenza artificiale applicata al settore medico.
Intervistatore: Buongiorno, Okuda San. Grazie per essere con noi oggi. Potrebbe iniziare descrivendo il suo ruolo attuale presso Konica Minolta?
Hirohito Okuda: Buongiorno. Attualmente, supervisiono e dirigo lo sviluppo dell’intelligenza artificiale presso Konica Minolta come Fellow. La nostra azienda è nota principalmente per la produzione di stampanti multifunzione e dispositivi di imaging medico. Il mio ruolo include la supervisione dell’etica dell’IA, l’istituzione di strategie tecnologiche e la revisione di prodotti di intelligenza artificiale. Inoltre, sono un membro attivo del comitato etico dell’azienda.
Intervistatore: Quali sono i maggiori ostacoli nell’integrazione dell’IA nei progetti software?
Hirohito Okuda: Uno dei maggiori ostacoli è l’imprevedibilità e l’instabilità dei modelli di intelligenza artificiale. A differenza del software tradizionale, dove l’output è prevedibile e deterministico, l’IA produce risultati che possono essere imprevedibili a causa della complessità del modello. Questa natura “black box” dell’IA rende difficile spiegare e prevedere i risultati, richiedendo un piano di verifica robusto e strategie di gestione delle eccezioni.
Intervistatore: Come si differenziano i test nell’ingegneria del software tradizionale rispetto a quelli per l’IA?
Hirohito Okuda: Nell’ingegneria del software tradizionale, i test unitari prevedono risultati specifici per determinati input. Con l’IA, è necessario adottare un approccio statistico per definire i criteri di superamento. Ad esempio, invece di aspettarsi un output preciso per ogni input, si possono stabilire criteri di successo basati sulla percentuale di risultati accettabili su un insieme di dati di test, si stabiliscono criteri basati su metriche come accuratezza, precisione, richiamo e F1-score. I test devono essere eseguiti su set di dati diversificati e includere l’analisi degli errori, la validazione incrociata e la valutazione di robustezza. Inoltre, è essenziale il monitoraggio continuo delle prestazioni del modello per garantire che rimanga efficace nel tempo.
Intervistatore: La spiegabilità dell’IA è un tema caldo. Quali sono le sfide in questo contesto?
Hirohito Okuda: La spiegabilità dell’IA è una sfida significativa. Gli utenti finali, specialmente in ambito medico, richiedono spiegazioni comprensibili per i risultati prodotti dall’IA. Questo richiede una comunicazione chiara e trasparente con gli utenti sin dall’inizio del progetto, oltre allo sviluppo di tecniche di AI spiegabile. Tuttavia, queste tecniche spesso offrono solo approssimazioni e non spiegazioni rigorose.
Intervistatore: Quali sono le complessità nel definire le specifiche dei requisiti per i sistemi di IA?
Hirohito Okuda: Definire le specifiche dei requisiti per i sistemi di intelligenza artificiale è complesso a causa della vasta gamma di dati di input possibili. A differenza del software tradizionale, dove è possibile elencare tutte le combinazioni di dati di input, con l’IA questo non è fattibile. La definizione di requisiti funzionali specifici per ogni tipo di input è quasi impossibile, rendendo necessaria l’adozione di approcci flessibili e adattivi.
Intervistatore: Quali sono i rischi comuni e unici associati all’IA?
Hirohito Okuda:
Il Giappone affronta diversi rischi legati all’uso di tecnologie come l’IA e il software open source. Tra i rischi comuni ci sono quelli legati alla violazione del copyright e alla gestione del supporto dei software di terze parti. Questi possono portare a problemi legali e operativi se non gestiti correttamente.
Inoltre, l’adozione di architetture aperte, come i servizi AI forniti tramite API, richiede una chiara definizione delle responsabilità tra i fornitori di servizi e gli utenti. Questo è cruciale per garantire che le parti coinvolte siano consapevoli dei loro diritti e doveri, riducendo così i potenziali conflitti e malintesi.
Un rischio unico associato all’IA è la possibilità di distorsioni nei risultati e problemi di equità. Questo può verificarsi soprattutto se i dati utilizzati per l’addestramento sono distorti o non rappresentativi della popolazione a cui l’IA sarà applicata. Questi fattori possono influenzare negativamente la precisione e l’imparzialità dei sistemi AI.
Inoltre, la regolamentazione dell’IA è un’area in rapida evoluzione, con normative che variano significativamente da regione a regione. Questo richiede un’attenzione costante per conformarsi alle normative locali e internazionali, al fine di evitare sanzioni legali e proteggere la reputazione dell’organizzazione che utilizza tecnologie AI.
Per mitigare questi rischi, le aziende e gli utenti in Giappone dovrebbero adottare pratiche robuste di gestione dei dati, includere clausole contrattuali chiare e aggiornarsi costantemente sulle normative emergenti relative all’IA e al software open source.
Intervistatore: Può parlarci del comitato etico dell’intelligenza artificiale presso la sua societa’ ?
Hirohito Okuda: Certamente. Il comitato etico affronta questioni come la privacy e i rischi etici legati all’uso della sorveglianza e delle telecamere di sicurezza. Ci assicuriamo che i nuovi prodotti e servizi siano conformi alle normative e riducano al minimo i rischi per la privacy.
Intervistatore: Quali sono le sfide specifiche dell’intelligenza artificiale generativa?
Hirohito Okuda: L’intelligenza artificiale generativa presenta ulteriori sfide, tra cui rischi di sicurezza e violazioni del copyright. Ad esempio, strumenti come GitHub Copilot devono essere utilizzati con attenzione per evitare violazioni della licenza. Inoltre, l’IA generativa può introdurre rischi di sicurezza sconosciuti, come la possibilità di superare le barriere di sicurezza attraverso ripetute richieste.
Intervistatore: Concludendo, quali sono le prospettive future per l’integrazione dell’IA nel software medico?
Hirohito Okuda:
L’intelligenza artificiale generativa rappresenta una rivoluzione nell’ambito dello sviluppo software e della creatività digitale, ma introduce anche sfide significative, tra cui rischi di sicurezza e problematiche legate al copyright.
Una delle principali preoccupazioni riguarda la violazione delle licenze e dei diritti d’autore. Strumenti come GitHub Copilot, che generano codice e contenuti testuali basandosi su modelli di machine learning addestrati su vasti dataset, possono involontariamente riprodurre o riutilizzare porzioni di codice protette da licenze specifiche. Gli sviluppatori devono essere consapevoli di questo rischio e utilizzare tali strumenti con cautela, assicurandosi di rispettare le normative sul copyright e le condizioni delle licenze software.
Inoltre, l’IA generativa può presentare nuovi rischi per la sicurezza informatica. La capacità dell’IA di generare contenuti in modo autonomo potrebbe essere sfruttata per eludere sistemi di sicurezza mediante attacchi basati su ripetute richieste o generazione di dati manipolati per ingannare i sistemi di rilevamento. Questo scenario apre la porta a nuove forme di vulnerabilità che richiedono un’attenzione particolare da parte degli sviluppatori e degli esperti di sicurezza informatica.
Per affrontare queste sfide, è essenziale un approccio bilanciato che incoraggi l’innovazione ma al contempo protegga i diritti e la sicurezza degli utenti e delle organizzazioni.
Ciò implica lo sviluppo di linee guida etiche e legali chiare per l’uso dell’IA generativa, nonché l’implementazione di misure tecniche per mitigare i rischi di sicurezza emergenti.
L’educazione e la consapevolezza degli sviluppatori svolgono un ruolo cruciale nel garantire un utilizzo responsabile e sicuro di queste tecnologie avanzate.
Intervistatore: Grazie mille, Okuda San, per il suo tempo e le sue preziose intuizioni.
Hirohito Okuda: Grazie a voi. È stato un piacere.
Lascia un commento
Devi essere connesso per inviare un commento.