Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Tag: intelligenza artificiale

Samsung: l’Intelligenza Artificiale tradurrà le telefonate in tempo reale

Anche Samsung si lancia nel mondo dell’intelligenza artificiale. L’azienda sta lavorando alla sua IA che dovrebbe arrivare a inizio del 2024 ed essere resa disponibile sui telefoni più recenti. Tra le funzioni più interessanti che verranno abilitate un traduttore audio e testo delle telefonate in tempo reale, rendendo così più semplice effettuare una chiamata in un’altra lingua grazie all’AI generativa Gauss.

Sviluppata da Samsung Research, l’intelligenza artificiale generativa è composta da tre modelli: Samsung Gauss Language, Samsung Gauss Code e Samsung Gauss Image.

Il colosso tecnologico sudcoreano ha affermato che il suo modello di intelligenza artificiale prende il nome da Carl Friedrich Gauss, il matematico che stabilì la teoria della distribuzione normale, la spina dorsale dell’apprendimento automatico e dell’intelligenza artificiale.

Samsung Gauss incarnerà la nostra visione di sfruttare la potenza dell’intelligenza artificiale per migliorare la vita dei consumatori di tutto il mondo”, ha affermato un dirigente dell’azienda al Samsung AI Forum 2023 che si è tenuto questa settimana a Seul.

In particolare, la funzione di traduzione AI Live Translate Call metterà a disposizione degli utenti un traduttore personale ogni volta che ne avranno bisogno. Le traduzioni audio e testuali appariranno in tempo reale mentre si parla, rendendo estremamente semplice effettuare una chiamata in un’altra lingua.

Sebbene Samsung non abbia specificato la disponibilità della sua piattaforma AI al forum, gli esperti del settore si aspettano che l’IA on-device basata su Samsung Gauss sarà incorporata nella sua linea di smartphone di prossima generazione della serie Galaxy S24, il cui lancio è previsto per gennaio 2024.

Con il rilascio di Samsung Gauss, Samsung entra nell’arena dell’AI globale, preparandosi a competere seriamente con le Big Tech del settore.

Chat GPT fallisce il test di Touring

Non ce l’ha fatta: ChatGpt non ha superato il test di Turing, ideato per capire se una macchina ha raggiunto un livello di intelligenza tale da poter ingannare qualcuno facendogli credere di essere umana.

Ci è andata però molto vicino: nella sua versione più aggiornata, Gpt-4, è riuscita a ingannare i partecipanti il 41% delle volte. Il risultato è stato pubblicato sulla piattaforma arXiv, che ospita lavori non ancora passati al vaglio della comunità scientifica, da due ricercatori dell’Università della California a San Diego.

I due ricercatori Cameron Jones e Benjamin Bergen hanno arruolato 650 partecipanti per sostenere brevi conversazioni con altri volontari oppure con ChatGpt, a loro insaputa.

L’ultima versione Gpt-4, rilasciata dall’azienda OpenAI quest’anno, ha convinto i partecipanti di essere una persona il 41% delle volte, mentre la versione precedente, chiamata Gpt-3.5, solo dal 5% al 14% delle volte.

È interessante anche notare che gli esseri umani sono riusciti a convincere gli altri volontari di non essere delle macchine solo nel 63% delle prove.

Coloro che hanno smascherato correttamente ChatGpt si sono basati su alcuni fattori chiave: conversazioni troppo formali o, all’opposto, troppo informali, testi eccessivamente prolissi o molto sintetici, oppure anche una grammatica e una punteggiatura eccezionalmente buona o pessima, erano tutti elementi che facevano risuonare un segnale di ‘allarme’. Un’altra caratteristica rivelatrice è risultata la genericità della risposta. “Questi sistemi sono ottimizzati per produrre testi altamente probabili e per evitare opinioni controverse“, spiegano gli autori dello studio: “e ciò incoraggia risposte molto generiche, prive delle idiosincrasie tipiche di una persona“.

Boom dell’Intelligenza Artificiale: previsto un mercato da 3.636 miliardi di dollari entro il 2033

Secondo l’ultimo report pubblicato da Allied Market, il mercato globale dell’Intelligenza Artificiale (AI) ha un valore pari a 153,6 miliardi di dollari nel 2023 e si prevede che raggiungerà i 3.636 miliardi di dollari entro il 2033, crescendo a un CAGR del 37,3% dal 2024 al 2033.

La domanda di sistemi di intelligenza artificiale è aumentata negli ultimi anni e si prevede che questa tendenza continuerà anche nei prossimi anni, a causa della maggiore competitività sul mercato e dell’aumento degli standard di qualità, che consentiranno lo sviluppo di applicazioni basate sull’intelligenza artificiale nell’automatizzare le operazioni aziendali mantenendone e molto probabilmente aumentandone la qualità e l’efficienza.

Le crescenti applicazioni dell’intelligenza artificiale stanno inoltre aumentando la sua domanda da parte dei Governi e delle Organizzazioni del settore pubblico in un’ottica di crescente digitalizzazione delle attività.

I principali fornitori del mercato dell’intelligenza artificiale come Amazon Web Services, Inc., Apple Inc., Google LLC, IBM Corporation, Intel Corporation, Microsoft Corporation, Nvidia , Oracle Corporation, SAP SE, Siemens e OpenAI rappresentano e continueraano a rappresentare una quota significativa del mercato. Con la crescente richiesta di hardware e software per l’intelligenza artificiale, diverse aziende stanno chiudendo accordi di partnership per sviluppare ulteriormente le capacità dell’intelligenza artificiale. Si prevede inoltre una crescita delle attività di merger e acquisition ne settore. 

In particolare, i fattori che guideranno la crescita del settore saranno l’aumento degli investimenti nei sistemi di intelligenza artificiale, l’aumento della collaborazione tra le industrie e le società di soluzioni di intelligenza artificiale e apprendimento automatico, l’aumento della soddisfazione dei clienti e l’adozione di applicazioni cloud affidabili.

AI Safety Summit a Bletchley Park: la Gran Bretagna prova a guidare il dibattito globale sull’Intelligenza Artificiale

La Gran Bretagna ha deciso di ospitare il suo primo vertice globale sull’intelligenza artificiale, l’AI Safety Summit, a Bletchley Park, proprio nel sito considerato il luogo di nascita dell’informatica grazie ai progressi nei processi crittografici e di intelligence durante la Seconda Guerra Mondiale.

I timori sull’impatto che l’Intelligenza Artificiale potrebbe avere sulle economie e sulla società sono esplosi nel novembre dello scorso anno quando OpenAI ha reso disponibile al pubblico la sua tecnologia. ChatGPT, utilizzando strumenti di elaborazione del linguaggio naturale per creare un dialogo simile a quello umano, ha alimentato i timori (anche tra alcuni pionieri dell’intelligenza artificiale), che le macchine potrebbero col tempo raggiungere un’intelligenza maggiore rispetto agli umani, portando a conseguenze illimitate e non intenzionali.

Negli ultimi tempi si rileva un grande fermento sotto questo aspetto, con i Governi e la politica che stanno cercando di tracciare una via da seguire insieme alle aziende di intelligenza artificiale che temono dal canto loro di essere appesantite dalla regolamentazione prima ancora che la tecnologia raggiunga il suo pieno potenziale.

Mentre l’Unione Europea ha concentrato la sua supervisione sull’AI, l’AI Act, sui temi come la privacy, la sorveglianza dei dati e il loro potenziale impatto sui diritti umani – un po’ come fatto dall’amministrazione Biden con l’Ordine Esecutivo sull’AI – il vertice britannico ha invece come obiettivo principale quello di esaminare i cosiddetti rischi esistenziali derivanti da modelli generici altamente capaci chiamati “AI di frontiera”, anche perché la Gran Bretagna non ha in programma, almeno per il momento, una legislazione specifica per regolamentare l’Intelligenza Artificiale.

Il vertice, che si è tenuto il 1° e 2 novembre scorsi, nasce per volontà del primo ministro britannico Rishi Sunak, che vorrebbe ritagliare per la Gran Bratagna post-Brexit un ruolo come intermediario tra i blocchi economici di Stati Uniti, Cina e UE.

Anche se l’evento è stato un po’ offuscato dalla decisione della vicepresidente americana Kamala Harris di tenere un discorso a Londra proprio il giorno di inizio del summit sulla risposta del suo governo all’intelligenza artificiale, esponendo la sua visione su come il mondo dovrebbe governare questa tecnologia (e auspicando che tutti i Paesi aderiscano all’approccio USA su questa tematica), il Summit ha comunque avuto il merito di coinvolgere anche la Cina, un partecipante chiave al vertice, dato il ruolo del Paese nello sviluppo dell’Intelligenza Artificiale, sia pure con il solito doppio standard di Pechino.

Alla fine, sebbene ogni delegazione presente fosse ansiosa di rivendicare la propria preminenza nella regolamentazione dell’IA, i rappresentanti dei 25 Paesi partecipanti, assieme ad altri attori pubblici e privati, tra cui il segretario generale dell’Onu, Antònio Guterres e la presidente della Commissione europea, Ursula Von der Leyen, hanno firmato la “Dichiarazione di Bletchley” in cui si afferma che i Paesi devono lavorare insieme e stabilire un approccio comune sulla supervisione.

La dichiarazione definisce un’agenda su due fronti incentrata sull’identificazione dei rischi di preoccupazione condivisa e sulla costruzione della loro comprensione scientifica, sviluppando allo stesso tempo politiche transnazionali per mitigarli.

Difficile in ogni caso dire se la Gran Bretagna a guida Sunak possa davvero riuscire a ritagliarsi un ruolo nella corsa a mettere il cappello sulla regolamentazione di un tema come quello dell’Intelligenza Artificiale dove ognuno, singoli Paesi come gli USA ma anche organizzazioni, come l’Onu, l’UE e il G7 vogliono affermare la propria leadership.

La Dichiarazione di Bletchley sull’Intelligenza Artificiale

L’AI Safety Summit sull’Intelligenza Artificiale, organizzato dal Primo Ministro inglese Rishi Sunak si è concluso con un accordo noto come la Dichiarazione di Bletchley, che mira a gestire i rischi dell’IA e a promuovere la collaborazione attraverso organizzazioni internazionali esistenti e nuove iniziative.

Quali sono i punti Chiave della Dichiarazione di Bletchley
La Dichiarazione di Bletchley traccia una visione condivisa per promuovere la sicurezza e le considerazioni etiche nello sviluppo e nell’implementazione dell’Intelligenza Artificiale (IA).

Di seguito i principi fondamentali inclusi nella dichiarazione:

Cooperazione Internazionale
Si pone un forte accento sulla promozione della cooperazione internazionale per affrontare il complesso panorama della sicurezza dell’IA. La dichiarazione sottolinea la necessità di un fronte unito nel far fronte alle sfide e nel sfruttare le opportunità che l’IA presenta su scala globale.

Standard di Sicurezza
La dichiarazione sostiene l’istituzione e l’adesione a standard di sicurezza elevati nella progettazione, sviluppo e implementazione dei sistemi di IA. Ciò include un impegno condiviso a ridurre i rischi associati all’IA e assicurare che queste tecnologie siano sviluppate con un approccio orientato alla sicurezza.

IA Etica
Una forte bussola morale guida la dichiarazione, enfatizzando l’importanza delle considerazioni etiche nell’IA. Questo include assicurare che le tecnologie di IA rispettino i diritti umani, la privacy e i valori democratici, promuovendo un approccio centrato sull’essere umano all’IA.

Trasparenza e Responsabilità
La dichiarazione mette in luce anche l’importanza critica della trasparenza e della responsabilità nei sistemi di IA. Questo è visto come un pilastro fondamentale per costruire la fiducia e la comprensione del pubblico, essenziali per l’integrazione di successo delle tecnologie di IA nella società.

Condivisione della Conoscenza
L’incoraggiamento alla condivisione della conoscenza e alla ricerca collaborativa tra le nazioni è un aspetto chiave della dichiarazione. Questo mira ad accelerare la comprensione globale e la mitigazione dei rischi legati all’IA, promuovendo una cultura di apprendimento condiviso e miglioramento continuo nelle pratiche di sicurezza dell’IA.

Sotto il testo integrale della Dichiarazione di Bletchley:

“L’intelligenza artificiale (AI) presenta enormi opportunità globali: ha il potenziale per trasformare e migliorare il benessere umano, la pace e la prosperità. Per realizzare ciò, affermiamo che, per il bene di tutti, l’intelligenza artificiale dovrebbe essere progettata, sviluppata, implementata e utilizzata in modo sicuro, in modo tale da essere incentrata sull’uomo, affidabile e responsabile. Accogliamo con favore gli sforzi compiuti finora dalla comunità internazionale per cooperare sull’intelligenza artificiale per promuovere la crescita economica inclusiva, lo sviluppo sostenibile e l’innovazione, per proteggere i diritti umani e le libertà fondamentali e per promuovere la fiducia del pubblico nei sistemi di  intelligenza artificiale per realizzare appieno il loro potenziale.

I sistemi di intelligenza artificiale sono già utilizzati in molti ambiti della vita quotidiana, tra cui alloggio, occupazione, trasporti, istruzione, sanità, accessibilità e giustizia, e il loro utilizzo è destinato ad aumentare. Riconosciamo che questo è quindi un momento unico per agire e affermare la necessità di uno sviluppo sicuro dell’IA e di utilizzare le opportunità di trasformazione dell’IA per il bene e per tutti, in modo inclusivo nei nostri paesi e a livello globale. Ciò include servizi pubblici come sanità e istruzione, sicurezza alimentare, scienza, energia pulita, biodiversità e clima, per realizzare il godimento dei diritti umani e per rafforzare gli sforzi verso il raggiungimento degli obiettivi di sviluppo sostenibile delle Nazioni Unite.

Oltre a queste opportunità, l’intelligenza artificiale comporta anche rischi significativi, anche negli ambiti della vita quotidiana. A tal fine, accogliamo con favore gli sforzi internazionali volti a esaminare e affrontare il potenziale impatto dei sistemi di intelligenza artificiale nei forum esistenti e in altre iniziative pertinenti, e il riconoscimento che la tutela dei diritti umani, la trasparenza e la spiegabilità, l’equità, la responsabilità, la regolamentazione, la sicurezza, un’adeguata È necessario affrontare il problema del controllo umano, dell’etica, della mitigazione dei pregiudizi, della privacy e della protezione dei dati. Notiamo inoltre i potenziali rischi imprevisti derivanti dalla capacità di manipolare contenuti o generare contenuti ingannevoli. Tutte queste questioni sono di fondamentale importanza e affermiamo la necessità e l’urgenza di affrontarle. 

Particolari rischi per la sicurezza emergono alla “frontiera” dell’IA , intesa come quei modelli di IA per scopi generali altamente capaci , compresi i modelli di base, che potrebbero svolgere un’ampia varietà di compiti, così come l’ IA specifica e ristretta che potrebbe mostrare capacità che causano danno – che corrispondono o superano le capacità presenti nei modelli più avanzati di oggi. Rischi sostanziali possono derivare da un potenziale uso improprio intenzionale o da problemi di controllo non intenzionali relativi all’allineamento con l’intento umano. Questi problemi sono in parte dovuti al fatto che tali capacità non sono completamente comprese e sono quindi difficili da prevedere. Siamo particolarmente preoccupati da tali rischi in settori quali la sicurezza informatica e la biotecnologia, nonché laddove i sistemi di intelligenza artificiale di frontiera possono amplificare rischi come la disinformazione. Esiste il rischio di danni gravi, persino catastrofici, deliberati o involontari, derivanti dalle capacità più significative di questi modelli di intelligenza artificiale . Dato il tasso di cambiamento rapido e incerto dell’intelligenza artificiale e nel contesto dell’accelerazione degli investimenti nella tecnologia, affermiamo che approfondire la nostra comprensione di questi potenziali rischi e delle azioni per affrontarli è particolarmente urgente.

Molti rischi derivanti dall’intelligenza artificiale sono intrinsecamente di natura internazionale e quindi possono essere affrontati meglio attraverso la cooperazione internazionale. Decidiamo di lavorare insieme in modo inclusivo per garantire un’IA incentrata sull’uomo, affidabile e responsabile che sia sicura e sostenga il bene di tutti attraverso i forum internazionali esistenti e altre iniziative pertinenti, per promuovere la cooperazione per affrontare l’ampia gamma di rischi posti da AI . In tal modo, riconosciamo che i paesi dovrebbero considerare l’importanza di una governance e di un approccio normativo proporzionato e pro-innovazione che massimizzi i benefici e tenga conto dei rischi associati all’intelligenza artificiale . Ciò potrebbe includere, ove opportuno, classificazioni e categorizzazioni dei rischi basate sulle circostanze nazionali e sui quadri giuridici applicabili. Notiamo inoltre l’importanza della cooperazione, ove opportuno, su approcci quali principi comuni e codici di condotta. Per quanto riguarda i rischi specifici riscontrati molto probabilmente in relazione all’IA di frontiera, decidiamo di intensificare e sostenere la nostra cooperazione e di ampliarla con altri paesi, per identificare, comprendere e, se del caso, agire, attraverso i forum internazionali esistenti e altre iniziative pertinenti, tra cui futuri vertici internazionali sulla sicurezza dell’intelligenza artificiale .

Tutti gli attori hanno un ruolo da svolgere nel garantire la sicurezza dell’IA : le nazioni, i forum internazionali e altre iniziative, le aziende, la società civile e il mondo accademico dovranno lavorare insieme. Rilevando l’importanza di un’intelligenza artificiale inclusiva e di colmare il divario digitale, riaffermiamo che la collaborazione internazionale dovrebbe cercare di coinvolgere un’ampia gamma di partner, a seconda dei casi, e accogliere con favore approcci e politiche orientati allo sviluppo che potrebbero aiutare i paesi in via di sviluppo a rafforzare lo sviluppo e l’effetto leva delle capacità dell’intelligenza artificiale . il ruolo abilitante dell’intelligenza artificiale per sostenere la crescita sostenibile e colmare il divario di sviluppo.

Affermiamo che, sebbene la sicurezza debba essere considerata in tutto il ciclo di vita dell’IA , gli attori che sviluppano capacità di IA di frontiera , in particolare quei sistemi di IA insolitamente potenti e potenzialmente dannosi, hanno una responsabilità particolarmente forte nel garantire la sicurezza di questi sistemi di IA , anche attraverso sistemi per i test di sicurezza, attraverso valutazioni e altre misure appropriate. Incoraggiamo tutti gli attori rilevanti a fornire trasparenza e responsabilità adeguate al contesto sui loro piani per misurare, monitorare e mitigare le capacità potenzialmente dannose e gli effetti associati che potrebbero emergere, in particolare per prevenire abusi e problemi di controllo e l’amplificazione di altri rischi.

Nel contesto della nostra cooperazione, e per informare l’azione a livello nazionale e internazionale, la nostra agenda per affrontare il rischio dell’IA di frontiera si concentrerà su:

  • identificare i rischi per la sicurezza dell’IA di interesse condiviso, costruire una comprensione scientifica condivisa e basata sull’evidenza di questi rischi e sostenere tale comprensione mentre le capacità continuano ad aumentare, nel contesto di un approccio globale più ampio alla comprensione dell’impatto dell’IA nelle nostre società .
  • costruendo rispettive politiche basate sul rischio in tutti i nostri paesi per garantire la sicurezza alla luce di tali rischi, collaborando in modo appropriato e riconoscendo che i nostri approcci possono differire in base alle circostanze nazionali e ai quadri giuridici applicabili. Ciò include, oltre a una maggiore trasparenza da parte degli attori privati ​​che sviluppano capacità di intelligenza artificiale di frontiera , parametri di valutazione adeguati, strumenti per test di sicurezza e lo sviluppo di capacità pertinenti del settore pubblico e della ricerca scientifica.

A sostegno di questo programma, decidiamo di sostenere una rete inclusiva a livello internazionale di ricerca scientifica sulla sicurezza dell’IA di frontiera che comprenda e integri la collaborazione multilaterale, plurilaterale e bilaterale esistente e nuova, anche attraverso forum internazionali esistenti e altre iniziative pertinenti, per facilitare la fornitura di la migliore scienza disponibile per l’elaborazione delle politiche e il bene pubblico.

Riconoscendo il potenziale positivo di trasformazione dell’IA e come parte della garanzia di una più ampia cooperazione internazionale sull’IA , decidiamo di sostenere un dialogo globale inclusivo che coinvolga i forum internazionali esistenti e altre iniziative pertinenti e contribuisca in modo aperto a discussioni internazionali più ampie, e continuare la ricerca sulla sicurezza dell’IA di frontiera per garantire che i vantaggi della tecnologia possano essere sfruttati in modo responsabile per il bene e per tutti. Non vediamo l’ora di incontrarci di nuovo nel 2024″.

Kamala Harris ruba la scena a Rishi Sunak. Gli USA vogliono scrivere le regole dell’AI

Mentre l’evento clou sul tema dell’Intelligenza Artificiale organizzato dal primo ministro britannico Rishi Sunak prendeva il via mercoledì scorso (1° novembre) a Bletchley Park, 50 miglia più a sud presso l’ambasciata americana a Londra, il vicepresidente americano Kamala Harris ha esposto la sua visione su come il mondo dovrebbe governare questa tecnologia, annunciando una serie di nuove iniziative degli USA per promuovere un uso sicuro e responsabile dell’IA.

Un intervento quello della Harris – preceduto dall’Ordine Esecutivo in materia di AI firmato dal Presidente Joe Biden il 30 ottobre – che ha messo un po’ in ombra l’AI Safety Summit inglese, volto a dimostrare al mondo la leadership degli Stati Uniti su questa tecnologia e a ribadire la volontà di Washington di voler dettare le regole in tema di Intelligenza Artificiale.

Nel suo discorso la vicepresidente Kamala Harris ha invitato i leader mondiali ad affrontare le minacce che l’intelligenza artificiale rappresenta per i diritti umani e i valori democratici ed ha annunciato le misure che l’amministrazione Biden adotterà per gestire i rischi e le sfide normative della tecnologia emergente.

In particolare, la Harris ha posto l’enfasi sulla tutela dei consumatori e su come l’intelligenza artificiale potrebbe esacerbare le disuguaglianze esistenti affermando che i programmi di intelligenza artificiale possono produrre risultati distorti che discriminano in base alla razza, al sesso o all’età.

“Come la storia ha dimostrato, in assenza di regolamentazione e di una forte supervisione da parte del governo, alcune aziende tecnologiche scelgono di dare priorità al profitto rispetto al benessere dei propri clienti, alla sicurezza delle nostre comunità e alla stabilità delle nostre democrazie”, ha concluso la Harris, annunciando poi alcune misure aggiuntive che gli Stati Uniti stanno adottando per arricchire e sviluppare l’Ordine Esecutivo in materia di AI di Biden tra i quali la creazione di un “Istituto per la sicurezza dell’intelligenza artificiale”, che creerebbe standard per testare la sicurezza dei modelli di intelligenza artificiale per uso pubblico e nuove linee guida per le agenzie federali per garantire che la tecnologia venga utilizzata in futuro per il bene pubblico.

Un futuro in cui l’IA sia utilizzata per promuovere i diritti umani e la dignità umana, in cui la privacy sia protetta e le persone abbiano pari accesso alle opportunità, in cui rendiamo le nostre democrazie più forti e il nostro mondo più sicuro.

“Prima che l’IA generativa conquistasse l’attenzione mondiale, il Presidente Biden e io” ha aggiunto il vicepresidente americano, “abbiamo riunito i leader di tutto il Paese, dagli informatici agli attivisti per i diritti civili, ai leader aziendali e agli studiosi di diritto, per garantire che i benefici dell’IA siano condivisi in modo equo e per affrontare le minacce prevedibili, tra cui i deep fake, le violazioni della privacy dei dati e la discriminazione algoritmica”.

“Abbiamo poi creato la Carta dei diritti dell’intelligenza artificiale” continua la Harris sottolinenando come l’amministrazione Biden si sia impregnata ad istituire un programma nazionale di segnalazione sull’uso non sicuro dell’IA negli ospedali e nelle strutture mediche, a promuovere la creazione da parte delle aziende tecnologiche di strumenti per aiutare i consumatori a distinguere se i contenuti audio e visivi sono generati dall’IA e prevedendo un obbligo per gli sviluppatori di presentare al governo degli Stati Uniti i risultati dei test sulla sicurezza dell’IA.

La Harris ha poi rimarcato come la sua amministrazione stia prendendo provvedimenti per stabilire i requisiti affinché il governo degli Stati Uniti, quando utilizza l’IA, promuova l’interesse pubblico, auspicando che queste politiche nazionali sull’IA servano da modello per tutte le politiche globali e rendendo quindi chiara l’intenzione degli Stati Uniti di rimanere l’egemone tecnologico mondiale e scrivere le proprie regole del gioco.

“Cerchiamo di essere chiari: quando si tratta di intelligenza artificiale, l’America è un leader globale. Sono le aziende americane a guidare il mondo nell’innovazione dell’intelligenza artificiale. È l’America che può catalizzare l’azione globale e costruire un consenso globale in un modo che nessun altro paese può fare”, ha dichiarato la Harris prima di volare al vertice di Bletchley Park del governo britannico sulla sicurezza dell’intelligenza artificiale.

D’altra parte il dominio americano nella ricerca e sviluppo dell’Intelligenza Artificiale è difficilmente contestabile. Secondo il rapporto State of AI del 2023 il 70% dei documenti di ricerca più citati sull’Intelligenza Artificiale sono stati pubblicati da Università e Istituti di ricerca americani, senza contare che aziende del calibro di Google, Meta, Microsoft, ma anche Open Ai e la miriade di start-up innovative sull’AI generativa hanno sede nella costa occidentale degli USA.

Rivoluzione medica: come l’Intelligenza Artificiale sta trasformando la salute e la medicina

L’Intelligenza Artificiale (IA) sta emergendo come una forza trasformativa nel settore della salute e della medicina, portando con sé una serie di benefici tangibili per pazienti e professionisti sanitari. Questo avanzamento tecnologico sta ridefinendo i paradigmi tradizionali e aprendo nuove frontiere in termini di diagnosi, trattamenti personalizzati e gestione delle cure.

Uno dei principali ambiti di applicazione dell’IA nella medicina è l’analisi di dati medici complessi. I sistemi di apprendimento automatico possono esaminare grandi dataset, identificando pattern e correlazioni difficili da individuare manualmente. Ciò si traduce in diagnosi più rapide e accurate, consentendo ai medici di pianificare trattamenti mirati e personalizzati.

In cardiologia, ad esempio, l’IA sta rivoluzionando l’interpretazione dell’elettrocardiogramma (ECG) e l’analisi delle immagini diagnostiche. Algoritmi avanzati possono individuare segni precoci di malattie cardiovascolari con una precisione sorprendente, consentendo interventi tempestivi e riducendo il rischio di complicazioni.

Un altro campo di grande potenziale è la predizione del rischio individuale. Utilizzando algoritmi predittivi, l’IA può valutare i fattori di rischio di un paziente e prevedere lo sviluppo di malattie, consentendo interventi preventivi e strategie di gestione personalizzate.

L’automazione dei compiti ripetitivi è un ulteriore vantaggio offerto dall’IA nel settore della salute. I chatbot intelligenti possono gestire le interazioni paziente-medico, fornendo informazioni, prenotando appuntamenti e rispondendo a domande comuni. Inoltre l’Intelligenza Artificiale può contribuire in modo importante alla precisione delle diagnosi, alla personalizzazione dei trattamenti e anche alla semplificazione delle procedure amministrative.

Sono tutte attività che liberano il tempo dei medici affinché possano concentrarsi su compiti più complessi e relazioni più approfondite con i pazienti, perché, ed è importante sottolinearlo, l’IA non sostituirà mai completamente il ruolo umano nella cura della salute. La componente umana dell’empatia, della comprensione emotiva e della comunicazione sono elementi irrinunciabili nel rapporto tra paziente e dottore.

Bletchley Park, la sede iconica dei decifratori inglesi durante la II Guerra Mondiale, scelta come sede per il primo vertice sull’intelligenza artificiale del Regno Unito

La Gran Bretagna ha deciso di ospitare il suo primo vertice globale sull’intelligenza artificiale (l’AI Safety Summit) a Bletchley Park, nel sito considerato il luogo di nascita dell’informatica grazie ai progressi nei processi crittografici e di intelligence durante la Seconda Guerra Mondiale.

Durante la II guerra mondiale, un gruppo di matematici, crittografi, esperti in enigmistica e maestri di scacchi si riunirono in una casa di campagna vittoriana a 45 miglia a nord-ovest di Londra per intraprendere una guerra segreta contro la Germania nazista. Il loro obiettivo: decifrare i codici inviolabili di Adolf Hitler.

L’impresa più famosa di Bletchley Park fu quella di superare in astuzia la macchina di crittografia tedesca Enigma, che produceva un codice in costante cambiamento ed era ampiamente considerata indecifrabile. Per riuscirci, il matematico Alan Turing sviluppò una macchina considerata il precursore dei computer moderni.

I messaggi Enigma decifrati rivelarono dettagli sui movimenti delle flotte di sottomarini tedeschi e fornirono informazioni cruciali per la campagna nel deserto del Nord Africa e l’invasione alleata della Francia. Alcuni storici sostengono che decifrare il codice abbia contribuito ad abbreviare la guerra fino a due anni.

Il lavoro a Bletchley Park ha accelerato lo sviluppo dell’informatica. Gli scienziati che vi lavoravano costruirono quella che può essere considerata come la prima generazione di computer praticamente dal nulla.

Quando finì la guerra, i decifratori tornarono alla vita civile, giurando di mantenere il segreto sul loro lavoro in quel posto. Fu solo negli anni ’70 che quanto successo a Bletchley Park divenne ampiamente conosciuta in Gran Bretagna e nel mondo.

Non c’è da sorprendersi quindi se Bletchley Park,  aperto come museo nel 1994 e riportato al suo aspetto degli anni ’40, completo di macchine da scrivere manuali, telefoni d’epoca e tazze smaltate, si stato scelto come sede del primo vertice internazionale sull’Intelligenza Artificiale dal primo ministro britannico Rishi Sunak, che vorrebbe ritagliare per il suo Paese un ruolo post-Brexit come intermediario tra i blocchi economici di Stati Uniti, Cina e UE.

Sicurezza e innovazione: Joe Biden firma l’Ordine Esecutivo sull’Intelligenza Atificiale

Il Presidente degli Stati Uniti Joe Biden ha firmato lo scorso lunedì (30 ottobre) un Ordine Esecutivo sull’Intelligenza Artificiale che cerca di bilanciare le esigenze di sviluppo delle aziende tecnologiche con la sicurezza nazionale e i diritti dei consumatori, richiedendo all’industria di sviluppare standard di sicurezza e protezione, indicando una serie di linee guida che potrebbero essere rafforzate da ulteriori interventi legislativi e fornendo alle agenzie federali un ampio elenco di cose da fare per supervisionare una tecnologia in rapido sviluppo.

L’ordinanza – che dovrà essere comunque rafforzata dall’azione del Congresso – cerca di orientare il modo in cui l’intelligenza artificiale viene sviluppata in modo che le aziende possano trarre profitto senza mettere a repentaglio la sicurezza pubblica.

Utilizzando il Defense Production Act, l’ordine impone ai principali sviluppatori di intelligenza artificiale di condividere i risultati dei test di sicurezza e altre informazioni con il governo. Il National Institute of Standards and Technology (NIST) creerà standard per garantire che gli strumenti di intelligenza artificiale siano sicuri e protetti prima del rilascio pubblico.

Il Dipartimento del Commercio pubblicherà linee guida per etichettare e marchiare i contenuti generati dall’intelligenza artificiale per aiutare a distinguere le interazioni autentiche da quelle generate dal software. 

L’Ordine Esecutivo (EO) prevede otto principi guida:

  • nuovi standard per la sicurezza dell’IA; 
  • proteggere la privacy degli americani; 
  • promuovere l’equità e i diritti civili; 
  • difendere i consumatori, i pazienti e gli studenti; 
  • sostenere i lavoratori; 
  • promuovere l’innovazione e la concorrenza; 
  • far avanzare la leadership americana all’estero; 
  • garantire un uso responsabile ed efficace dell’IA da parte del governo e incaricare le agenzie federali sia di redigere linee guida per l’IA responsabile sia di adottare misure per regolamentare e rivedere le sue applicazioni. 

Con l’Unione Europea che si avvicina all’approvazione finale di una legge sull’intelligenza artificiale (l’AI ACT), il G7 che sotto la presidenza giapponese ha appena concordato con la Dichiarazione di Hiroshima una serie di principi di sicurezza dell’IA e un codice di condotta volontario per gli sviluppatori di IA e la Gran Bretagna che con l’iniziativa del suo leader Rishi Sunak di organizzare un Summit Internazionale sull’IA spera di ritagliare un ruolo di primo piano al suo Paese su questa tecnologia dopo l’uscita dalla UE, gli Stati Uniti – che peraltro ospitano ospitano molti dei principali sviluppatori di tecnologie IA all’avanguardia, tra cui i giganti della tecnologia Google, Meta e Microsoft e startup focalizzate sull’IA come OpenAI, produttore di ChatGPT – sono più che mai decisi a riprendersi la leadership anche della normativa che stabilirà le regole di utilizzo dell’Intelligenza Artificiale.

Dichiarazione di Hiroshima: gli 11 principi guida per i sistemi avanzati di AI

I Principi Guida Internazionali per le Organizzazioni che Sviluppano Sistemi AI Avanzati mirano a promuovere l’IA sicura e affidabile a livello mondiale e a fornire orientamenti per le organizzazioni che sviluppano e utilizzano i sistemi AI più avanzati, compresi i sistemi di AI generativi. Per organizzazioni si intendono realtà del settore privato, del settore pubblico, della società civile e del mondo accademico.

Una lista non esaustiva di principi guida che viene proposta come un documento in costante aggiornamento in risposta agli sviluppi recenti nei sistemi AI avanzati e ha l’obiettivo di aiutare a cogliere i benefici e affrontare i rischi e le sfide portate da queste tecnologie. Principi che dovrebbero applicarsi a tutti gli attori dell’IA, quando e come applicabili, nella progettazione, sviluppo, implementazione e l’uso dei sistemi AI avanzati.

In buona sostanza, mentre sfruttano le opportunità dell’innovazione, le organizzazioni dovrebbero rispettare lo stato di diritto, i diritti umani, la diversità, l’equità, la non discriminazione, la democrazia e l’umanocentricità, nella progettazione, sviluppo e implementazione dei sistemi AI avanzati. Le organizzazioni non dovrebbero sviluppare o implementare sistemi AI avanzati in modo che minaccino i valori democratici, che siano particolarmente dannosi per individui o comunità, che facilitino il terrorismo, consentano un uso criminale o comportino rischi sostanziali per la sicurezza, la stabilità e i diritti umani, e quindi non siano accettabili.

Gli Stati dal canto loro debbono rispettare i loro obblighi ai sensi del diritto internazionale dei diritti umani per promuovere il pieno rispetto e la protezione dei diritti umani, mentre le attività del settore privato dovrebbero essere in linea con i quadri internazionali come i Principi Guida delle Nazioni Unite su Impresa e Diritti Umani e le Linee Guida dell’OCSE per le Imprese Multinazionali.

In particolare, viene chiesto alle organizzazioni di attenersi ai seguenti principi, commisurati ai rischi:

  1. Adottare misure adeguate lungo lo sviluppo dei sistemi AI avanzati, compreso prima e durante la loro implementazione e messa sul mercato, per identificare, valutare e mitigare i rischi lungo l’intero ciclo di vita dell’IA. Ciò include l’impiego di diverse misure di test interni ed esterni indipendenti, attraverso una combinazione di metodi come il red-teaming, e l’attuazione di adeguate misure di mitigazione per affrontare rischi e vulnerabilità identificati. Le misure di test e mitigazione dovrebbero, ad esempio, cercare di garantire l’affidabilità e la sicurezza dei sistemi per l’intero ciclo di vita, in modo che non comportino rischi irragionevoli. A sostegno di tali test, gli sviluppatori dovrebbero cercare di abilitare la tracciabilità, in relazione a set di dati, processi e decisioni prese durante lo sviluppo del sistema.
  2. Modelli di abuso, dopo l’implementazione inclusa la messa sul mercato. Le organizzazioni dovrebbero utilizzare, quando appropriato e commisurato al livello di rischio, i sistemi AI come previsto e monitorare vulnerabilità, incidenti, rischi emergenti e abusi dopo l’implementazione, prendendo le misure appropriate per affrontare questi problemi. Si incoraggiano le organizzazioni a considerare, ad esempio, come facilitare la scoperta e la segnalazione di problemi e vulnerabilità da parte di terze parti e utenti dopo l’implementazione. Le organizzazioni sono inoltre incoraggiate a mantenere una documentazione adeguata degli incidenti segnalati e mitigare i rischi e le vulnerabilità identificati, in collaborazione con altri stakeholder. I meccanismi per segnalare le vulnerabilità, dovrebbero essere accessibili a un insieme diversificato di stakeholder.
  3. Rendere pubbliche le capacità, i limiti e i domini di uso appropriato e inappropriato dei sistemi AI avanzati, per garantire una trasparenza sufficiente, contribuendo così ad aumentare la responsabilità. Questo dovrebbe includere la pubblicazione di rapporti di trasparenza contenenti informazioni significative per tutti i nuovi rilasci dei sistemi AI avanzati. Le organizzazioni dovrebbero rendere le informazioni nei rapporti di trasparenza sufficientemente chiare e comprensibili per consentire agli sviluppatori e agli utenti, secondo l’opportunità e la rilevanza, di interpretare l’output del modello/sistema e di utilizzarlo in modo appropriato, e la segnalazione di trasparenza dovrebbe essere supportata e informata da processi di documentazione esaustivi.
  4. Lavorare per la condivisione responsabile delle informazioni e la segnalazione degli incidenti tra le organizzazioni che sviluppano sistemi AI avanzati, comprese le industrie, i governi, la società civile e l’accademia. Ciò include la condivisione responsabile di informazioni, se appropriato, compresi, ma non solo, rapporti di valutazione, informazioni su rischi di sicurezza, rischi per la sicurezza, capacità pericolose, intenzionali o non intenzionali, e tentativi di attori AI di eludere le protezioni lungo l’intero ciclo di vita dell’IA.
  5. Sviluppare, implementare e divulgare politiche di governance e gestione dei rischi dell’IA, basate su un approccio basato sul rischio, comprese le politiche sulla privacy e misure di mitigazione, in particolare per le organizzazioni che sviluppano sistemi AI avanzati. Ciò include la divulgazione, quando opportuno, delle politiche sulla privacy, comprese le politiche per i dati personali, gli avvisi all’utente e gli output dei sistemi AI avanzati. Si prevede che le organizzazioni stabiliscano e divulghino le loro politiche di governance dell’IA e i meccanismi organizzativi per attuare tali politiche in conformità con un approccio basato sul rischio. Ciò dovrebbe includere processi di responsabilità e governance per valutare e mitigare i rischi, quando possibile, lungo l’intero ciclo di vita dell’IA.
  6. Investire ed implementare controlli di sicurezza robusti, inclusa la sicurezza fisica, la sicurezza informatica e le salvaguardie contro minacce interne lungo l’intero ciclo di vita dell’IA. Questi possono includere la sicurezza dei pesi e degli algoritmi del modello, dei server e dei set di dati, ad esempio attraverso misure di sicurezza operative per la sicurezza delle informazioni e controlli di accesso adeguati alla sicurezza fisica/cibernetica.
  7. Sviluppare e implementare meccanismi affidabili di autenticazione dei contenuti e di provenienza, quando tecnicamente possibile, come il watermarking o altre tecniche per consentire agli utenti di identificare i contenuti generati dall’IA. Ciò include, quando opportuno e tecnicamente possibile, meccanismi di autenticazione dei contenuti come la provenienza per i contenuti creati con il sistema AI avanzato di un’organizzazione. I dati di provenienza dovrebbero includere un identificatore del servizio o del modello che ha creato il contenuto, ma non devono includere informazioni sugli utenti. Le organizzazioni dovrebbero anche cercare di sviluppare strumenti o API per consentire agli utenti di determinare se un particolare contenuto è stato creato con il loro sistema AI avanzato, ad esempio tramite watermarking. Le organizzazioni sono inoltre incoraggiate a implementare altri meccanismi come etichettature o disclaimer per consentire agli utenti, quando possibile e appropriato, di sapere quando stanno interagendo con un sistema AI.
  8. Dare priorità alla ricerca per mitigare i rischi sociali, di sicurezza e di sicurezza e dare priorità agli investimenti in misure di mitigazione efficaci. Ciò include la conduzione, la collaborazione e l’investimento nella ricerca che supporta l’avanzamento della sicurezza, della sicurezza e della fiducia nell’IA, e l’affrontare rischi chiave, nonché investire nello sviluppo di strumenti di mitigazione appropriati.
  9. Dare priorità allo sviluppo di sistemi AI avanzati per affrontare le sfide più grandi del mondo, in particolare ma non solo la crisi climatica, la salute globale e l’istruzione. Questi sforzi sono intrapresi a sostegno dei progressi degli Obiettivi di Sviluppo Sostenibile delle Nazioni Unite e per incoraggiare lo sviluppo dell’IA a beneficio globale. Le organizzazioni dovrebbero dare priorità alla gestione responsabile dell’IA affidabile e umana e sostenere anche le iniziative di alfabetizzazione digitale.
  10. Promuovere lo sviluppo e, quando opportuno, l’adozione di standard tecnici internazionali. Ciò include il contributo allo sviluppo e, quando opportuno, l’uso di standard tecnici internazionali e buone pratiche, compresi quelli per il watermarking, e la collaborazione con le organizzazioni di sviluppo.
  11. Implementare adeguate misure di input e protezioni dei dati personali e della proprietà intellettuale. Si incoraggia le organizzazioni a prendere misure adeguate per gestire la qualità dei dati, compresi i dati di formazione e la raccolta di dati, per mitigare eventuali pregiudizi dannosi. Si dovrebbe anche sostenere la trasparenza adeguata dei set di dati di formazione e le organizzazioni dovrebbero conformarsi ai quadri giuridici applicabili.

Dichiarazione di Hiroshima: intesa al G7 sui codici di condotta sull’Intelligenza Artificiale

L’intelligenza Artificiale rimane al centro dell’agenda politica mondiale e dopo l’Unione Europea, scende in campo anche il G7. La dichiarazione di Hiroshima adottata oggi, 30 ottobre 2023, dai leader di Canada, Francia, Germania, Giappone, Italia, Regno Unito e Stati Uniti vuole sottolineare le opportunità innovative e il potenziale trasformativo dei sistemi avanzati di Intelligenza Artificiale (IA), in particolare, dei modelli di base e dell’IA generativa.

Riconosciamo la necessità di gestire i rischi connessi, di proteggere gli individui, la società e i nostri principi condivisi come lo Stato di Diritto e i valori democratici, ponendo l’umanità al centro” si legge nella dichiarazione di Hiroshima, che è integrata da 2 documenti più operativi: gli 11 principi guida per i sistemi di AI Generativa avanzata e un Codice di condotta internazionale, che saranno costantemente modificati, se necessario, alla luce del rapido evolversi della materia di cui si occupano.

A tale proposito, i leader dei Paesi del G7 sono favorevoli ad incoraggiare l’adozione di misure adeguate durante l’intero processo di sviluppo di sistemi avanzati di intelligenza artificiale anche prima e durante la loro distribuzione e commercializzazione, con l’obiettivo di identificare, valutare e mitigare i rischi lungo l’intero ciclo di vita delle tecnologie emergenti. Tra queste misure dovrebbero essere previsti anche dei test interni ed esterni indipendenti.

Per quanto riguarda invece l’uso improprio, le organizzazioni responsabili dello sviluppo di sistemi avanzati sono chiamate a monitorare attentamente vulnerabilità, incidenti e rischi emergenti. Dovrebbero facilitare la scoperta e la segnalazione di problemi e vulnerabilità da parte degli utenti dopo l’implementazione. La trasparenza da questo punto di vista è fondamentale, e le capacità, le limitazioni e gli ambiti di utilizzo appropriato e inappropriato dovrebbero essere comunicati pubblicamente attraverso rapporti dettagliati.

La condivisione responsabile delle informazioni e la segnalazione degli incidenti rappresentano dei punti cruciali per i Paesi del G7, coinvolgendo industria, governi, società civile e mondo accademico. L’approccio raccomandato è basato sulla gestione del rischio, in linea con il Regolamento UE in fase di completamento. Ciò implica processi di responsabilità e di governance per valutare e mitigare i rischi.

Occorrono poi dei meccanismi affidabili di autenticazione e di provenienza dei contenuti, come watermarking, etichettatura o dichiarazioni di non responsabilità, in modo da consentire agli utenti di determinare se un contenuto è stato creato con il sistema di intelligenza artificiale di una specifica organizzazione.

Tra le priorità elencate vi è poi la mitigazione dei rischi per la società e la sicurezza, nonché lo sviluppo di sistemi avanzati per affrontare sfide come la crisi climatica, la salute globale e l’istruzione, in linea con gli Obiettivi di Sviluppo Sostenibile delle Nazioni Unite. Infine, i leader del G7 sottolineano l’importanza di promuovere lo sviluppo e, se del caso, l’adozione di standard tecnici internazionali, insieme a misure adeguate di protezione dei dati personali e della proprietà intellettuale.

A margine di questo accordo, Ursula fon der Leyen, Presidente della Commissione Europea, si è detta lieta di accogliere i principi guida internazionali del G7 e il codice di condotta volontario, esprimendosi a favore dell’impegno congiunto per favorire lo sviluppo tecnologico ponendo in primo piano il tema della sicurezza e dell’affidabilità delle tecnologie.

I benefici potenziali che l’AI comporta per l’economia e i cittadini europei sono fondamentali. Non dobbiamo però dimenticare che la velocità dei processi innescati dall’AI porta con sé anche nuove sfide”, il commento della von der Leyen alla Dichiarazione di Hiroshima, che prosegue “l’Ue è già all’avanguardia, dal punto di vista normativo, grazie all’AI Act, che rappresenta un importante contributo anche a livello di governance globale”.

Italia: Parlamento e Governo in ordine sparso sull’IA

Se da un lato va riconosciuto come la gestione della transizione digitale e tecnologica in atto sia un tema oggettivamente complesso va anche detto che il Parlamento e il Governo italiani stanno viaggiando in ordine sparso nell’affrontare le implicazioni dell’uso di sistemi intelligenti che imitano e riproducono le capacità umane.

Da un lato ci ritroviamo un collegato alla manovra economica in arrivo da parte del Ministero delle Imprese e del Made in Italy, dall’altro un’indagine conoscitiva promossa dalla Commissione Attività produttive della Camera, dall’altro ancora il Comitato per la documentazione della Camera che vola oltre oceano per discutere di tecnologie avanzate con le grandi tech company americane e poi la creazione di una commissione algoritmi guidata da Giuliano Amato, ex presidente del Consiglio e della Corte Costituzionale.

Nel dettaglio, il Ministro delle Imprese e del Made In Italy, Adolfo Urso, ha dichiarato che l’AI sarà una sfida che il governo affronterà in un collegato alla manovra. A quest’attività farà poi seguito un’attenzione particolare al tema che l’Italia si impegna a promuovere durante il turno di presidenza italiana del G7 del 2024.

L’indagine conoscitiva sull’AI promossa dal presidente della Commissione Attività produttive della Camera, Alberto Gusmeroli, si focalizza invece sui possibili effetti, positivi o negativi, per il mondo produttivo, con l’obiettivo di arrivare alla stesura di un progetto di legge sulla falsariga di quanto già avvenuto per il Made in Italy.

Una delegazione del Comitato per la documentazione della Camera, composta dalla presidente del Comitato e vicepresidente della Camera, Anna Ascani, e dalle deputate Ilaria Cavo e Maria Rosaria Tassinari vola invece prima a Seattle e poi a San Francisco dove incontrerà le grandi tech company del settore, da Open AI a Microsoft, da Amazon a Meta, per cercare di comprendere quale sia lo stato dell’arte dell’intelligenza artificiale e quale impatto avrà nei diversi settori della società, in vista di futuri interventi normativi.

Dal canto suo invece il Sottosegretario alla Presidenza del Consiglio con delega all’Informazione e all’Editoria Alberto Barachini ha deciso di lanciare una Commissione Algoritmi, istituendo un Comitato formato da esperti e professori universitari che studierà l’impatto di questa tecnologia sul mondo del giornalismo e delle news di cui è stato nominato presidente Giuliano Amato, classe 1938, più volte Ministro, ex Presidente del Consiglio, docente di diritto costituzionale comparato per oltre 20 anni ed ex Presidente della Corte Costituzionale.

Ma non è finita qui perché il sottosegretario della Presidenza del Consiglio dei Ministri con delega all’innovazione, Alessandro Butti, ha appena nominato un Comitato di esperti incaricati di dare indicazioni per guidare la strategia nazionale sull’Intelligenza Artificiale.

Adesso, guardando dall’esterno tutto questo attivismo in ordine sparso non si può non rilevare come le azioni sia del Governo che del Parlamento italiani restituiscano un certo disordine di fondo non solo sull’argomento in generale ma anche sulle azioni che sarebbe opportuno intraprendere.

L’Intelligenza Artificiale è una nuova frontiera tecnologica che sta rimodellando le industrie, le economie e la vita quotidiana di ognuno di noi. Siamo di fronte ad una straordinaria opportunità di sviluppo, ma anziché coglierne le potenzialità e le opportunità, sembrerebbe che, ancora una volta, la preoccupazione principale in Italia, sia quella di “normare”, di stabilire dei limiti, di mettere dei paletti, di stabilire dei vincoli, di cercare di disciplinare un qualcosa che per sua natura evolve a ritmi velocissimi.

Adesso, pur nella giusta considerazione di tutela dai rischi, dalle manipolazioni e dalle sperequazioni che sono possibili con una gestione non corretta dei sistemi di AI, quello che la politica italiana non vede è che in questo modo si lascia in secondo piano un approccio volto invece a definire le strategie di sviluppo, a individuare le opportunità per il sistema Paese, promuovendone gli investimenti e le attività di ricerca, mettendo a sistema i centri di ricerca, le imprese e le Università per giocare da pari con gli altri Paesi e recuperare quella leadership in innovazione e sviluppo che per tanti anni ha caratterizzato il sistema economico e industriale del nostro Paese.

Quella portata dall’Intelligenza Artificiale è una vera e propria rivoluzione. E noi dobbiamo starci dentro, prima ancora come Paese che come Europa, che pure sembra preoccupata a “normare”. Il resto del mondo non ci aspetta. La posizione della politica italiana su questi temi sarà determinante nello stabilire che ruolo potrà avere l’Italia nello sviluppo futuro di questa tecnologia. Altrimenti perderemo anche questa opportunità.

L’Onu crea un comitato di esperti sull’intelligenza artificiale. L’unico italiano è il francescano Paolo Benanti

Il teologo Paolo Benanti è l’unico italiano tra i 38 esperti nominati da António Guterres come membri del nuovo Organo consultivo dell’ONU per l’Intelligenza Artificiale, un organismo consultivo composto da 39 esperti dei governi, delle imprese, della società civile, oltre a ricercatori e accademici provenienti da tutti i continenti, incaricati di valutare le opportunità e i rischi dell’AI generativa, di suggerire modelli di governance di questa nuova tecnologia e di individuare le strade per favorire la cooperazione internazionale in un campo essenziale per il futuro del nostro Pianeta.

Il team di esperti dovrà formulare le raccomandazioni preliminari entro il prossimo dicembre e presentare il rapporto conclusivo nell’estate del 2024, prima del Summit Onu sul Futuro del 22 e 23 settembre.

Il nostro Paolo Benanti è un francescano del Terzo Ordine Regolare, si occupa di etica, bioetica ed etica delle tecnologie, è docente presso la Pontificia Università Gregoriana, l’Istituto Teologico di Assisi e il Pontificio Collegio Leoniano ad Anagni ed è definito come il principale consigliere di Papa Francesco sull’IA. I suoi studi si focalizzano sulla gestione dell’innovazione: internet e l’impatto del Digital Age, le biotecnologie per il miglioramento umano e la biosicurezza, le neuroscienze e le neurotecnologie.

Di seguito l’elenco degli alti componenti dell’organismo ONU sull’AI:

Anna Abramova, Direttrice del Centro di Intelligenza Artificiale dell’Istituto di Relazioni Internazionali dello Stato di Mosca (MGIMO) – Università

Omar Sultan Al Olama, Ministro di Stato per l’Intelligenza Artificiale degli Emirati Arabi Uniti

Latifa Al-Abdulkarim, Membro del Consiglio della Shura (Parlamento Saudita), Professoressa Associata di Informatica presso l’Università King Saud

Estela Aranha, Consigliera Speciale per il Ministro della Giustizia e della Sicurezza Pubblica, Governo Federale del Brasile

Carme Artigas, Segretaria di Stato per la Digitalizzazione e l’Intelligenza Artificiale della Spagna

Ran Balicer, Chief Innovation Officer e Vice Direttore Generale presso Clalit Health Services Israel

Abeba Birhane, Senior Advisor in AI Accountability presso la Fondazione Mozilla

Ian Bremmer, Presidente e Fondatore di Eurasia Group

Anna Christmann, Coordinatrice del Settore Aerospaziale del Governo Federale Tedesco

Natasha Crampton, Chief Responsible AI Officer presso Microsoft

Nighat Dad, Direttrice Esecutiva della Digital Rights Foundation Pakistan

Vilas Dhar, Presidente della Patrick J. McGovern Foundation

Virginia Dignum, Professoressa di Intelligenza Artificiale Responsabile presso l’Università di Umeå

Arisa Ema, Professoressa Associata presso l’Università di Tokyo

Amandeep Singh Gill, Inviato del Segretario Generale dell’ONU per la Tecnologia

Mohamed Farahat, Consulente Legale & Vicepresidente del MAG del North Africa IGF

Wendy Hall, Professoressa Regia di Informatica presso l’Università di Southampton

Rahaf Harfoush, Antropologa Digitale

Hiroaki Kitano, CTO presso Sony Group Corporation

Haksoo Ko, Presidente della Personal Information Protection Commission (PIPC) della Repubblica di Corea

Andreas Krause, Professore presso l’ETH Zurich

James Manyika, Senior Vice Presidente di Google-Alphabet, Presidente per la Ricerca, Tecnologia e Società

Maria Vanina Martinez Posse, Ramon e Cajal Fellow presso l’Artificial Research Institute (IIIA-CSIC)

Seydina Moussa Ndiaye, Docente presso l’Università Digitale Cheikh Hamidou Kane

Mira Murati, Chief Technology Officer di OpenAI

Petri Myllymaki, Professore Ordinario presso il Dipartimento di Informatica dell’Università di Helsinki

Alondra Nelson, Professoressa Harold F. Linder presso l’Institute for Advanced Study

Nazneen Rajani, Responsabile Ricerca presso Hugging Face

Craig Ramlal, Responsabile del Gruppo di Controllo dei Sistemi presso l’Università delle Indie Occidentali a St. Augustine

He Ruimin, Chief Artificial Intelligence Officer & Vice Chief Digital Technology Officer, Governo di Singapore

Emma Ruttkamp-Bloem, Professoressa presso l’Università di Pretoria

Sharad Sharma, Co-fondatore della Fondazione iSPIRT

Marietje Schaake, Direttore di Politica Internazionale presso il Cyber Policy Center dell’Università di Stanford

Jaan Tallinn, Co-fondatore del Cambridge Centre for the Study of Existential Risk

Philip Thigo, Consigliere presso il Governo del Kenya

Jimena Sofia Viveros Alvarez, Capo di Gabinetto e Consigliera Legale del Giudice Loretta Ortiz presso la Corte Suprema Messicana

Yi Zeng, Professore e Direttore del Brain-inspired Cognitive AI Lab, Accademia Cinese delle Scienze

Zhang Linghan, Professore presso l’Istituto di Diritto dei Dati, Università Cinese di Scienze Politiche e Diritto

Intelligenza artificiale nel settore sanitario: pro e contro

L’introduzione dell’Intelligenza Artificiale (IA) nel settore sanitario e delle scienze della vita ha rivoluzionato radicalmente il modo in cui affrontiamo le sfide legate alla diagnosi, al trattamento e alla ricerca medica. Questa trasformazione ha aperto nuovi orizzonti, offrendo una serie di benefici tangibili che vanno dalla diagnostica avanzata al trattamento personalizzato, dalla ricerca farmaceutica al miglioramento delle operazioni ospedaliere. Occorre però valutare non solo gli aspetti positivi di questa innovazione ma anche esaminare gli eventuali rischi e le sfide associate all’impiego dell’AI nel contesto sanitario.

Aspetti positivi

1. Diagnostica Avanzata:
Gli algoritmi basati sull’AI dimostrano una capacità superiore nell’analizzare grandi quantità di dati e immagini. Questo si traduce in diagnosi più tempestive e precise, fornendo una base solida per la prognosi di malattie e condizioni gravi. La rapidità diagnostica può essere cruciale per migliorare l’efficacia dei trattamenti e aumentare le possibilità di successo terapeutico.

2. Trattamento Personalizzato:
L’analisi approfondita dei dati del paziente consente la creazione di piani di trattamento altamente personalizzati. Considerando la diversità della composizione genetica di ciascun individuo e integrando informazioni sulla storia medica e le abitudini di vita, l’AI contribuisce a ottimizzare l’efficacia delle terapie. Questo approccio personalizzato promuove risultati più positivi e una gestione più mirata delle condizioni mediche.

3. Ricerca e Sviluppo Farmaceutici:
L’AI rivoluziona il processo di scoperta dei farmaci, analizzando in modo efficiente le strutture molecolari e prevedendo l’efficacia di nuovi composti. Questo acceleramento nella ricerca farmaceutica è fondamentale per affrontare rapidamente le sfide legate a nuove malattie o pandemie, consentendo lo sviluppo più rapido di cure e vaccini.

4. Miglioramento dell’operativià:
L’AI trova applicazioni nella gestione amministrativa e operativa degli ospedali, migliorando l’efficienza e riducendo i costi. Le raccomandazioni generate dall’AI possono migliorare l’efficienza, ottimizzando i processi, la gestione delle risorse e le operazioni generali, fornendo un ambiente ospedaliero più efficiente e centrato sul paziente.

Aspetti critici

1. Privacy dei Dati:
Affinché l’Intelligenza Artificiale possa svolgere in modo efficace le funzioni descritte precedentemente, è necessario che abbia accesso a tutte le informazioni sensibili dei pazienti. Garantire la privacy del paziente deve essere una delle massime priorità di ogni organizzazione nel settore sanitario e delle scienze della vita. È essenziale preservare la confidenzialità dei dati mentre si cerca di migliorare l’efficienza e la personalizzazione dei trattamenti.

2. Bias:
Poiché l’Intelligenza Artificiale è essenzialmente uno strumento creato dall’uomo, le decisioni che prende sono intrinsecamente basate sulla logica con cui è programmata. Se questa logica è influenzata dagli stessi pregiudizi e ingiustizie presenti nella società, il rischio di bias diventa ancor più radicato e difficile da superare. Affrontare questo squilibrio richiede un’attenzione particolare per garantire la neutralità e l’equità nell’implementazione dell’AI.

3. Mancanza di Umanità:
L’efficienza derivante dall’uso dell’Intelligenza Artificiale potrebbe comportare una mancanza di connessione umana. Durante la pandemia di COVID-19, l’importanza della compassione umana è stata evidenziata, ed è cruciale integrare questo apprendimento mentre ci avventuriamo in un futuro in cui l’AI fa parte integrante dei nostri sistemi sanitari. Mantenere un equilibrio tra efficienza e umanità è fondamentale per garantire un’assistenza sanitaria completa e centrata sul paziente.

4. Regolamentazione:
Considerando l’esperienza con lo sviluppo dei social media e le sfide legali ad essi associate, è evidente che i legislatori spesso faticano a tenere il passo con le nuove tecnologie. È imperativo affrontare rapidamente le incertezze legate a responsabilità, sicurezza e normative quando si introduce l’Intelligenza Artificiale nel settore sanitario. La creazione di regolamentazioni robuste è essenziale per garantire un utilizzo etico, sicuro e responsabile di questa innovazione, proteggendo contemporaneamente i diritti dei pazienti e promuovendo una pratica medica avanzata.

Sebbene sia evidente quindi che l’Intelligenza Artificiale rappresenti una risorsa straordinaria nel settore sanitario e delle scienze della vita, offrendo opportunità senza precedenti per migliorare la diagnosi, personalizzare i trattamenti, accelerare la ricerca farmaceutica e ottimizzare le operazioni ospedaliere, è imperativo affrontare le sfide etiche, di sicurezza e di accessibilità, lavorando verso un utilizzo responsabile dell’AI per garantire che questi progressi portino a benefici duraturi per pazienti, professionisti medici e la società nel suo complesso. Da questo punto di vista l’equilibrio tra l’innovazione tecnologica e la tutela dei valori etici è la chiave per plasmare un futuro in cui l’AI diventi un alleato prezioso nella promozione della salute e del benessere globale.

L’evoluzione dell’Intelligenza Artificiale: dalle regole agli algoritmi di apprendimento automatico

L’Intelligenza Artificiale (AI) ha conosciuto un’evoluzione straordinaria nel corso degli anni, passando da sistemi basati su regole rigide a complesse architetture alimentate da algoritmi di apprendimento automatico. Questa metamorfosi ha plasmato il panorama tecnologico, aprendo le porte a nuove prospettive e sfide. Questo articolo si propone di esaminare l’evoluzione dell’AI, concentrandosi sul passaggio da modelli basati su regole a quelli alimentati da algoritmi di apprendimento automatico.

La fase delle regole nell’AI

Nei primi stadi dello sviluppo dell’IA, l’approccio predominante era basato sulla definizione di regole esplicite. Gli esperti del dominio delineavano criteri specifici e regole decisionali per guidare il comportamento del sistema. Questo approccio, sebbene efficace per compiti ben definiti e circoscritti, dimostrava limiti evidenti nella gestione della complessità e nell’adattamento a scenari in continua evoluzione.

L’emergere degli algoritmi di apprendimento automatico

L’innovazione significativa nell’ambito dell’AI è stata l’introduzione degli algoritmi di apprendimento automatico. Questi algoritmi consentono alle macchine di apprendere dai dati senza una programmazione esplicita delle regole. Ciò ha rappresentato una svolta cruciale, consentendo alle intelligenze artificiali di adattarsi dinamicamente all’ambiente e di migliorare le prestazioni nel tempo.

Apprendimento supervisionato e non supervisionato

Gli algoritmi di apprendimento automatico possono essere categorizzati in apprendimento supervisionato e non supervisionato. Nel primo caso, il sistema è addestrato su un set di dati etichettati, apprendendo relazioni tra input e output. Nel secondo caso, l’AI deve estrarre modelli da dati non etichettati, cercando strutture e pattern significativi. Questa flessibilità ha contribuito a creare sistemi più adattabili e capaci di affrontare compiti complessi.

Reti neurali e deep learning

Un capitolo significativo nell’evoluzione dell’IA è rappresentato dall’uso sempre più diffuso di reti neurali e deep learning. Queste architetture ispirate al cervello umano consentono alle macchine di apprendere rappresentazioni complesse e di eseguire compiti di altissimo livello, come riconoscimento di immagini, linguaggio naturale e autonomia decisionale.

Sfide e prospettive future

Nonostante i notevoli progressi, l’AI non è priva di sfide. La trasparenza delle decisioni, la gestione dell’etica e la necessità di un’adeguata quantità di dati sono solo alcune delle questioni da affrontare. Tuttavia, il futuro dell’intelligenza artificiale si profila con opportunità sempre più intriganti, con sistemi capaci di apprendimento continuo, adattamento contestuale e comprensione approfondita dei contesti.

Papa Francesco sceglie l’Intelligenza Artificiale come tema della Giornata delle Comunicazioni Sociali 2024

La straordinaria importanza dell’Intelligenza Artificiale in questo periodo è testimoniata anche dall’attenzione che il Vaticano dedica a questa materia. L’attenzione della Santa Sede per le implicazioni etiche dell’IA è costante, volta a promuovere una riflessione etica sull’uso degli algoritmi, con un’attenzione particolare alla tutela della dignità umana.

Non è un caso allora che per la 58^ Giornata Mondiale delle Comunicazioni Sociali che si celebrerà il prossimo 12 maggio 2024 il tema scelto da Papa Francesco sia proprio questo: “Intelligenza artificiale e sapienza del cuore: per una comunicazione pienamente umana”.

Nel renderlo noto dalla Sala Stampa vaticana, si sottolinea che “l’evoluzione dei sistemi di intelligenza artificiale rende sempre più naturale comunicare attraverso e con le macchine, in modo che è diventato sempre più difficile distinguere il calcolo dal pensiero, il linguaggio prodotto da una macchina da quello generato dagli esseri umani”.

“Come tutte le rivoluzioni anche questa basata sull’intelligenza artificiale, pone nuove sfide affinché le macchine non contribuiscano a diffondere un sistema di disinformazione a larga scala e non aumentino anche la solitudine di chi già è solo, privandoci di quel calore che solo la comunicazione tra persone può dare”, si legge ancora nella nota vaticana, che sottolinea l’importanza “di guidare l’intelligenza artificiale e gli algoritmi, perché vi sia in ognuno una consapevolezza responsabile nell’uso e nello sviluppo di queste forme differenti di comunicazione che si vanno ad affiancare a quelle dei social media e di Internet“.   

Proprio per questo da Papa Francesco (che pure è stato una delle star delle immagini generate dall’IA) vengono costanti sollecitazioni per un dialogo aperto sul significato delle nuove tecnologie, dotate di potenzialità dirompenti e di effetti ambivalenti, con richiami alla “necessità di vigilare e di operare affinché non attecchisca una logica di violenza e di discriminazione nel produrre e nell’usare tali dispositivi, a spese dei più fragili e degli esclusi: ingiustizia e disuguaglianze alimentano conflitti e antagonismi”.

Intelligenza Artificiale e Sanità

Il mercato globale dell’Intelligenza Artificiale nel settore sanitario è destinato a un’esplosione senza precedenti, con stime che proiettano un valore di quasi 188 miliardi di dollari entro il 2030. Rispetto agli 11 miliardi di dollari del 2021, questo tasso di crescita annuo del 37% riflette i considerevoli vantaggi che l’IA apporta al settore sanitario. Tra questi, la riduzione dei costi e il miglioramento del supporto ai medici nell’analisi diagnostica dei pazienti emergono come driver chiave.

Attualmente, il 94% delle organizzazioni sanitarie sfrutta l’IA o il Machine Learning, mentre il 40% dei dirigenti sanitari prevede un aumento degli investimenti nei prossimi cinque anni. Questa crescente adozione rivela il ruolo centrale dell’IA nell’automazione del settore, anticipando un mercato globale dell’IA nel settore sanitario che raggiungerà i 188 miliardi di dollari entro il 2030, con l’obiettivo di migliorare la vita dei pazienti e ridurre i costi.

L’IA emerge come una leva cruciale per ridurre i costi di dimissione, stimati a circa 16 miliardi di dollari, e migliorare l’efficienza nel monitoraggio delle unità di terapia intensiva, con potenziali risparmi di circa 323.000 dollari per letto. Nel settore farmaceutico, l’AI potrebbe ridurre i costi legati alla scoperta di farmaci di oltre 70 miliardi di dollari entro il 2028, grazie all’accelerazione dello sviluppo di nuovi farmaci mediante algoritmi di Machine Learning.

L’Intelligenza Artificiale sta rivoluzionando la fornitura di servizi sanitari, rendendo il sistema più efficiente e apportando benefici tangibili a pazienti, medici e fornitori di servizi. Abilitando i professionisti sanitari a risparmiare tempo e ottenere rapidamente informazioni cliniche, l’AI supporta diagnosi più precise e decisioni più informate, riducendo potenzialmente gli errori del 86% e contribuendo a salvare oltre 250.000 vite all’anno.

L’Intelligenza Artificiale si dimostra preziosa anche nel supportare decisioni mediche, come evidenziato da studi che mostrano miglioramenti nella diagnosi di patologie come il carcinoma mammario. Un incremento del 44% nell’efficienza nella lettura delle mammografie è solo uno dei tanti esempi di come l’IA possa alleggerire il carico di lavoro dei medici.

La risposta positiva dei pazienti all’AI è evidente, con la maggior parte che si sente a proprio agio nell’interagire con assistenti virtuali per ottenere informazioni sui farmaci, inviare report ai medici e prenotare visite.

In definitiva le applicazioni dell’Intelligenza Artificiale nel settore sanitario rappresentano un’opportunità di trasformare il panorama medico in modo più efficiente e centrato sui pazienti, offrendo benefici significativi sia in termini di salute che di risparmio di costi.

Corsi gratuiti di Data Science a cura del MIT

Il MIT Massachussets Institute of Technology ha reso disponibili sulla sua piattaforma di Open Learning una serie di corsi on line su Data Science. Vediamo quali sono:

Introduction To Computer Science and Programming in Phyton

Descrizione del corso: il corso di introduzione all’informatica e alla programmazione in Python si rivolge a studenti con poca o nessuna esperienza di programmazione. L’obiettivo è quello di fornire una comprensione del ruolo che il calcolo può svolgere nella risoluzione dei problemi e di aiutare gli studenti, indipendentemente dalla loro specializzazione, a sentirsi sicuri della loro capacità di scrivere programmi che permettano loro di raggiungere degli obiettivi utili. Il corso utilizza il linguaggio di programmazione Python 3.5.

Tipologia: corso gratuito

Durata: 9 settimane per 16 ore settimanali

Link per l’iscrizione

Introduction To Computational Thinking And Data Science

Descrizione del corso: questo corso è rivolto a studenti con un minimo di eperienza di programmazione in Python e una conoscenza della complessità computazionale. Sono previsti esercizi di scrittura di programmi per implementare i concetti trattati nel corso.

Tipologia: corso gratuito con limitazioni su materiali ed esami (corso completo di certificazione euro 70,00)

Durata: 9 settimane per 16 ore settimanali

Link per l’iscrizione

Papa Francesco: perché è la star delle foto generate dall’intelligenza artificiale

Papa Francesco è diventato uno dei personaggi preferiti tra coloro che si divertono a generare immagini con l’aiuto degli strumenti di Intelligenza Artificiale rappresentato nei contesti più impensabili o negli scenari più improbabili. Ed ecco allora che lo vediamo indossare un lungo piumino bianco ispirato a Balenciaga, a cavallo di una moto, a ballare in discoteca e rappresentato con le braccia tatuate, vestito da rapper, all’interno di una sala pesi e via dicendo.

E’ così che sono apparse decine di foto che mostrano il Santo Padre negli scenari più inimmaginabili, scatenando un effetto domino sui social media e provocando una corsa per ritrarre Papa Bergoglio in situazioni sempre più strane. A parte il Pontefice stesso, le immagini hanno tutte qualcosa in comune: sono tutte false, realizzate da strumenti di intelligenza artificiale che creano immagini da brevi suggerimenti di testo.

La prevalenza di Papa Francesco nelle immagini generate dall’intelligenza artificiale è il risultato di una tempesta perfetta di fattori, primo fra tutti la sua riconoscibilità: 10 anni alla guida della Chiesa cattolica lo hanno fatto diventare un come personaggio globale, immediatamente riconoscibile in tutto il mondo. Ha poi un’immagine più accessibile rispetto al suo predecessore che aveva invece un carattere più spigoloso e distante.

Papa Francesco è quindi il personaggio ideale, anche perché è noto per la sua semplicità e la sua solidarietà con i più poveri tra i poveri. E proprio per questo quando è inserito in contesti fantasiosi è in grado di scatenare una curiosità incredibile.

L’immagine che ha trasformato Francis in una star dell’intelligenza artificiale lo mostra con un piumino bianco in stile di Balenciaga, mentre cammina a grandi passi per la strada è stata visualizzata più di 20 milioni di volte. 

Intelligenza Artificiale e creazione di immagini

I programmi di Intelligenza Artificiale hanno ormai raggiunto livelli incredibili nella creazione delle immagini. L’IA generativa consente infatti la la creazione di immagini, disegni e illustrazioni ad alta definizione utilizzando descrizioni testuali. È infatti sufficiente scrivere una parola chiave o un testo e l’algoritmo crea un’immagine personalizzata che rappresenta il concetto espresso. L’utente ha la possibilità di specificare lo stile, il colore, la prospettiva e altri dettagli per personalizzare la sua immagine.

Alcuni sistemi, come Midjourney, usano la Generative Adversarial Network (GAN), una rete neurale composta da due moduli chiamati generatore e discriminatore. Il primo è adibito alla produzione delle immagini dal testo, mentre il secondo valuta se le immagini sono realistiche. L’interazione tra i due moduli porta al miglioramento delle prestazioni per la produzione di immagini sempre più precise.

Dall’editing fotografico avanzato alle soluzioni di generazione di immagini, l’IA offre nuove prospettive creative per artisti, designer e creatori di contenuti, consentendo il miglioramento automatico delle immagini, dalla correzione del colore alla rimozione di imperfezioni, offrendo risultati sorprendenti e creando al tempo stesso un’esperienza visiva altamente personalizzata.

Tuttavia, con il potenziale innovativo possono anche emergere anche dei rischi significativi come la manipolazione dell’identità, perché l’IA rende possibile la creazione di foto fake realistiche di personaggi famosi, come è successo all’ex Presidente degli Stati Uniti Donald Trump o anche a Papa Francesco, sollevando preoccupazioni sulla manipolazione dell’identità e la diffusione di informazioni false.

I rischi di abuso possono riguardare, oltre all’eventuale creazione di supporti visivi a supporto delle fake news, anche la sfera reputazionale dei singoli cittadini, mettendone a rischio la privacy, fino a raggiungere quel confine dove la capacità delle società in generale di distingue la differenza tra realtà e finzione assume dei contorni sfocati. E, da questo punto di vista, i rischi possono essere significativi quando si tratta di personaggi famosi o di personalità di primo piano.

Affrontare le straordinarie opportunità offerte dall’IA nella creazione di immagini richiede un approccio bilanciato in grado di combinare l’innovazione tecnologica con un utilizzo non tanto regolamentato quanto etico per garantire che l’IA contribuisca positivamente al nostro mondo visivo senza compromettere verità, integrità e dignità della persona.

Gli impatti dell’IA generativa nel business

Da quando è stato rilasciato ChatGPT, il chatbot basato sul linguaggio di OpenAI, ormai un anno fa, nel novembre 2022, i tool di intelligenza artificiale e generativa sono cresciuti rapidamente, sviluppando funzionalità e applicazioni, riuscendo a coinvolgere un numero sempre maggiore di utilizzatori.

Secondo un report di Insider Intelligence, il 25% degli utenti internet negli Stati Uniti, quasi 80 milioni di persone, avrà utilizzato tool di Intelligenza Artificiale entro la fine del 2023. Un fenomeno che non si limita solo agli Usa ma che può definirsi globale complice anche il fatto che dal rilascio iniziale, la funzionalità dei modelli generativi di IA è notevolmente migliorata rendendola quindi più accessibile.

Proprio quest’accessibilità renderà questa tecnologia trasformativa, come lo sono stati i microprocessori, il web e gli smartphone. Con una differenza sostanziale. Queste sono tecnologie che hanno richiesto anni per prendere piede mentre sembra che il ritmo di adozione e di sviluppo dell’IA sia esponenziale con immaginabili ripercussioni anche nel business.

Goldman Sachs stima che il contributo dell’IA potrebbe aggiungere in 10 anni un 7% di prodotto interno lordo all’economia globale, influenzando tutta una serie di settori, dalla ricerca alle scienze, dalla medicina alla tecnologia. Inoltre, con la capacità creativa che ha già dimostrato, l’IA generativa sarà in grado di intervenire in quelle attività lavorative che un tempo pensavamo fossero intoccabili dalla tecnologia. Basti pensare alla capacità dell’IA di generare video, foto, immagini e anche audio, con un impatto anche nel settore audio e della musica.

Sempre Goldman Sachs stima che almeno un quarto dei lavori negli Stati Uniti e in Europa potrebbe essere automatizzato dall’IA generativa su cui peraltro si sta investendo moltissimo mentre, secondo dati riportati da CB Insights solo nella prima metà del 2023 gli investimenti in start-up IA sono aumentati di 5 volte, raggiungendo la cifra di 14 miliardi di dollari rispetto ai 2,5 miliardi nel 2022.

Libri. Scacco matto all’AI. Come le aziende all’avanguardia stravincono con l’intelligenza artificiale

Dall’autore di bestseller della letteratura manageriale e dal responsabile della divisione AI di Deloitte negli Stati Uniti, uno sguardo affascinante sulle aziende all’avanguardia che utilizzano l’intelligenza artificiale per creare nuovi vantaggi competitivi.

Sebbene la maggior parte delle organizzazioni stia scommettendo in modo modesto sull’intelligenza artificiale, esiste un gruppo di imprese di rilevanza mondiale che stanno puntando tutto su questa tecnologia e trasformando radicalmente i propri prodotti, processi, strategie, relazioni con i clienti e persino la propria cultura. Sebbene queste organizzazioni rappresentino meno dell’uno per cento delle grandi imprese, sono tutte aziende di alto livello nei rispettivi settori. Hanno modelli di business migliori, prendono decisioni migliori, hanno rapporti migliori con i clienti, offrono prodotti e servizi migliori e spuntano prezzi più alti.

Scacco matto con l’AI” analizza l’intelligenza artificiale all’avanguardia dal punto di vista di aziende affermate come Anthem, Ping An, Airbus e Capital One.

Ricco di approfondimenti, strategie e best practice, il libro fornisce ai leader e ai loro team le informazioni necessarie per aiutare le proprie aziende a portare l’intelligenza artificiale a un livello successivo.

Se siete curiosi di conoscere la prossima fase dell’implementazione dell’intelligenza artificiale all’interno delle imprese, o se state cercando di impiegare voi stessi questa potente tecnologia in modo più robusto, il lavoro di Davenport e Mittal vi offrirà una vista dall’interno su ciò
che stanno facendo i principali adottatori dell’intelligenza artificiale, fornendovi al contempo gli strumenti per mettere questa potente tecnologia al centro di tutto ciò che fate.

Scacco matto con l’AI: Come le aziende all’avanguardia stravincono con l’intelligenza artificiale di Thomas H. Davenport e Nitin Mittal, Egea Editore, 236 pagine, euro 32,00

Compralo su Amazon

10 prompt per sfruttare il potenziale educativo di Chat GPT

Ecco una lista di 10 prompt per sfruttare al meglio il potenziale educativo di Chat GPT e imparare in fretta qualsiasi materia:

1. Comprendere facilmente un argomento

Prompt: “Puoi spiegare il concetto di (argomento) in termini semplici? Riassumi i principi principali e illustrali con esempi per facilitare la comprensione”.

Chat GPT: uno sguardo nel cuore dell’Intelligenza Artificiale conversazionale

Nell’era dell’Intelligenza Artificiale (IA), Chat GPT si distingue come una delle innovazioni più straordinarie nel campo della conversazione virtuale. Ma cosa è esattamente Chat GPT, come funziona e quali sono le sue applicazioni principali?

Scopriamolo insieme.

Cos’è Chat GPT?

Chat GPT, acronimo di “Generative Pre-trained Transformer“, è un modello di linguaggio basato su trasformatori. Sviluppato da OpenAI, questo sistema di intelligenza artificiale è progettato per comprendere e generare testo in modo coerente e naturale. La sua potenza deriva dalla sua capacità di apprendere da enormi quantità di dati e contesti linguistici.

Come Funziona Chat GPT?

Chat GPT si basa su una rete neurale che utilizza un processo di apprendimento preformazione seguito da un fine-tuning. Durante la fase di preformazione, il modello acquisisce una vasta comprensione del linguaggio umano esplorando enormi dataset. Successivamente, attraverso il fine-tuning, il modello viene raffinato per adattarsi a compiti specifici o contesti particolari.

La sua architettura permette a Chat GPT di catturare le relazioni complesse tra le parole e generare risposte coerenti alle domande e alle richieste degli utenti. L’approccio pre-trained consente al modello di essere versatile, adattandosi a una vasta gamma di applicazioni.

Applicazioni Principali di Chat GPT

  1. Assistenza Virtuale e Supporto Clienti: Chat GPT può essere utilizzato per fornire assistenza virtuale su siti web o per gestire il supporto clienti, rispondendo alle domande degli utenti in modo rapido ed efficiente;
  2. Generazione di Contenuti: grazie alla sua capacità di comprendere e generare testo in stile naturale, Chat GPT può essere utilizzato per la creazione di contenuti, come articoli, descrizioni di prodotti o post sui social media;
  3. Apprendimento e Tutoraggio: Chat GPT può essere impiegato come tutor virtuale, rispondendo a domande degli studenti, spiegando concetti complessi e offrendo supporto nell’apprendimento di nuovi argomenti;
  4. Creazione di Dialoghi Interattivi: con Chat GPT, è possibile creare dialoghi interattivi per scopi di intrattenimento, ad esempio in giochi, applicazioni di narrazione interattiva o assistenti virtuali per la simulazione di conversazioni;
  5. Traduzione Automatica: grazie alla sua comprensione del linguaggio, Chat GPT può essere utilizzato per la traduzione automatica, agevolando la comunicazione tra persone che parlano lingue diverse;
  6. Simulazioni e Prove di Concetto: Le imprese possono utilizzare Chat GPT per simulare scenari e testare nuove idee prima di implementarle effettivamente, permettendo un approccio più flessibile e sperimentale.

Conclusioni

Chat GPT rappresenta un passo significativo nell’evoluzione delle interazioni uomo-macchina. La sua capacità di comprendere e generare linguaggio naturale apre le porte a una vasta gamma di applicazioni, rendendolo uno strumento potente per migliorare la nostra esperienza digitale e interagire in modo più intuitivo con la tecnologia.

La corsa a due per la leadership nello sviluppo dell’Intelligenza Artificiale

L’intelligenza artificiale (IA) è diventata un terreno di sfida globale, con un’aspra competizione per il primato nello sviluppo di tecnologie avanzate. Al centro di questa corsa, la rivalità tra Stati Uniti e Cina emerge in primo piano, ma anche l’Unione Europea, i suoi paesi membri e altre realtà come Gran Bretagna, Canada e India giocano un ruolo significativo.

Gli Stati Uniti sono il leader indiscusso nello sviluppo dell’intelligenza artificiale, con le principali aziende tecnologiche della Silicon Valley a guidare la carica

Gli Stati Uniti hanno dominato il panorama dell’IA sin dai suoi primi passi. Con un ecosistema ricco di talenti, risorse finanziarie e una cultura favorevole all’innovazione, le aziende americane sono all’avanguardia nello sviluppo di algoritmi avanzati e applicazioni pratiche. La costa pacifica continua ad essere l’epicentro di questa rivoluzione tecnologica, con giganti della tecnologia come Google, Facebook e Microsoft in prima linea nella ricerca e sviluppo con l’obiettivo di rafforzare la propria posizione nel settore.

La Cina è al secondo posto, con il governo che investe pesantemente nella ricerca e nello sviluppo dell’IA

Dall’altra parte dell’Oceano, la Cina ha dimostrato una crescita straordinaria nell’ambito dell’Intelligenza Artificiale. Con significativi investimenti governativi, una vasta base di dati e un approccio strategico a lungo termine, le aziende cinesi stanno emergendo come concorrenti di rilievo: Alibaba, Baidu e Tencent, sono tutte attivamente coinvolte nello spingere le capacità dell’intelligenza artificiale della Cina a nuovi livelli. La massiccia raccolta di dati e le politiche di supporto governativo offrono alla Cina una solida base per competere a livello globale. 

L’Europa è in ritardo

L’Europa nel suo complesso è in ritardo nello sviluppo dell’intelligenza artificiale, anche se alcuni Paesi come la Germania e la Francia stanno promuovendo investimenti mirati e collaborazioni tra settore pubblico e privato per cercare di recuperare terreno. L’iniziativa di creare un mercato unico digitale e lo sviluppo di una strategia europea sull’IA evidenziano comunque l’impegno dell’UE nel giocare un ruolo fondamentale nella definizione del futuro digitale.

Le posizioni di Gran Bretagna, Canada e India

La Gran Bretagna, con la sua ricca tradizione scientifica, potrebbe essere un attore chiave nello sviluppo dell’IA anche se dopo la Brexit si ritrova a giocare da sola in un mercato molto competitivo. L’approccio britannico enfatizza l’etica e la trasparenza, posizionando il paese come un innovatore responsabile. Nel continente americano, il Canada sta emergendo come un centro globale per la ricerca sull’IA, con un focus particolare sul deep learning.

In Asia, l’India sta rapidamente guadagnando terreno grazie alla sua vasta popolazione di ingegneri e scienziati informatici. Con una crescente attenzione agli investimenti in ricerca e sviluppo, l’India potrebbe svolgere un ruolo sempre più rilevante nell’ecosistema globale dell’IA.

I ritardatari tra nuove sfide e opportunità

Mentre alcuni paesi avanzano speditamente, altri faticano a stare al passo, per una questione di risorse finanziarie limitate, mancanza di competenze specializzate e anche questioni etiche legate all’uso dell’IA. I Paesi in via di sviluppo hanno certamente maggiori difficoltà a colmare il divario tecnologico, ma l’accesso a formazione, risorse finanziarie e partnership internazionali potrebbero aprire nuove opportunità.

La corsa all’intelligenza artificiale pur essendo un’attività globale è al momento una gara a due, tra Stati Uniti e Cina. La rivalità tra i due Paesi è palpabile, anche per motivi geopolitici, con Washington in indiscutibile vantaggio e Pechino che insegue per non rimanere indietro. Tuttavia, l’Unione Europea con le proprie iniziative e altri Paesi del G7 stanno dimostrando che il futuro dell’IA sarà plasmato da una collaborazione internazionale, guidata da valori etici e una visione condivisa per un futuro digitale avanzato e sostenibile.

AI Act: l’UE verso la regolamentazione dell’Intelligenza Artificiale

L’Intelligenza Artificiale (AI) sta trasformando il nostro mondo con una velocità ed una modalità senza precedenti. Questo crescente utilizzo dell’AI ha tuttavia sollevato preoccupazioni riguardo al suo impatto sui diritti e sulle libertà fondamentali, al punto da spingere l’Unione Europea (UE) a compiere un passo significativo per la sua regolamentazione, con l’adozione, lo scorso 14 giugno, dell’Artificial Intelligence Act.

L’AI Act approvato dal Parlamento europeo, punta a trasformare l’Europa in un hub globale per sistemi di Intelligenza Artificiale affidabili, stabilendo norme armonizzate che disciplinino lo sviluppo, la commercializzazione e l’uso di questa tecnologia nell’UE. 

La legge sull’Intelligenza Artificiale mira a garantire che i sistemi di intelligenza artificiale nell’UE siano sicuri e rispettino i diritti e i valori fondamentali, ponendo nuove restrizioni su quelli che sono considerati gli usi più rischiosi della tecnologia, prevedendo ad esempio lo stop all’uso del software di riconoscimento facciale in tempo reale.

Il disegno di legge europeo adotta un approccio basato sul rischio per regolamentare l’IA, concentrandosi sulle applicazioni con il maggior potenziale di danno. Ciò includerebbe i casi in cui i sistemi di intelligenza artificiale vengono utilizzati per gestire infrastrutture critiche come l’acqua o l’energia, nel sistema legale e nel determinare l’accesso ai servizi pubblici e ai benefit governativi, prevedendo che i produttori di tecnologia dovrebbero condurre valutazioni dei rischi prima di metterla nell’uso quotidiano, in modo simile al processo di approvazione dei farmaci.

Una delle principali aree di dibattito è, come già detto, l’uso dei software di riconoscimento facciale. Il Parlamento europeo ha votato per vietare l’uso del riconoscimento facciale dal vivo, ma rimangono dubbi sull’opportunità di consentire esenzioni per la sicurezza nazionale e altri scopi di applicazione della legge.

Un’altra disposizione vieterebbe alle aziende di raccogliere dati biometrici dai social media per creare database, una pratica che ha attirato l’attenzione dopo che la società di riconoscimento facciale Clearview AI  l’ha utilizzata.

Dopo il voto del giugno scorso, la versione finale della legge sarà negoziata dai rappresentanti dei tre rami dell’Unione europea: Parlamento europeo, Commissione europea e Consiglio dell’Unione europea. L’obiettivo comune è quello di raggiungere un accordo definitivo entro la fine dell’anno.

Vedremo quali saranno gli sviluppi anche se l’Unione europea, nell’interesse di tutti gli Stati membri, dovrebbe evitare normative eccessivamente ampie che inibiscano l’innovazione. Non è per nulla chiaro tra l’altro quanto possa essere efficace qualsiasi regolamentazione dell’intelligenza artificiale considerato che, come sempre succede con la tecnologia, le innovazioni della stessa stanno emergendo più velocemente di quanto i legislatori (non solo europei ma di qualsiasi Paese) siano in grado di affrontarle.

In ogni caso se anche l’UE avrà le capacità di diventare leader nella regolamentazione dell’intelligenza artificiale, difficilmente sarà in grado di guidare l’innovazione dell’intelligenza artificiale nella quale la partita è a due, tra gli Stati Uniti, attuale leader indiscusso nello sviluppo dell’IA e la Cina, con il Governo di Pechino che sta investendo pesantemente nella ricerca e nello sviluppo dell’IA.

Quali rischi con l’Intelligenza Artificiale

L’Intelligenza Artificiale (IA) offre enormi potenzialità, ma comporta anche diversi rischi che devono essere attentamente considerati e gestiti. Ecco alcuni dei principali rischi legati all’intelligenza artificiale:

  1. Bias algoritmico: gli algoritmi di IA possono riflettere i pregiudizi presenti nei dati con cui vengono addestrati. Se i dati utilizzati sono intrinsecamente bias, l’IA può perpetuare e amplificare queste discriminazioni, portando a decisioni ingiuste e inequità.
  2. Perdita di posti di lavoro: l’automazione guidata dall’IA può portare alla sostituzione di alcuni lavori umani, creando disoccupazione e richiedendo nuove competenze per affrontare il cambiamento nel mondo del lavoro.
  3. Sicurezza informatica: l’aumento dell’uso dell’IA può portare a nuovi rischi di sicurezza, inclusi attacchi informatici avanzati e manipolazione delle tecnologie di intelligenza artificiale stesse. Le conseguenze di un’IA compromessa potrebbero essere gravi e estese.
  4. Mancanza di trasparenza: alcuni modelli di IA, in particolare quelli basati su reti neurali profonde, sono spesso considerati “scatole nere” in cui è difficile comprendere il processo decisionale interno. Questa mancanza di trasparenza può causare preoccupazioni etiche e rendere difficile responsabilizzare l’IA per le sue azioni.
  5. Autonomia e responsabilità: aumentando l’autonomia delle macchine, sorge la questione della responsabilità in caso di comportamenti dannosi o decisioni errate. Chi è responsabile quando un sistema di IA commette un errore che ha conseguenze negative?
  6. Minaccia per la privacy: l’IA può essere utilizzata per analizzare grandi quantità di dati personali, aumentando il rischio di violazioni della privacy. I sistemi di sorveglianza basati sull’IA possono anche sollevare preoccupazioni riguardo all’intrusione nella vita privata delle persone.
  7. Impatto ambientale: l’allenamento di modelli di IA complessi richiede notevoli risorse computazionali, che possono contribuire all’aumento dell’impronta di carbonio delle tecnologie dell’informazione se non gestite in modo sostenibile.
  8. Superintelligenza: alcuni teorizzano che un’IA altamente avanzata potrebbe diventare superintelligente, superando la capacità umana in modo imprevisto. Questa prospettiva solleva domande fondamentali sulla gestione di un’intelligenza che supera quella umana.

Affrontare questi rischi richiede un approccio olistico, coinvolgendo governi, aziende, ricercatori e la società nel suo complesso. La regolamentazione, la trasparenza nell’addestramento degli algoritmi, la promozione di standard etici e la riflessione critica sulle applicazioni dell’IA sono tutti elementi chiave per mitigare i rischi associati a questa tecnologia in rapida evoluzione.

Intelligenza Artificiale, non solo rischi ma anche straordinarie opportunità

L’Intelligenza Artificiale (IA) offre una vasta gamma di opportunità in diversi settori. Ecco alcune delle principali opportunità offerte dall’IA:

  1. Automazione dei processi: l’IA consente l’automazione di compiti ripetitivi e noiosi, migliorando l’efficienza operativa e consentendo alle persone di concentrarsi su attività più creative e complesse.
  2. Apprendimento automatico e analisi dei dati: l’IA può analizzare grandi quantità di dati in tempo reale, identificare modelli e fornire insights significativi. Questo è particolarmente utile nei settori come il marketing, la finanza, la sanità e la ricerca scientifica.
  3. Assistenza sanitaria avanzata: l’IA può essere utilizzata per diagnosticare malattie, personalizzare piani di trattamento, monitorare la salute dei pazienti e migliorare la gestione delle informazioni mediche.
  4. Assistenza virtuale e chatbot: i sistemi di intelligenza artificiale, come i chatbot, possono fornire assistenza virtuale in tempo reale, rispondendo alle domande dei clienti, risolvendo problemi e migliorando l’esperienza utente.
  5. Sistemi di raccomandazione: l’IA alimenta sistemi di raccomandazione che suggeriscono prodotti, contenuti o servizi in base al comportamento passato degli utenti, migliorando l’esperienza di acquisto online e la personalizzazione dei servizi.
  6. Veicoli autonomi: l’IA è fondamentale nello sviluppo dei veicoli autonomi, contribuendo a migliorare la sicurezza stradale, ridurre gli incidenti e ottimizzare il traffico.
  7. Produzione intelligente: nelle fabbriche, l’IA può ottimizzare la produzione attraverso la previsione della domanda, la gestione dell’inventario e la manutenzione predittiva delle macchine.
  8. Traduzione automatica: sistemi di traduzione automatica basati su IA migliorano la comunicazione tra persone di diverse lingue, agevolando gli scambi culturali e commerciali su scala globale.
  9. Ricerca scientifica: l’IA accelera la ricerca scientifica attraverso la simulazione di esperimenti, l’analisi di dati complessi e la scoperta di nuovi modelli in vari campi, dalla biologia alla fisica.
  10. Sviluppo di nuovi prodotti e servizi: l’IA stimola l’innovazione consentendo lo sviluppo di nuovi prodotti e servizi che migliorano la vita quotidiana e risolvono problemi complessi.

In sintesi, l’intelligenza artificiale offre opportunità trasformative in diversi settori, migliorando l’efficienza, stimolando l’innovazione e contribuendo a risolvere sfide complesse. Tuttavia, è essenziale gestire attentamente gli aspetti etici, la sicurezza e i rischi associati a questa tecnologia per massimizzare i suoi benefici.

L’Intelligenza Artificiale: da Alan Touring ai nostri giorni

Sebbene sia diventato un argomento main stream solo nell’ultimo anno, gli albori dell’Intelligenza Artificiale (IA) come disciplina scientifica affondano le radici addirittura negli anni ’50, un’epoca caratterizzata da studi e ricerche scientifiche sui calcolatori e sulla loro applicazione nello sviluppo dei sistemi intelligenti.

Nel 1956, al Dartmouth College nel New Hampshire, si svolse un convegno epocale con la partecipazione dei principali esponenti dell’informatica dell’epoca. Questo evento, il Dartmouth Summer Research Project on Artificial Intelligence, è considerato come l’evento ufficiale che segna la nascita di questa disciplina e non solo permise di raccogliere i primi contributi sui fondamenti dell’IA ma proiettò anche lo sguardo verso gli sviluppi futuri, delineando il percorso di una disciplina destinata a trasformare il panorama tecnologico contemporaneo. Nel corso della conferenza si discusse anche di reti neurali, teoria della computabilità, creatività ed elaborazione del linguaggio naturale.

Alan Turing, già riconosciuto come uno dei padri dell’informatica moderna per i suoi contributi del 1936 sui concetti di calcolabilità, la macchina di Turing e per aver immaginato, progettato e realizzato un computer in grado di decifrare i messaggi cifrati dai tedeschi tramite Enigma, contribuendo non poco al successo degli alleati nella seconda guerra mondiale, giocò un ruolo cruciale al convegno di Dartmouth.

Nel 1950, anticipando ancora una volta il futuro, Turing propose il “Computing machinery and intelligence“, noto come Test di Turing, stabilendo che una macchina poteva essere considerata intelligente se il suo comportamento, osservato da un essere umano, risultava indistinguibile da quello di una persona.

Il lavoro di Turing catalizzò l’attenzione della comunità scientifica sull’IA, generando approcci innovativi. La logica matematica emerse per dimostrare teoremi e inferire nuova conoscenza, mentre le reti neurali, nell’ultimo decennio, evolsero concretamente, trovando applicazioni nel Deep Learning, una sottobranca del Machine Learning.

Con il passare del tempo, le aspettative sull’IA crebbero. Nel 1957, Herbert Simon previde che entro dieci anni si sarebbe sviluppata un’IA capace di competere con i campioni di scacchi. non andò proprio così. Le limitazioni computazionali dell’epoca non permisero di mantenere queste aspettative e si dovette attendere fino al 1997 quando il supercomputer IBM Deep Blue sconfisse il campione del mondo di scacchi Garry Kasparov.

Dagli anni Ottanta in poi le prime applicazioni di Intelligenza Artificiale trovarono spazio nell’ambito industriale, con esempi concreti come R1, sviluppato nel 1982 da Digital Equipment per configurare ordini di nuovi computer, permettendo all’azienda di risparmiare 40 milioni di dollari all’anno.

Oggi, l’IA rappresenta uno dei principali campi di interesse nella comunità scientifica informatica, con aree di ricerca che includono Machine Learning, elaborazione del linguaggio naturale e robotica.

Le grandi aziende del settore dell’hi-tech stanno investendo sempre più in questo settore e i progressi tecnologici sono sotto gli occhi di tutti, basti pensare allo straordinario numero di programmi e applicazioni lanciati nel corso dell’ultimo anno.

La sua portata rivoluzionaria richiede però grande attenzione perché se il futuro dell’IA si profila come una costante evoluzione, con applicazioni sempre più sofisticate e integrate in ogni aspetto della vita quotidiana, è anche vero che bisogna aver ben presenti non solo le opportunità offerte da questa nuova tecnologia ma anche i potenziali elementi di rischio che questa tecnologia comporta per la società.

Guida completa ai Prompt nell’uso dell’Intelligenza Artificiale: come sfruttarli al meglio con Chat GPT!

Quando si parla di Intelligenza Artificiale si sente spesso anche il termine “prompt“, un vocabolo sconosciuto a molti fino a poco tempo fa. Oggi non è importante solamente conoscere il significato di questo termine, ma è anche necessario capire come funziona e quali opportunità offre per ottenere risultati significativi e coerenti con i sistemi di IA.

Pagina 6 di 6

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie