Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Autore: Fabio Ricceri

Dichiarazione di Hiroshima: intesa al G7 sui codici di condotta sull’Intelligenza Artificiale

L’intelligenza Artificiale rimane al centro dell’agenda politica mondiale e dopo l’Unione Europea, scende in campo anche il G7. La dichiarazione di Hiroshima adottata oggi, 30 ottobre 2023, dai leader di Canada, Francia, Germania, Giappone, Italia, Regno Unito e Stati Uniti vuole sottolineare le opportunità innovative e il potenziale trasformativo dei sistemi avanzati di Intelligenza Artificiale (IA), in particolare, dei modelli di base e dell’IA generativa.

Riconosciamo la necessità di gestire i rischi connessi, di proteggere gli individui, la società e i nostri principi condivisi come lo Stato di Diritto e i valori democratici, ponendo l’umanità al centro” si legge nella dichiarazione di Hiroshima, che è integrata da 2 documenti più operativi: gli 11 principi guida per i sistemi di AI Generativa avanzata e un Codice di condotta internazionale, che saranno costantemente modificati, se necessario, alla luce del rapido evolversi della materia di cui si occupano.

A tale proposito, i leader dei Paesi del G7 sono favorevoli ad incoraggiare l’adozione di misure adeguate durante l’intero processo di sviluppo di sistemi avanzati di intelligenza artificiale anche prima e durante la loro distribuzione e commercializzazione, con l’obiettivo di identificare, valutare e mitigare i rischi lungo l’intero ciclo di vita delle tecnologie emergenti. Tra queste misure dovrebbero essere previsti anche dei test interni ed esterni indipendenti.

Per quanto riguarda invece l’uso improprio, le organizzazioni responsabili dello sviluppo di sistemi avanzati sono chiamate a monitorare attentamente vulnerabilità, incidenti e rischi emergenti. Dovrebbero facilitare la scoperta e la segnalazione di problemi e vulnerabilità da parte degli utenti dopo l’implementazione. La trasparenza da questo punto di vista è fondamentale, e le capacità, le limitazioni e gli ambiti di utilizzo appropriato e inappropriato dovrebbero essere comunicati pubblicamente attraverso rapporti dettagliati.

La condivisione responsabile delle informazioni e la segnalazione degli incidenti rappresentano dei punti cruciali per i Paesi del G7, coinvolgendo industria, governi, società civile e mondo accademico. L’approccio raccomandato è basato sulla gestione del rischio, in linea con il Regolamento UE in fase di completamento. Ciò implica processi di responsabilità e di governance per valutare e mitigare i rischi.

Occorrono poi dei meccanismi affidabili di autenticazione e di provenienza dei contenuti, come watermarking, etichettatura o dichiarazioni di non responsabilità, in modo da consentire agli utenti di determinare se un contenuto è stato creato con il sistema di intelligenza artificiale di una specifica organizzazione.

Tra le priorità elencate vi è poi la mitigazione dei rischi per la società e la sicurezza, nonché lo sviluppo di sistemi avanzati per affrontare sfide come la crisi climatica, la salute globale e l’istruzione, in linea con gli Obiettivi di Sviluppo Sostenibile delle Nazioni Unite. Infine, i leader del G7 sottolineano l’importanza di promuovere lo sviluppo e, se del caso, l’adozione di standard tecnici internazionali, insieme a misure adeguate di protezione dei dati personali e della proprietà intellettuale.

A margine di questo accordo, Ursula fon der Leyen, Presidente della Commissione Europea, si è detta lieta di accogliere i principi guida internazionali del G7 e il codice di condotta volontario, esprimendosi a favore dell’impegno congiunto per favorire lo sviluppo tecnologico ponendo in primo piano il tema della sicurezza e dell’affidabilità delle tecnologie.

I benefici potenziali che l’AI comporta per l’economia e i cittadini europei sono fondamentali. Non dobbiamo però dimenticare che la velocità dei processi innescati dall’AI porta con sé anche nuove sfide”, il commento della von der Leyen alla Dichiarazione di Hiroshima, che prosegue “l’Ue è già all’avanguardia, dal punto di vista normativo, grazie all’AI Act, che rappresenta un importante contributo anche a livello di governance globale”.

Italia: Parlamento e Governo in ordine sparso sull’IA

Se da un lato va riconosciuto come la gestione della transizione digitale e tecnologica in atto sia un tema oggettivamente complesso va anche detto che il Parlamento e il Governo italiani stanno viaggiando in ordine sparso nell’affrontare le implicazioni dell’uso di sistemi intelligenti che imitano e riproducono le capacità umane.

Da un lato ci ritroviamo un collegato alla manovra economica in arrivo da parte del Ministero delle Imprese e del Made in Italy, dall’altro un’indagine conoscitiva promossa dalla Commissione Attività produttive della Camera, dall’altro ancora il Comitato per la documentazione della Camera che vola oltre oceano per discutere di tecnologie avanzate con le grandi tech company americane e poi la creazione di una commissione algoritmi guidata da Giuliano Amato, ex presidente del Consiglio e della Corte Costituzionale.

Nel dettaglio, il Ministro delle Imprese e del Made In Italy, Adolfo Urso, ha dichiarato che l’AI sarà una sfida che il governo affronterà in un collegato alla manovra. A quest’attività farà poi seguito un’attenzione particolare al tema che l’Italia si impegna a promuovere durante il turno di presidenza italiana del G7 del 2024.

L’indagine conoscitiva sull’AI promossa dal presidente della Commissione Attività produttive della Camera, Alberto Gusmeroli, si focalizza invece sui possibili effetti, positivi o negativi, per il mondo produttivo, con l’obiettivo di arrivare alla stesura di un progetto di legge sulla falsariga di quanto già avvenuto per il Made in Italy.

Una delegazione del Comitato per la documentazione della Camera, composta dalla presidente del Comitato e vicepresidente della Camera, Anna Ascani, e dalle deputate Ilaria Cavo e Maria Rosaria Tassinari vola invece prima a Seattle e poi a San Francisco dove incontrerà le grandi tech company del settore, da Open AI a Microsoft, da Amazon a Meta, per cercare di comprendere quale sia lo stato dell’arte dell’intelligenza artificiale e quale impatto avrà nei diversi settori della società, in vista di futuri interventi normativi.

Dal canto suo invece il Sottosegretario alla Presidenza del Consiglio con delega all’Informazione e all’Editoria Alberto Barachini ha deciso di lanciare una Commissione Algoritmi, istituendo un Comitato formato da esperti e professori universitari che studierà l’impatto di questa tecnologia sul mondo del giornalismo e delle news di cui è stato nominato presidente Giuliano Amato, classe 1938, più volte Ministro, ex Presidente del Consiglio, docente di diritto costituzionale comparato per oltre 20 anni ed ex Presidente della Corte Costituzionale.

Ma non è finita qui perché il sottosegretario della Presidenza del Consiglio dei Ministri con delega all’innovazione, Alessandro Butti, ha appena nominato un Comitato di esperti incaricati di dare indicazioni per guidare la strategia nazionale sull’Intelligenza Artificiale.

Adesso, guardando dall’esterno tutto questo attivismo in ordine sparso non si può non rilevare come le azioni sia del Governo che del Parlamento italiani restituiscano un certo disordine di fondo non solo sull’argomento in generale ma anche sulle azioni che sarebbe opportuno intraprendere.

L’Intelligenza Artificiale è una nuova frontiera tecnologica che sta rimodellando le industrie, le economie e la vita quotidiana di ognuno di noi. Siamo di fronte ad una straordinaria opportunità di sviluppo, ma anziché coglierne le potenzialità e le opportunità, sembrerebbe che, ancora una volta, la preoccupazione principale in Italia, sia quella di “normare”, di stabilire dei limiti, di mettere dei paletti, di stabilire dei vincoli, di cercare di disciplinare un qualcosa che per sua natura evolve a ritmi velocissimi.

Adesso, pur nella giusta considerazione di tutela dai rischi, dalle manipolazioni e dalle sperequazioni che sono possibili con una gestione non corretta dei sistemi di AI, quello che la politica italiana non vede è che in questo modo si lascia in secondo piano un approccio volto invece a definire le strategie di sviluppo, a individuare le opportunità per il sistema Paese, promuovendone gli investimenti e le attività di ricerca, mettendo a sistema i centri di ricerca, le imprese e le Università per giocare da pari con gli altri Paesi e recuperare quella leadership in innovazione e sviluppo che per tanti anni ha caratterizzato il sistema economico e industriale del nostro Paese.

Quella portata dall’Intelligenza Artificiale è una vera e propria rivoluzione. E noi dobbiamo starci dentro, prima ancora come Paese che come Europa, che pure sembra preoccupata a “normare”. Il resto del mondo non ci aspetta. La posizione della politica italiana su questi temi sarà determinante nello stabilire che ruolo potrà avere l’Italia nello sviluppo futuro di questa tecnologia. Altrimenti perderemo anche questa opportunità.

L’Onu crea un comitato di esperti sull’intelligenza artificiale. L’unico italiano è il francescano Paolo Benanti

Il teologo Paolo Benanti è l’unico italiano tra i 38 esperti nominati da António Guterres come membri del nuovo Organo consultivo dell’ONU per l’Intelligenza Artificiale, un organismo consultivo composto da 39 esperti dei governi, delle imprese, della società civile, oltre a ricercatori e accademici provenienti da tutti i continenti, incaricati di valutare le opportunità e i rischi dell’AI generativa, di suggerire modelli di governance di questa nuova tecnologia e di individuare le strade per favorire la cooperazione internazionale in un campo essenziale per il futuro del nostro Pianeta.

Il team di esperti dovrà formulare le raccomandazioni preliminari entro il prossimo dicembre e presentare il rapporto conclusivo nell’estate del 2024, prima del Summit Onu sul Futuro del 22 e 23 settembre.

Il nostro Paolo Benanti è un francescano del Terzo Ordine Regolare, si occupa di etica, bioetica ed etica delle tecnologie, è docente presso la Pontificia Università Gregoriana, l’Istituto Teologico di Assisi e il Pontificio Collegio Leoniano ad Anagni ed è definito come il principale consigliere di Papa Francesco sull’IA. I suoi studi si focalizzano sulla gestione dell’innovazione: internet e l’impatto del Digital Age, le biotecnologie per il miglioramento umano e la biosicurezza, le neuroscienze e le neurotecnologie.

Di seguito l’elenco degli alti componenti dell’organismo ONU sull’AI:

Anna Abramova, Direttrice del Centro di Intelligenza Artificiale dell’Istituto di Relazioni Internazionali dello Stato di Mosca (MGIMO) – Università

Omar Sultan Al Olama, Ministro di Stato per l’Intelligenza Artificiale degli Emirati Arabi Uniti

Latifa Al-Abdulkarim, Membro del Consiglio della Shura (Parlamento Saudita), Professoressa Associata di Informatica presso l’Università King Saud

Estela Aranha, Consigliera Speciale per il Ministro della Giustizia e della Sicurezza Pubblica, Governo Federale del Brasile

Carme Artigas, Segretaria di Stato per la Digitalizzazione e l’Intelligenza Artificiale della Spagna

Ran Balicer, Chief Innovation Officer e Vice Direttore Generale presso Clalit Health Services Israel

Abeba Birhane, Senior Advisor in AI Accountability presso la Fondazione Mozilla

Ian Bremmer, Presidente e Fondatore di Eurasia Group

Anna Christmann, Coordinatrice del Settore Aerospaziale del Governo Federale Tedesco

Natasha Crampton, Chief Responsible AI Officer presso Microsoft

Nighat Dad, Direttrice Esecutiva della Digital Rights Foundation Pakistan

Vilas Dhar, Presidente della Patrick J. McGovern Foundation

Virginia Dignum, Professoressa di Intelligenza Artificiale Responsabile presso l’Università di Umeå

Arisa Ema, Professoressa Associata presso l’Università di Tokyo

Amandeep Singh Gill, Inviato del Segretario Generale dell’ONU per la Tecnologia

Mohamed Farahat, Consulente Legale & Vicepresidente del MAG del North Africa IGF

Wendy Hall, Professoressa Regia di Informatica presso l’Università di Southampton

Rahaf Harfoush, Antropologa Digitale

Hiroaki Kitano, CTO presso Sony Group Corporation

Haksoo Ko, Presidente della Personal Information Protection Commission (PIPC) della Repubblica di Corea

Andreas Krause, Professore presso l’ETH Zurich

James Manyika, Senior Vice Presidente di Google-Alphabet, Presidente per la Ricerca, Tecnologia e Società

Maria Vanina Martinez Posse, Ramon e Cajal Fellow presso l’Artificial Research Institute (IIIA-CSIC)

Seydina Moussa Ndiaye, Docente presso l’Università Digitale Cheikh Hamidou Kane

Mira Murati, Chief Technology Officer di OpenAI

Petri Myllymaki, Professore Ordinario presso il Dipartimento di Informatica dell’Università di Helsinki

Alondra Nelson, Professoressa Harold F. Linder presso l’Institute for Advanced Study

Nazneen Rajani, Responsabile Ricerca presso Hugging Face

Craig Ramlal, Responsabile del Gruppo di Controllo dei Sistemi presso l’Università delle Indie Occidentali a St. Augustine

He Ruimin, Chief Artificial Intelligence Officer & Vice Chief Digital Technology Officer, Governo di Singapore

Emma Ruttkamp-Bloem, Professoressa presso l’Università di Pretoria

Sharad Sharma, Co-fondatore della Fondazione iSPIRT

Marietje Schaake, Direttore di Politica Internazionale presso il Cyber Policy Center dell’Università di Stanford

Jaan Tallinn, Co-fondatore del Cambridge Centre for the Study of Existential Risk

Philip Thigo, Consigliere presso il Governo del Kenya

Jimena Sofia Viveros Alvarez, Capo di Gabinetto e Consigliera Legale del Giudice Loretta Ortiz presso la Corte Suprema Messicana

Yi Zeng, Professore e Direttore del Brain-inspired Cognitive AI Lab, Accademia Cinese delle Scienze

Zhang Linghan, Professore presso l’Istituto di Diritto dei Dati, Università Cinese di Scienze Politiche e Diritto

Papa Francesco sceglie l’Intelligenza Artificiale come tema della Giornata delle Comunicazioni Sociali 2024

La straordinaria importanza dell’Intelligenza Artificiale in questo periodo è testimoniata anche dall’attenzione che il Vaticano dedica a questa materia. L’attenzione della Santa Sede per le implicazioni etiche dell’IA è costante, volta a promuovere una riflessione etica sull’uso degli algoritmi, con un’attenzione particolare alla tutela della dignità umana.

Non è un caso allora che per la 58^ Giornata Mondiale delle Comunicazioni Sociali che si celebrerà il prossimo 12 maggio 2024 il tema scelto da Papa Francesco sia proprio questo: “Intelligenza artificiale e sapienza del cuore: per una comunicazione pienamente umana”.

Nel renderlo noto dalla Sala Stampa vaticana, si sottolinea che “l’evoluzione dei sistemi di intelligenza artificiale rende sempre più naturale comunicare attraverso e con le macchine, in modo che è diventato sempre più difficile distinguere il calcolo dal pensiero, il linguaggio prodotto da una macchina da quello generato dagli esseri umani”.

“Come tutte le rivoluzioni anche questa basata sull’intelligenza artificiale, pone nuove sfide affinché le macchine non contribuiscano a diffondere un sistema di disinformazione a larga scala e non aumentino anche la solitudine di chi già è solo, privandoci di quel calore che solo la comunicazione tra persone può dare”, si legge ancora nella nota vaticana, che sottolinea l’importanza “di guidare l’intelligenza artificiale e gli algoritmi, perché vi sia in ognuno una consapevolezza responsabile nell’uso e nello sviluppo di queste forme differenti di comunicazione che si vanno ad affiancare a quelle dei social media e di Internet“.   

Proprio per questo da Papa Francesco (che pure è stato una delle star delle immagini generate dall’IA) vengono costanti sollecitazioni per un dialogo aperto sul significato delle nuove tecnologie, dotate di potenzialità dirompenti e di effetti ambivalenti, con richiami alla “necessità di vigilare e di operare affinché non attecchisca una logica di violenza e di discriminazione nel produrre e nell’usare tali dispositivi, a spese dei più fragili e degli esclusi: ingiustizia e disuguaglianze alimentano conflitti e antagonismi”.

Intelligenza Artificiale e Sanità

Il mercato globale dell’Intelligenza Artificiale nel settore sanitario è destinato a un’esplosione senza precedenti, con stime che proiettano un valore di quasi 188 miliardi di dollari entro il 2030. Rispetto agli 11 miliardi di dollari del 2021, questo tasso di crescita annuo del 37% riflette i considerevoli vantaggi che l’IA apporta al settore sanitario. Tra questi, la riduzione dei costi e il miglioramento del supporto ai medici nell’analisi diagnostica dei pazienti emergono come driver chiave.

Attualmente, il 94% delle organizzazioni sanitarie sfrutta l’IA o il Machine Learning, mentre il 40% dei dirigenti sanitari prevede un aumento degli investimenti nei prossimi cinque anni. Questa crescente adozione rivela il ruolo centrale dell’IA nell’automazione del settore, anticipando un mercato globale dell’IA nel settore sanitario che raggiungerà i 188 miliardi di dollari entro il 2030, con l’obiettivo di migliorare la vita dei pazienti e ridurre i costi.

L’IA emerge come una leva cruciale per ridurre i costi di dimissione, stimati a circa 16 miliardi di dollari, e migliorare l’efficienza nel monitoraggio delle unità di terapia intensiva, con potenziali risparmi di circa 323.000 dollari per letto. Nel settore farmaceutico, l’AI potrebbe ridurre i costi legati alla scoperta di farmaci di oltre 70 miliardi di dollari entro il 2028, grazie all’accelerazione dello sviluppo di nuovi farmaci mediante algoritmi di Machine Learning.

L’Intelligenza Artificiale sta rivoluzionando la fornitura di servizi sanitari, rendendo il sistema più efficiente e apportando benefici tangibili a pazienti, medici e fornitori di servizi. Abilitando i professionisti sanitari a risparmiare tempo e ottenere rapidamente informazioni cliniche, l’AI supporta diagnosi più precise e decisioni più informate, riducendo potenzialmente gli errori del 86% e contribuendo a salvare oltre 250.000 vite all’anno.

L’Intelligenza Artificiale si dimostra preziosa anche nel supportare decisioni mediche, come evidenziato da studi che mostrano miglioramenti nella diagnosi di patologie come il carcinoma mammario. Un incremento del 44% nell’efficienza nella lettura delle mammografie è solo uno dei tanti esempi di come l’IA possa alleggerire il carico di lavoro dei medici.

La risposta positiva dei pazienti all’AI è evidente, con la maggior parte che si sente a proprio agio nell’interagire con assistenti virtuali per ottenere informazioni sui farmaci, inviare report ai medici e prenotare visite.

In definitiva le applicazioni dell’Intelligenza Artificiale nel settore sanitario rappresentano un’opportunità di trasformare il panorama medico in modo più efficiente e centrato sui pazienti, offrendo benefici significativi sia in termini di salute che di risparmio di costi.

Papa Francesco: perché è la star delle foto generate dall’intelligenza artificiale

Papa Francesco è diventato uno dei personaggi preferiti tra coloro che si divertono a generare immagini con l’aiuto degli strumenti di Intelligenza Artificiale rappresentato nei contesti più impensabili o negli scenari più improbabili. Ed ecco allora che lo vediamo indossare un lungo piumino bianco ispirato a Balenciaga, a cavallo di una moto, a ballare in discoteca e rappresentato con le braccia tatuate, vestito da rapper, all’interno di una sala pesi e via dicendo.

E’ così che sono apparse decine di foto che mostrano il Santo Padre negli scenari più inimmaginabili, scatenando un effetto domino sui social media e provocando una corsa per ritrarre Papa Bergoglio in situazioni sempre più strane. A parte il Pontefice stesso, le immagini hanno tutte qualcosa in comune: sono tutte false, realizzate da strumenti di intelligenza artificiale che creano immagini da brevi suggerimenti di testo.

La prevalenza di Papa Francesco nelle immagini generate dall’intelligenza artificiale è il risultato di una tempesta perfetta di fattori, primo fra tutti la sua riconoscibilità: 10 anni alla guida della Chiesa cattolica lo hanno fatto diventare un come personaggio globale, immediatamente riconoscibile in tutto il mondo. Ha poi un’immagine più accessibile rispetto al suo predecessore che aveva invece un carattere più spigoloso e distante.

Papa Francesco è quindi il personaggio ideale, anche perché è noto per la sua semplicità e la sua solidarietà con i più poveri tra i poveri. E proprio per questo quando è inserito in contesti fantasiosi è in grado di scatenare una curiosità incredibile.

L’immagine che ha trasformato Francis in una star dell’intelligenza artificiale lo mostra con un piumino bianco in stile di Balenciaga, mentre cammina a grandi passi per la strada è stata visualizzata più di 20 milioni di volte. 

Intelligenza Artificiale e creazione di immagini

I programmi di Intelligenza Artificiale hanno ormai raggiunto livelli incredibili nella creazione delle immagini. L’IA generativa consente infatti la la creazione di immagini, disegni e illustrazioni ad alta definizione utilizzando descrizioni testuali. È infatti sufficiente scrivere una parola chiave o un testo e l’algoritmo crea un’immagine personalizzata che rappresenta il concetto espresso. L’utente ha la possibilità di specificare lo stile, il colore, la prospettiva e altri dettagli per personalizzare la sua immagine.

Alcuni sistemi, come Midjourney, usano la Generative Adversarial Network (GAN), una rete neurale composta da due moduli chiamati generatore e discriminatore. Il primo è adibito alla produzione delle immagini dal testo, mentre il secondo valuta se le immagini sono realistiche. L’interazione tra i due moduli porta al miglioramento delle prestazioni per la produzione di immagini sempre più precise.

Dall’editing fotografico avanzato alle soluzioni di generazione di immagini, l’IA offre nuove prospettive creative per artisti, designer e creatori di contenuti, consentendo il miglioramento automatico delle immagini, dalla correzione del colore alla rimozione di imperfezioni, offrendo risultati sorprendenti e creando al tempo stesso un’esperienza visiva altamente personalizzata.

Tuttavia, con il potenziale innovativo possono anche emergere anche dei rischi significativi come la manipolazione dell’identità, perché l’IA rende possibile la creazione di foto fake realistiche di personaggi famosi, come è successo all’ex Presidente degli Stati Uniti Donald Trump o anche a Papa Francesco, sollevando preoccupazioni sulla manipolazione dell’identità e la diffusione di informazioni false.

I rischi di abuso possono riguardare, oltre all’eventuale creazione di supporti visivi a supporto delle fake news, anche la sfera reputazionale dei singoli cittadini, mettendone a rischio la privacy, fino a raggiungere quel confine dove la capacità delle società in generale di distingue la differenza tra realtà e finzione assume dei contorni sfocati. E, da questo punto di vista, i rischi possono essere significativi quando si tratta di personaggi famosi o di personalità di primo piano.

Affrontare le straordinarie opportunità offerte dall’IA nella creazione di immagini richiede un approccio bilanciato in grado di combinare l’innovazione tecnologica con un utilizzo non tanto regolamentato quanto etico per garantire che l’IA contribuisca positivamente al nostro mondo visivo senza compromettere verità, integrità e dignità della persona.

Gli impatti dell’IA generativa nel business

Da quando è stato rilasciato ChatGPT, il chatbot basato sul linguaggio di OpenAI, ormai un anno fa, nel novembre 2022, i tool di intelligenza artificiale e generativa sono cresciuti rapidamente, sviluppando funzionalità e applicazioni, riuscendo a coinvolgere un numero sempre maggiore di utilizzatori.

Secondo un report di Insider Intelligence, il 25% degli utenti internet negli Stati Uniti, quasi 80 milioni di persone, avrà utilizzato tool di Intelligenza Artificiale entro la fine del 2023. Un fenomeno che non si limita solo agli Usa ma che può definirsi globale complice anche il fatto che dal rilascio iniziale, la funzionalità dei modelli generativi di IA è notevolmente migliorata rendendola quindi più accessibile.

Proprio quest’accessibilità renderà questa tecnologia trasformativa, come lo sono stati i microprocessori, il web e gli smartphone. Con una differenza sostanziale. Queste sono tecnologie che hanno richiesto anni per prendere piede mentre sembra che il ritmo di adozione e di sviluppo dell’IA sia esponenziale con immaginabili ripercussioni anche nel business.

Goldman Sachs stima che il contributo dell’IA potrebbe aggiungere in 10 anni un 7% di prodotto interno lordo all’economia globale, influenzando tutta una serie di settori, dalla ricerca alle scienze, dalla medicina alla tecnologia. Inoltre, con la capacità creativa che ha già dimostrato, l’IA generativa sarà in grado di intervenire in quelle attività lavorative che un tempo pensavamo fossero intoccabili dalla tecnologia. Basti pensare alla capacità dell’IA di generare video, foto, immagini e anche audio, con un impatto anche nel settore audio e della musica.

Sempre Goldman Sachs stima che almeno un quarto dei lavori negli Stati Uniti e in Europa potrebbe essere automatizzato dall’IA generativa su cui peraltro si sta investendo moltissimo mentre, secondo dati riportati da CB Insights solo nella prima metà del 2023 gli investimenti in start-up IA sono aumentati di 5 volte, raggiungendo la cifra di 14 miliardi di dollari rispetto ai 2,5 miliardi nel 2022.

Libri. Scacco matto all’AI. Come le aziende all’avanguardia stravincono con l’intelligenza artificiale

Dall’autore di bestseller della letteratura manageriale e dal responsabile della divisione AI di Deloitte negli Stati Uniti, uno sguardo affascinante sulle aziende all’avanguardia che utilizzano l’intelligenza artificiale per creare nuovi vantaggi competitivi.

Sebbene la maggior parte delle organizzazioni stia scommettendo in modo modesto sull’intelligenza artificiale, esiste un gruppo di imprese di rilevanza mondiale che stanno puntando tutto su questa tecnologia e trasformando radicalmente i propri prodotti, processi, strategie, relazioni con i clienti e persino la propria cultura. Sebbene queste organizzazioni rappresentino meno dell’uno per cento delle grandi imprese, sono tutte aziende di alto livello nei rispettivi settori. Hanno modelli di business migliori, prendono decisioni migliori, hanno rapporti migliori con i clienti, offrono prodotti e servizi migliori e spuntano prezzi più alti.

Scacco matto con l’AI” analizza l’intelligenza artificiale all’avanguardia dal punto di vista di aziende affermate come Anthem, Ping An, Airbus e Capital One.

Ricco di approfondimenti, strategie e best practice, il libro fornisce ai leader e ai loro team le informazioni necessarie per aiutare le proprie aziende a portare l’intelligenza artificiale a un livello successivo.

Se siete curiosi di conoscere la prossima fase dell’implementazione dell’intelligenza artificiale all’interno delle imprese, o se state cercando di impiegare voi stessi questa potente tecnologia in modo più robusto, il lavoro di Davenport e Mittal vi offrirà una vista dall’interno su ciò
che stanno facendo i principali adottatori dell’intelligenza artificiale, fornendovi al contempo gli strumenti per mettere questa potente tecnologia al centro di tutto ciò che fate.

Scacco matto con l’AI: Come le aziende all’avanguardia stravincono con l’intelligenza artificiale di Thomas H. Davenport e Nitin Mittal, Egea Editore, 236 pagine, euro 32,00

Compralo su Amazon

AI Act: l’UE verso la regolamentazione dell’Intelligenza Artificiale

L’Intelligenza Artificiale (AI) sta trasformando il nostro mondo con una velocità ed una modalità senza precedenti. Questo crescente utilizzo dell’AI ha tuttavia sollevato preoccupazioni riguardo al suo impatto sui diritti e sulle libertà fondamentali, al punto da spingere l’Unione Europea (UE) a compiere un passo significativo per la sua regolamentazione, con l’adozione, lo scorso 14 giugno, dell’Artificial Intelligence Act.

L’AI Act approvato dal Parlamento europeo, punta a trasformare l’Europa in un hub globale per sistemi di Intelligenza Artificiale affidabili, stabilendo norme armonizzate che disciplinino lo sviluppo, la commercializzazione e l’uso di questa tecnologia nell’UE. 

La legge sull’Intelligenza Artificiale mira a garantire che i sistemi di intelligenza artificiale nell’UE siano sicuri e rispettino i diritti e i valori fondamentali, ponendo nuove restrizioni su quelli che sono considerati gli usi più rischiosi della tecnologia, prevedendo ad esempio lo stop all’uso del software di riconoscimento facciale in tempo reale.

Il disegno di legge europeo adotta un approccio basato sul rischio per regolamentare l’IA, concentrandosi sulle applicazioni con il maggior potenziale di danno. Ciò includerebbe i casi in cui i sistemi di intelligenza artificiale vengono utilizzati per gestire infrastrutture critiche come l’acqua o l’energia, nel sistema legale e nel determinare l’accesso ai servizi pubblici e ai benefit governativi, prevedendo che i produttori di tecnologia dovrebbero condurre valutazioni dei rischi prima di metterla nell’uso quotidiano, in modo simile al processo di approvazione dei farmaci.

Una delle principali aree di dibattito è, come già detto, l’uso dei software di riconoscimento facciale. Il Parlamento europeo ha votato per vietare l’uso del riconoscimento facciale dal vivo, ma rimangono dubbi sull’opportunità di consentire esenzioni per la sicurezza nazionale e altri scopi di applicazione della legge.

Un’altra disposizione vieterebbe alle aziende di raccogliere dati biometrici dai social media per creare database, una pratica che ha attirato l’attenzione dopo che la società di riconoscimento facciale Clearview AI  l’ha utilizzata.

Dopo il voto del giugno scorso, la versione finale della legge sarà negoziata dai rappresentanti dei tre rami dell’Unione europea: Parlamento europeo, Commissione europea e Consiglio dell’Unione europea. L’obiettivo comune è quello di raggiungere un accordo definitivo entro la fine dell’anno.

Vedremo quali saranno gli sviluppi anche se l’Unione europea, nell’interesse di tutti gli Stati membri, dovrebbe evitare normative eccessivamente ampie che inibiscano l’innovazione. Non è per nulla chiaro tra l’altro quanto possa essere efficace qualsiasi regolamentazione dell’intelligenza artificiale considerato che, come sempre succede con la tecnologia, le innovazioni della stessa stanno emergendo più velocemente di quanto i legislatori (non solo europei ma di qualsiasi Paese) siano in grado di affrontarle.

In ogni caso se anche l’UE avrà le capacità di diventare leader nella regolamentazione dell’intelligenza artificiale, difficilmente sarà in grado di guidare l’innovazione dell’intelligenza artificiale nella quale la partita è a due, tra gli Stati Uniti, attuale leader indiscusso nello sviluppo dell’IA e la Cina, con il Governo di Pechino che sta investendo pesantemente nella ricerca e nello sviluppo dell’IA.

L’alfabeto dell’Intelligenza Artificiale

A – Algoritmo:

Un insieme di istruzioni o regole sequenziali progettate per risolvere un problema o eseguire una specifica attività.

B – Bias:

Deviazione sistematica nei risultati di un modello di intelligenza artificiale dovuta a pregiudizi o disuguaglianze nei dati di addestramento.

C – Cluster Analysis:

Una tecnica di analisi dei dati in cui gli elementi vengono suddivisi in gruppi o “cluster” in base a somiglianze o caratteristiche comuni.

D – Deep Learning:

Una sotto-categoria del machine learning che utilizza reti neurali profonde per apprendere da dati complessi, riconoscere pattern e prendere decisioni avanzate.

E – Ensamble Learning:

Una tecnica in cui più modelli di machine learning vengono combinati per migliorare le prestazioni complessive del sistema.

F – Feature Engineering:

Il processo di selezione o creazione di caratteristiche (features) rilevanti per migliorare le prestazioni di un modello di machine learning.

G – Generative Adversarial Network (GAN):

Un tipo di rete neurale utilizzato per generare dati nuovi, spesso utilizzato nell’arte generativa e nella creazione di contenuti visivi.

H – Hyperparameter:

Un parametro esterno al modello di machine learning che influisce sul processo di addestramento e sulla capacità del modello di generalizzare.

I – Internet of Things (IoT):

La connessione di dispositivi fisici alla rete, consentendo la raccolta e lo scambio di dati in tempo reale.

J – JSON (JavaScript Object Notation):

Un formato di scrittura per lo scambio di dati leggibile dagli esseri umani e facile da interpretare per le macchine.

K – K-Means Clustering:

Un algoritmo di clustering che divide un insieme di dati in gruppi (clusters) basati sulla loro somiglianza.

L – Latent Variable:

Una variabile che non è direttamente osservabile ma è inferita da altre variabili osservabili nel modello.

M – Natural Language Processing (NLP):

Un campo di studio dell’intelligenza artificiale che si occupa dell’interazione tra computer e linguaggio umano, consentendo alle macchine di comprendere, interpretare e generare testo.

N – Neural Network:

Un modello computazionale ispirato alla struttura del cervello umano, utilizzato in deep learning per l’elaborazione di informazioni e la risoluzione di problemi complessi.

O – Overfitting:

Un problema in machine learning in cui un modello si adatta troppo bene ai dati di addestramento, perdendo la sua capacità di generalizzare su nuovi dati.

P – Precision and Recall:

Metriche di valutazione delle prestazioni di un modello, rispettivamente, la precisione misura la percentuale di risultati positivi corretti, mentre il richiamo misura la capacità del modello di identificare tutti i risultati positivi.

Q – Quantum Computing:

Un paradigma di calcolo che sfrutta i principi della meccanica quantistica, consentendo una potenza di calcolo significativamente superiore rispetto ai computer classici.

R – Reinforcement Learning:

Un paradigma di apprendimento automatico in cui un agente impara a compiere azioni in un ambiente per massimizzare una ricompensa.

S – Support Vector Machine (SVM):

Un algoritmo di apprendimento supervisionato utilizzato per la classificazione e la regressione.

T – Transfer Learning:

Una tecnica di machine learning in cui un modello pre-addestrato viene utilizzato come punto di partenza per un nuovo compito, accelerando il processo di addestramento.

U – Unsupervised Learning:

Una categoria di machine learning in cui il modello impara da dati non etichettati, cercando pattern e relazioni senza guida esterna.

V – Validation Set:

Un set di dati utilizzato per valutare le prestazioni di un modello durante il processo di addestramento, ma non per addestrarlo effettivamente.

W – Word Embedding:

Una tecnica di rappresentazione del linguaggio naturale in cui le parole vengono tradotte in vettori numerici, preservando le relazioni semantiche tra di loro.

X – XGBoost:

Una libreria di machine learning basata su algoritmi di boosting, spesso utilizzata per problemi di classificazione e regressione.

Y – Yield Curve Prediction:

Un’applicazione di machine learning nella finanza che prevede l’andamento futuro delle curve dei rendimenti.

Z – Zero-Shot Learning:

Un approccio di machine learning in cui un modello è in grado di affrontare compiti per i quali non è stato esplicitamente addestrato, utilizzando le conoscenze apprese in altre situazioni.


La tua iscrizione non può essere convalidata. Controlla i dati inseriti e riprova.
La tua iscrizione alle newsletter settimanale di Rivista.AI è avvenuta correttamente.

Newsletter Rivista.AI

Iscriviti alla nostra newsletter settimanale per rimanere sempre aggiornato su tutte le ultime news sull’Intelligenza Artificiale.

Utilizziamo Brevo come piattaforma di marketing. Inviando questo modulo, accetti che i dati personali da te forniti vengano trasferiti a Brevo per il trattamento in conformità all’Informativa sulla privacy di Brevo.

Pagina 5 di 5

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie