Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Autore: Fabio Ricceri

YouTube lancia Dream Track per creare musica con l’Intelligenza Artificiale

YouTube ha svelato un nuovo esperimento di applicazione dell’Intelligenza Artificiale alla musica in collaborazione con il laboratorio DeepMind di Google. Uno di questi in particolare, offre agli utenti la possibilità di generare frammenti di canzoni originali, con una durata massima di 30 secondi, utilizzando l’Intelligenza Artificiale per clonare la voce dell’artista prescelto.

Dream Track, questo il nome dell’esperimento di cui parliamo, che si trova su YouTube Shorts, è realizzato in collaborazione con 9 artisti, tra cui Demi Lovato, John Legend, Alec Benjamin, Charlie Puth, Sia, Charli XCX, Papoose, T-Pain e Troye Sivan, che hanno accettato di partecipare a questo innovativo esperimento.

Dream Track è alimentato da Lyria, il modello di generazione musicale più avanzato di Google DeepMind, e al momento è accessibile solo a un piccolo gruppo di artisti e creatori.

Il funzionamento è semplice: gli utenti inseriscono un’idea nel prompt di creazione, selezionano un artista partecipante, et voilà, ottengono un frammento di canzone unico generato dall’intelligenza artificiale con la voce e lo stile di quell’artista.

Secondo Lyor Cohen, responsabile di YouTube per la musica, e Toni Reid, vicepresidente delle esperienze emergenti e dei prodotti per la comunità, l’obiettivo di questo esperimento è esplorare come la tecnologia può creare connessioni più profonde tra gli artisti, i creatori e i loro fan. I dirigenti hanno paragonato il progresso dell’intelligenza artificiale nella musica all’impacto del sintetizzatore, che ha trasformato la musica elettronica e rock.

YouTube ha condiviso esempi di tracce generate, come una frase melodica di “Charlie Puth” basata sulla richiesta di “Una ballata sugli opposti che si attraggono“.

Allo stesso modo, è stata creata un’anteprima di Dream Track per T-Pain, ispirata dalla descrizione “Una mattina soleggiata in Florida, R&B“.

Tuttavia, l’uso dell’intelligenza artificiale per imitare voci e stili artistici ha sollevato e continua a sollevare dubbi e perplessità, per i possibili abusi.

Uno degli esempi più noti è Heart on My Sleeve, una canzone con voci create dall’intelligenza artificiale che si spacciavano per Drake e The Weeknd. La canzone è stata ritirata dai servizi di streaming dopo che Universal Music Group, la casa discografica di entrambi gli artisti, l’ha criticata per “contenuti illeciti creati con l’IA generativa“. Tuttavia, la canzone è ancora accessibile agli ascoltatori su YouTube.

https://www.youtube.com/watch?v=pIJSKxVJppA

In risposta, YouTube ha adottato nuove politiche che non solo richiedono ai creator di indicare quando caricano contenuti generati dall’intelligenza artificiale, ma anche la possibilità per le case discografiche di richiedere la rimozione dei brani che utilizzano versioni generate dall’intelligenza artificiale delle voci degli artisti senza autorizzazione.

L’entusiasmo degli artisti coinvolti è palpabile. “Lo sviluppo della tecnologia AI sta cambiando rapidamente il modo in cui ci muoviamo nel mondo, e credo che come artisti dobbiamo essere parte del futuro“, ha dichiarato Demi Lovato in un comunicato. “La mia carriera è stata incentrata sul superamento dei confini… e sulla creazione della musica più interessante per i miei fan. Sono aperta e spero che questo esperimento con Google e YouTube sia un’esperienza positiva e illuminante“.

Charlie Puth ha dichiarato: “Sono estremamente emozionato e ispirato… YouTube è stato un grande partner nel delineare il proprio approccio all’IA e comprende la necessità di lavorare insieme per sviluppare questa tecnologia in modo responsabile, assicurandosi che acceleri la creatività invece di sostituirla“.

Da parte sua, T-Pain ha dichiarato: “Ho sempre voluto spingermi oltre i confini della tecnologia e sfruttarla per creare la musica più interessante per i miei fan. Chissà cosa ci riserva il futuro, ma unire le mani con YouTube e Google per contribuire a plasmare quel futuro mi sembra un ottimo primo passo“.

YouTube sottolinea l’importanza di affrontare responsabilmente l’intelligenza artificiale, riconoscendo che si tratta di una tecnologia destinata ad amplificare la creatività umana, non a sostituirla. Quel che è certo è che quando innovazione tecnologica, creatività umana e musica si incontrano, possono accadere cose straordinarie. 

Prompt Chat GPT per scrivere un articolo Seo ottimizzato

Scrivere un articolo Seo con l’aiuto di Chat GPT è abbastanza semplice, basta utilizzare il giusto Prompt. Vediamolo nel dettaglio:

Prompt: “Sei un esperto content strategist, specializzato in SEO per la nicchia [la tua nicchia]. Realizza un post per un blog che sia ottimizzato per i motori di ricerca e che porti traffico organico a un sito web.

Fornisci consigli pratici e strategie per scrivere post di blog SEO-friendly, tra cui la ricerca di parole chiave, titoli adeguati, meta-descrizioni e meta-titoli. Struttura il post con un’introduzione, sezioni informative e una conclusione. Usa un tono colloquiale ma autorevole per coinvolgere i lettori e trasmettere competenza in [argomento]”.

Ovviamente un singolo post/articolo da solo non può bastare, possiamo chiedere a Chat GPT di aiutarci a creare un calendario editoriale strutturato

Prompt: “Crea un piano editoriale per il mese di dicembre 2023 per un blog di [argomento] all’interno di una tabella che sia suddivisa in 7 colonne, dove in ogni colonna sia presente: titolo dell’articolo, keyword principale, keyword secondarie e correlate, categoria, tag, data di pubblicazione”.

Proviamo:

Possiamo anche chiedere a Chat GPT di suggerirci nuove idee per i contenuti del nostro blog. Vediamo come:

Prompt: “Fai una lista di 10 argomenti che posso sviluppare nel mio blog sull’Intelligenza Artificiale”

Questo il risultato:

E’ infine possibile utilizzare Chat GPT per rivedere un testo già pronto e soprattutto di ottimizzare il contenuto in ottica Seo per una determinata keyword.

Prompt: “Ottimizza questo testo in ottica SEO per la keyword [“Inserire la keyword”]: “[Testo da ottimizzare]

Se non abbiamo chiare in mente le keyword più appropriate per il nostro blog, anche in questo caso possiamo chiedere aiuto a Chat GPT in questo modo:

Prompt: “Suggerisci parole chiave principali, secondarie e correlate per un articolo su [argomento]”

Vale poi sempre ricordarsi che più dettagliate sono le nostre richieste, migliore sarà la risposta che Chat GPT sarà in grado di fornirci. 

ll futuro della cardiologia: Susan-Gpt-4 rivela come l’Intelligenza Artificiale sta rivoluzionando la medicina

Provate ad immaginate un futuro in cui l’Intelligenza Artificiale applicata alla medicina sarà così normale da far si che ci si possa trovare davanti non un medico vero e proprio, in carne ed ossa intendo, ma un avatar, un chat bot virtuale. Ebbene non c’è bisogno di immaginarlo perché il futuro è già qui. Bastava essere presenti all’ultimo convegno dedicato alle malattie cardiovascolari e alla cura del cuore organizzato dall’ospedale Molinette di Torino per rendersene conto.

La guest star dell’evento, se così possiamo definirla, è stata infatti proprio un algoritmo, sviluppato da Chat GPT che, assumendo le sembianze di un’avatar, ha presentato le potenzialità dell’AI in ambito medico, rispondendo alle domande di una squadra internazionale di professori e medici: Gaetano Maria De Ferrari, direttore della Cardiologia universitaria delle Molinette, Amedeo Chiribiri di Londra, Amir Lerman della Mayo Clinic di Rochester USA ed il dottor Maurizio Roberto direttore della Cardiochirurgia di Cuneo.

L’avatar cardiologa ha accettato la proposta di De Ferrari di farsi chiamare Susan per la durata della sessione scientifica e ha chiarito che il suo ruolo e la sua capacità erano quelle di fornire risposte sulla base della consultazione di una smisurata banca dati mondiale aggiornata ad aprile 2023.

Ha altresì chiarito di non provare emozioni o sentimenti in prima persona, ma di capire le emozioni dell’uomo e di poter fornire informazioni su emozioni ed esperienze umane.

Rispondendo a domande più specifiche, l’avatar cardiologa ha detto che l’Intelligenza Artificiale sta rapidamente rivoluzionando la medicina, indicando moltissimi campi di applicazione. Per quanto riguarda la cardiologia, Susan-Gpt-4 ha indicato settori specifici per i quali entro 5 anni nulla sarà come prima. Tra questi l’analisi dell’elettrocardiogramma, dove l’AI si è già dimostrata molto superiore all’uomo, l’analisi delle immagini diagnostiche come Tac, risonanza magnetica ed ecocardiogramma, l’ottimizzazione delle procedure interventistiche, quali l’ablazione della aritmie e l’impianto della valvola aortica ed anche la predizione del rischio nel singolo paziente.

Proprio in questo ultimo ambito peraltro, la Cardiologia dell’Ospedale Molinette di Torino ha, prima al mondo, sviluppato un punteggio per il rischio dopo infarto, proprio utilizzando la IA.

Susan ha anche sostenuto con forza la necessità che l’AI venga rapidamente inserita tra gli insegnamenti che si impartiscono agli studenti di Medicina ed ai neo-laureati che frequentano una scuola di specializzazione, segnalando come questi medici si troveranno ad operare in un sistema dove gli algoritmi di AI saranno utilizzati in ogni processo diagnostico ed operativo, ma con il rischio di non aver ricevuto alcuna educazione per capire le potenzialità e i limiti di questo approccio rivoluzionario, se non adeguatamente formati.

Nel corso del suo intervento Susan-Gpt-4 ha chiarito che in ogni ambito medico non potremo mai più fare a meno dell’AI, vigilando sulla correttezza del suo utilizzo e che l’uomo, in particolare il dottore empatico, che prova emozioni e le comunica al paziente ed allo studente, sarà sempre necessario sia per curare i malati che per insegnare ai giovani.

Seguiamo l’intervento:

Il Giappone passa la presidenza del G7 all’Italia. Tra gli obiettivi lavoro e Intelligenza Artificiale

Il Giappone ha passato l’8 novembre all’Italia la Presidenza del G7 (che ha durata annuale e ruota tra i paesi membri in base alla sequenza Stati Uniti, Regno Unito, Germania, Giappone, Italia, Canada, Francia): tra le attività già annunciate dall’Italia ci sarà una conferenza sul rapporto tra Intelligenza Artificiale e lavoro.

Una materia, quella dell’AI “sulla quale dobbiamo coinvolgere gli attori privati, perché costruire una governance dell’intelligenza artificiale non vuol dire lavorare contro le aziende, ma dialogare col mondo privato in un mondo in cui gli interessi pubblici e privati, entrambi legittimi, non sono sempre sovrapponibili e a volte sono in contrasto” il commento del presidente del Consiglio Giorgia Meloni al Comitato per la Transizione digitale a Palazzo Chigi.

Noi dobbiamo evitare” continua la Meloni “che aumenti il divario tra i ricchi e i poveri, che scompaia la classe media e che in definitiva l’impatto dell’intelligenza artificiale sia più negativo che positivo sulle nostre vite e sulle nostre società”.

Tra le priorità indicate dal presidente del Consiglio, quella di fare in modo che l’IA sia incentrata sull’uomo e controllata dall’uomo, lavorando “per garantire delle barriere etiche all’Intelligenza artificiale e dare applicazione pratica al concetto di algoretica, ovvero dare un’etica agli algoritmi” che ha chiuso ringraziando su questo punto Padre Paolo Benanti, docente all’Università Gregoriana, che è stato recentemente nominato dal Segretario Generale delle Nazioni Unite, unico italiano, come membro del Comitato di esperti sull’Intelligenza Artificiale.

Il G7 2024 si svolgerà dal 13 al 15 giugno in Puglia, nella Valle d’Itria, a Borgo Egnazia.

Samsung: l’Intelligenza Artificiale tradurrà le telefonate in tempo reale

Anche Samsung si lancia nel mondo dell’intelligenza artificiale. L’azienda sta lavorando alla sua IA che dovrebbe arrivare a inizio del 2024 ed essere resa disponibile sui telefoni più recenti. Tra le funzioni più interessanti che verranno abilitate un traduttore audio e testo delle telefonate in tempo reale, rendendo così più semplice effettuare una chiamata in un’altra lingua grazie all’AI generativa Gauss.

Sviluppata da Samsung Research, l’intelligenza artificiale generativa è composta da tre modelli: Samsung Gauss Language, Samsung Gauss Code e Samsung Gauss Image.

Il colosso tecnologico sudcoreano ha affermato che il suo modello di intelligenza artificiale prende il nome da Carl Friedrich Gauss, il matematico che stabilì la teoria della distribuzione normale, la spina dorsale dell’apprendimento automatico e dell’intelligenza artificiale.

Samsung Gauss incarnerà la nostra visione di sfruttare la potenza dell’intelligenza artificiale per migliorare la vita dei consumatori di tutto il mondo”, ha affermato un dirigente dell’azienda al Samsung AI Forum 2023 che si è tenuto questa settimana a Seul.

In particolare, la funzione di traduzione AI Live Translate Call metterà a disposizione degli utenti un traduttore personale ogni volta che ne avranno bisogno. Le traduzioni audio e testuali appariranno in tempo reale mentre si parla, rendendo estremamente semplice effettuare una chiamata in un’altra lingua.

Sebbene Samsung non abbia specificato la disponibilità della sua piattaforma AI al forum, gli esperti del settore si aspettano che l’IA on-device basata su Samsung Gauss sarà incorporata nella sua linea di smartphone di prossima generazione della serie Galaxy S24, il cui lancio è previsto per gennaio 2024.

Con il rilascio di Samsung Gauss, Samsung entra nell’arena dell’AI globale, preparandosi a competere seriamente con le Big Tech del settore.

Chat GPT fallisce il test di Touring

Non ce l’ha fatta: ChatGpt non ha superato il test di Turing, ideato per capire se una macchina ha raggiunto un livello di intelligenza tale da poter ingannare qualcuno facendogli credere di essere umana.

Ci è andata però molto vicino: nella sua versione più aggiornata, Gpt-4, è riuscita a ingannare i partecipanti il 41% delle volte. Il risultato è stato pubblicato sulla piattaforma arXiv, che ospita lavori non ancora passati al vaglio della comunità scientifica, da due ricercatori dell’Università della California a San Diego.

I due ricercatori Cameron Jones e Benjamin Bergen hanno arruolato 650 partecipanti per sostenere brevi conversazioni con altri volontari oppure con ChatGpt, a loro insaputa.

L’ultima versione Gpt-4, rilasciata dall’azienda OpenAI quest’anno, ha convinto i partecipanti di essere una persona il 41% delle volte, mentre la versione precedente, chiamata Gpt-3.5, solo dal 5% al 14% delle volte.

È interessante anche notare che gli esseri umani sono riusciti a convincere gli altri volontari di non essere delle macchine solo nel 63% delle prove.

Coloro che hanno smascherato correttamente ChatGpt si sono basati su alcuni fattori chiave: conversazioni troppo formali o, all’opposto, troppo informali, testi eccessivamente prolissi o molto sintetici, oppure anche una grammatica e una punteggiatura eccezionalmente buona o pessima, erano tutti elementi che facevano risuonare un segnale di ‘allarme’. Un’altra caratteristica rivelatrice è risultata la genericità della risposta. “Questi sistemi sono ottimizzati per produrre testi altamente probabili e per evitare opinioni controverse“, spiegano gli autori dello studio: “e ciò incoraggia risposte molto generiche, prive delle idiosincrasie tipiche di una persona“.

AI Safety Summit a Bletchley Park: la Gran Bretagna prova a guidare il dibattito globale sull’Intelligenza Artificiale

La Gran Bretagna ha deciso di ospitare il suo primo vertice globale sull’intelligenza artificiale, l’AI Safety Summit, a Bletchley Park, proprio nel sito considerato il luogo di nascita dell’informatica grazie ai progressi nei processi crittografici e di intelligence durante la Seconda Guerra Mondiale.

I timori sull’impatto che l’Intelligenza Artificiale potrebbe avere sulle economie e sulla società sono esplosi nel novembre dello scorso anno quando OpenAI ha reso disponibile al pubblico la sua tecnologia. ChatGPT, utilizzando strumenti di elaborazione del linguaggio naturale per creare un dialogo simile a quello umano, ha alimentato i timori (anche tra alcuni pionieri dell’intelligenza artificiale), che le macchine potrebbero col tempo raggiungere un’intelligenza maggiore rispetto agli umani, portando a conseguenze illimitate e non intenzionali.

Negli ultimi tempi si rileva un grande fermento sotto questo aspetto, con i Governi e la politica che stanno cercando di tracciare una via da seguire insieme alle aziende di intelligenza artificiale che temono dal canto loro di essere appesantite dalla regolamentazione prima ancora che la tecnologia raggiunga il suo pieno potenziale.

Mentre l’Unione Europea ha concentrato la sua supervisione sull’AI, l’AI Act, sui temi come la privacy, la sorveglianza dei dati e il loro potenziale impatto sui diritti umani – un po’ come fatto dall’amministrazione Biden con l’Ordine Esecutivo sull’AI – il vertice britannico ha invece come obiettivo principale quello di esaminare i cosiddetti rischi esistenziali derivanti da modelli generici altamente capaci chiamati “AI di frontiera”, anche perché la Gran Bretagna non ha in programma, almeno per il momento, una legislazione specifica per regolamentare l’Intelligenza Artificiale.

Il vertice, che si è tenuto il 1° e 2 novembre scorsi, nasce per volontà del primo ministro britannico Rishi Sunak, che vorrebbe ritagliare per la Gran Bratagna post-Brexit un ruolo come intermediario tra i blocchi economici di Stati Uniti, Cina e UE.

Anche se l’evento è stato un po’ offuscato dalla decisione della vicepresidente americana Kamala Harris di tenere un discorso a Londra proprio il giorno di inizio del summit sulla risposta del suo governo all’intelligenza artificiale, esponendo la sua visione su come il mondo dovrebbe governare questa tecnologia (e auspicando che tutti i Paesi aderiscano all’approccio USA su questa tematica), il Summit ha comunque avuto il merito di coinvolgere anche la Cina, un partecipante chiave al vertice, dato il ruolo del Paese nello sviluppo dell’Intelligenza Artificiale, sia pure con il solito doppio standard di Pechino.

Alla fine, sebbene ogni delegazione presente fosse ansiosa di rivendicare la propria preminenza nella regolamentazione dell’IA, i rappresentanti dei 25 Paesi partecipanti, assieme ad altri attori pubblici e privati, tra cui il segretario generale dell’Onu, Antònio Guterres e la presidente della Commissione europea, Ursula Von der Leyen, hanno firmato la “Dichiarazione di Bletchley” in cui si afferma che i Paesi devono lavorare insieme e stabilire un approccio comune sulla supervisione.

La dichiarazione definisce un’agenda su due fronti incentrata sull’identificazione dei rischi di preoccupazione condivisa e sulla costruzione della loro comprensione scientifica, sviluppando allo stesso tempo politiche transnazionali per mitigarli.

Difficile in ogni caso dire se la Gran Bretagna a guida Sunak possa davvero riuscire a ritagliarsi un ruolo nella corsa a mettere il cappello sulla regolamentazione di un tema come quello dell’Intelligenza Artificiale dove ognuno, singoli Paesi come gli USA ma anche organizzazioni, come l’Onu, l’UE e il G7 vogliono affermare la propria leadership.

Kamala Harris ruba la scena a Rishi Sunak. Gli USA vogliono scrivere le regole dell’AI

Mentre l’evento clou sul tema dell’Intelligenza Artificiale organizzato dal primo ministro britannico Rishi Sunak prendeva il via mercoledì scorso (1° novembre) a Bletchley Park, 50 miglia più a sud presso l’ambasciata americana a Londra, il vicepresidente americano Kamala Harris ha esposto la sua visione su come il mondo dovrebbe governare questa tecnologia, annunciando una serie di nuove iniziative degli USA per promuovere un uso sicuro e responsabile dell’IA.

Un intervento quello della Harris – preceduto dall’Ordine Esecutivo in materia di AI firmato dal Presidente Joe Biden il 30 ottobre – che ha messo un po’ in ombra l’AI Safety Summit inglese, volto a dimostrare al mondo la leadership degli Stati Uniti su questa tecnologia e a ribadire la volontà di Washington di voler dettare le regole in tema di Intelligenza Artificiale.

Nel suo discorso la vicepresidente Kamala Harris ha invitato i leader mondiali ad affrontare le minacce che l’intelligenza artificiale rappresenta per i diritti umani e i valori democratici ed ha annunciato le misure che l’amministrazione Biden adotterà per gestire i rischi e le sfide normative della tecnologia emergente.

In particolare, la Harris ha posto l’enfasi sulla tutela dei consumatori e su come l’intelligenza artificiale potrebbe esacerbare le disuguaglianze esistenti affermando che i programmi di intelligenza artificiale possono produrre risultati distorti che discriminano in base alla razza, al sesso o all’età.

“Come la storia ha dimostrato, in assenza di regolamentazione e di una forte supervisione da parte del governo, alcune aziende tecnologiche scelgono di dare priorità al profitto rispetto al benessere dei propri clienti, alla sicurezza delle nostre comunità e alla stabilità delle nostre democrazie”, ha concluso la Harris, annunciando poi alcune misure aggiuntive che gli Stati Uniti stanno adottando per arricchire e sviluppare l’Ordine Esecutivo in materia di AI di Biden tra i quali la creazione di un “Istituto per la sicurezza dell’intelligenza artificiale”, che creerebbe standard per testare la sicurezza dei modelli di intelligenza artificiale per uso pubblico e nuove linee guida per le agenzie federali per garantire che la tecnologia venga utilizzata in futuro per il bene pubblico.

Un futuro in cui l’IA sia utilizzata per promuovere i diritti umani e la dignità umana, in cui la privacy sia protetta e le persone abbiano pari accesso alle opportunità, in cui rendiamo le nostre democrazie più forti e il nostro mondo più sicuro.

“Prima che l’IA generativa conquistasse l’attenzione mondiale, il Presidente Biden e io” ha aggiunto il vicepresidente americano, “abbiamo riunito i leader di tutto il Paese, dagli informatici agli attivisti per i diritti civili, ai leader aziendali e agli studiosi di diritto, per garantire che i benefici dell’IA siano condivisi in modo equo e per affrontare le minacce prevedibili, tra cui i deep fake, le violazioni della privacy dei dati e la discriminazione algoritmica”.

“Abbiamo poi creato la Carta dei diritti dell’intelligenza artificiale” continua la Harris sottolinenando come l’amministrazione Biden si sia impregnata ad istituire un programma nazionale di segnalazione sull’uso non sicuro dell’IA negli ospedali e nelle strutture mediche, a promuovere la creazione da parte delle aziende tecnologiche di strumenti per aiutare i consumatori a distinguere se i contenuti audio e visivi sono generati dall’IA e prevedendo un obbligo per gli sviluppatori di presentare al governo degli Stati Uniti i risultati dei test sulla sicurezza dell’IA.

La Harris ha poi rimarcato come la sua amministrazione stia prendendo provvedimenti per stabilire i requisiti affinché il governo degli Stati Uniti, quando utilizza l’IA, promuova l’interesse pubblico, auspicando che queste politiche nazionali sull’IA servano da modello per tutte le politiche globali e rendendo quindi chiara l’intenzione degli Stati Uniti di rimanere l’egemone tecnologico mondiale e scrivere le proprie regole del gioco.

“Cerchiamo di essere chiari: quando si tratta di intelligenza artificiale, l’America è un leader globale. Sono le aziende americane a guidare il mondo nell’innovazione dell’intelligenza artificiale. È l’America che può catalizzare l’azione globale e costruire un consenso globale in un modo che nessun altro paese può fare”, ha dichiarato la Harris prima di volare al vertice di Bletchley Park del governo britannico sulla sicurezza dell’intelligenza artificiale.

D’altra parte il dominio americano nella ricerca e sviluppo dell’Intelligenza Artificiale è difficilmente contestabile. Secondo il rapporto State of AI del 2023 il 70% dei documenti di ricerca più citati sull’Intelligenza Artificiale sono stati pubblicati da Università e Istituti di ricerca americani, senza contare che aziende del calibro di Google, Meta, Microsoft, ma anche Open Ai e la miriade di start-up innovative sull’AI generativa hanno sede nella costa occidentale degli USA.

Bletchley Park, la sede iconica dei decifratori inglesi durante la II Guerra Mondiale, scelta come sede per il primo vertice sull’intelligenza artificiale del Regno Unito

La Gran Bretagna ha deciso di ospitare il suo primo vertice globale sull’intelligenza artificiale (l’AI Safety Summit) a Bletchley Park, nel sito considerato il luogo di nascita dell’informatica grazie ai progressi nei processi crittografici e di intelligence durante la Seconda Guerra Mondiale.

Durante la II guerra mondiale, un gruppo di matematici, crittografi, esperti in enigmistica e maestri di scacchi si riunirono in una casa di campagna vittoriana a 45 miglia a nord-ovest di Londra per intraprendere una guerra segreta contro la Germania nazista. Il loro obiettivo: decifrare i codici inviolabili di Adolf Hitler.

L’impresa più famosa di Bletchley Park fu quella di superare in astuzia la macchina di crittografia tedesca Enigma, che produceva un codice in costante cambiamento ed era ampiamente considerata indecifrabile. Per riuscirci, il matematico Alan Turing sviluppò una macchina considerata il precursore dei computer moderni.

I messaggi Enigma decifrati rivelarono dettagli sui movimenti delle flotte di sottomarini tedeschi e fornirono informazioni cruciali per la campagna nel deserto del Nord Africa e l’invasione alleata della Francia. Alcuni storici sostengono che decifrare il codice abbia contribuito ad abbreviare la guerra fino a due anni.

Il lavoro a Bletchley Park ha accelerato lo sviluppo dell’informatica. Gli scienziati che vi lavoravano costruirono quella che può essere considerata come la prima generazione di computer praticamente dal nulla.

Quando finì la guerra, i decifratori tornarono alla vita civile, giurando di mantenere il segreto sul loro lavoro in quel posto. Fu solo negli anni ’70 che quanto successo a Bletchley Park divenne ampiamente conosciuta in Gran Bretagna e nel mondo.

Non c’è da sorprendersi quindi se Bletchley Park,  aperto come museo nel 1994 e riportato al suo aspetto degli anni ’40, completo di macchine da scrivere manuali, telefoni d’epoca e tazze smaltate, si stato scelto come sede del primo vertice internazionale sull’Intelligenza Artificiale dal primo ministro britannico Rishi Sunak, che vorrebbe ritagliare per il suo Paese un ruolo post-Brexit come intermediario tra i blocchi economici di Stati Uniti, Cina e UE.

Sicurezza e innovazione: Joe Biden firma l’Ordine Esecutivo sull’Intelligenza Atificiale

Il Presidente degli Stati Uniti Joe Biden ha firmato lo scorso lunedì (30 ottobre) un Ordine Esecutivo sull’Intelligenza Artificiale che cerca di bilanciare le esigenze di sviluppo delle aziende tecnologiche con la sicurezza nazionale e i diritti dei consumatori, richiedendo all’industria di sviluppare standard di sicurezza e protezione, indicando una serie di linee guida che potrebbero essere rafforzate da ulteriori interventi legislativi e fornendo alle agenzie federali un ampio elenco di cose da fare per supervisionare una tecnologia in rapido sviluppo.

L’ordinanza – che dovrà essere comunque rafforzata dall’azione del Congresso – cerca di orientare il modo in cui l’intelligenza artificiale viene sviluppata in modo che le aziende possano trarre profitto senza mettere a repentaglio la sicurezza pubblica.

Utilizzando il Defense Production Act, l’ordine impone ai principali sviluppatori di intelligenza artificiale di condividere i risultati dei test di sicurezza e altre informazioni con il governo. Il National Institute of Standards and Technology (NIST) creerà standard per garantire che gli strumenti di intelligenza artificiale siano sicuri e protetti prima del rilascio pubblico.

Il Dipartimento del Commercio pubblicherà linee guida per etichettare e marchiare i contenuti generati dall’intelligenza artificiale per aiutare a distinguere le interazioni autentiche da quelle generate dal software. 

L’Ordine Esecutivo (EO) prevede otto principi guida:

  • nuovi standard per la sicurezza dell’IA; 
  • proteggere la privacy degli americani; 
  • promuovere l’equità e i diritti civili; 
  • difendere i consumatori, i pazienti e gli studenti; 
  • sostenere i lavoratori; 
  • promuovere l’innovazione e la concorrenza; 
  • far avanzare la leadership americana all’estero; 
  • garantire un uso responsabile ed efficace dell’IA da parte del governo e incaricare le agenzie federali sia di redigere linee guida per l’IA responsabile sia di adottare misure per regolamentare e rivedere le sue applicazioni. 

Con l’Unione Europea che si avvicina all’approvazione finale di una legge sull’intelligenza artificiale (l’AI ACT), il G7 che sotto la presidenza giapponese ha appena concordato con la Dichiarazione di Hiroshima una serie di principi di sicurezza dell’IA e un codice di condotta volontario per gli sviluppatori di IA e la Gran Bretagna che con l’iniziativa del suo leader Rishi Sunak di organizzare un Summit Internazionale sull’IA spera di ritagliare un ruolo di primo piano al suo Paese su questa tecnologia dopo l’uscita dalla UE, gli Stati Uniti – che peraltro ospitano ospitano molti dei principali sviluppatori di tecnologie IA all’avanguardia, tra cui i giganti della tecnologia Google, Meta e Microsoft e startup focalizzate sull’IA come OpenAI, produttore di ChatGPT – sono più che mai decisi a riprendersi la leadership anche della normativa che stabilirà le regole di utilizzo dell’Intelligenza Artificiale.

Dichiarazione di Hiroshima: intesa al G7 sui codici di condotta sull’Intelligenza Artificiale

L’intelligenza Artificiale rimane al centro dell’agenda politica mondiale e dopo l’Unione Europea, scende in campo anche il G7. La dichiarazione di Hiroshima adottata oggi, 30 ottobre 2023, dai leader di Canada, Francia, Germania, Giappone, Italia, Regno Unito e Stati Uniti vuole sottolineare le opportunità innovative e il potenziale trasformativo dei sistemi avanzati di Intelligenza Artificiale (IA), in particolare, dei modelli di base e dell’IA generativa.

Riconosciamo la necessità di gestire i rischi connessi, di proteggere gli individui, la società e i nostri principi condivisi come lo Stato di Diritto e i valori democratici, ponendo l’umanità al centro” si legge nella dichiarazione di Hiroshima, che è integrata da 2 documenti più operativi: gli 11 principi guida per i sistemi di AI Generativa avanzata e un Codice di condotta internazionale, che saranno costantemente modificati, se necessario, alla luce del rapido evolversi della materia di cui si occupano.

A tale proposito, i leader dei Paesi del G7 sono favorevoli ad incoraggiare l’adozione di misure adeguate durante l’intero processo di sviluppo di sistemi avanzati di intelligenza artificiale anche prima e durante la loro distribuzione e commercializzazione, con l’obiettivo di identificare, valutare e mitigare i rischi lungo l’intero ciclo di vita delle tecnologie emergenti. Tra queste misure dovrebbero essere previsti anche dei test interni ed esterni indipendenti.

Per quanto riguarda invece l’uso improprio, le organizzazioni responsabili dello sviluppo di sistemi avanzati sono chiamate a monitorare attentamente vulnerabilità, incidenti e rischi emergenti. Dovrebbero facilitare la scoperta e la segnalazione di problemi e vulnerabilità da parte degli utenti dopo l’implementazione. La trasparenza da questo punto di vista è fondamentale, e le capacità, le limitazioni e gli ambiti di utilizzo appropriato e inappropriato dovrebbero essere comunicati pubblicamente attraverso rapporti dettagliati.

La condivisione responsabile delle informazioni e la segnalazione degli incidenti rappresentano dei punti cruciali per i Paesi del G7, coinvolgendo industria, governi, società civile e mondo accademico. L’approccio raccomandato è basato sulla gestione del rischio, in linea con il Regolamento UE in fase di completamento. Ciò implica processi di responsabilità e di governance per valutare e mitigare i rischi.

Occorrono poi dei meccanismi affidabili di autenticazione e di provenienza dei contenuti, come watermarking, etichettatura o dichiarazioni di non responsabilità, in modo da consentire agli utenti di determinare se un contenuto è stato creato con il sistema di intelligenza artificiale di una specifica organizzazione.

Tra le priorità elencate vi è poi la mitigazione dei rischi per la società e la sicurezza, nonché lo sviluppo di sistemi avanzati per affrontare sfide come la crisi climatica, la salute globale e l’istruzione, in linea con gli Obiettivi di Sviluppo Sostenibile delle Nazioni Unite. Infine, i leader del G7 sottolineano l’importanza di promuovere lo sviluppo e, se del caso, l’adozione di standard tecnici internazionali, insieme a misure adeguate di protezione dei dati personali e della proprietà intellettuale.

A margine di questo accordo, Ursula fon der Leyen, Presidente della Commissione Europea, si è detta lieta di accogliere i principi guida internazionali del G7 e il codice di condotta volontario, esprimendosi a favore dell’impegno congiunto per favorire lo sviluppo tecnologico ponendo in primo piano il tema della sicurezza e dell’affidabilità delle tecnologie.

I benefici potenziali che l’AI comporta per l’economia e i cittadini europei sono fondamentali. Non dobbiamo però dimenticare che la velocità dei processi innescati dall’AI porta con sé anche nuove sfide”, il commento della von der Leyen alla Dichiarazione di Hiroshima, che prosegue “l’Ue è già all’avanguardia, dal punto di vista normativo, grazie all’AI Act, che rappresenta un importante contributo anche a livello di governance globale”.

Italia: Parlamento e Governo in ordine sparso sull’IA

Se da un lato va riconosciuto come la gestione della transizione digitale e tecnologica in atto sia un tema oggettivamente complesso va anche detto che il Parlamento e il Governo italiani stanno viaggiando in ordine sparso nell’affrontare le implicazioni dell’uso di sistemi intelligenti che imitano e riproducono le capacità umane.

Da un lato ci ritroviamo un collegato alla manovra economica in arrivo da parte del Ministero delle Imprese e del Made in Italy, dall’altro un’indagine conoscitiva promossa dalla Commissione Attività produttive della Camera, dall’altro ancora il Comitato per la documentazione della Camera che vola oltre oceano per discutere di tecnologie avanzate con le grandi tech company americane e poi la creazione di una commissione algoritmi guidata da Giuliano Amato, ex presidente del Consiglio e della Corte Costituzionale.

Nel dettaglio, il Ministro delle Imprese e del Made In Italy, Adolfo Urso, ha dichiarato che l’AI sarà una sfida che il governo affronterà in un collegato alla manovra. A quest’attività farà poi seguito un’attenzione particolare al tema che l’Italia si impegna a promuovere durante il turno di presidenza italiana del G7 del 2024.

L’indagine conoscitiva sull’AI promossa dal presidente della Commissione Attività produttive della Camera, Alberto Gusmeroli, si focalizza invece sui possibili effetti, positivi o negativi, per il mondo produttivo, con l’obiettivo di arrivare alla stesura di un progetto di legge sulla falsariga di quanto già avvenuto per il Made in Italy.

Una delegazione del Comitato per la documentazione della Camera, composta dalla presidente del Comitato e vicepresidente della Camera, Anna Ascani, e dalle deputate Ilaria Cavo e Maria Rosaria Tassinari vola invece prima a Seattle e poi a San Francisco dove incontrerà le grandi tech company del settore, da Open AI a Microsoft, da Amazon a Meta, per cercare di comprendere quale sia lo stato dell’arte dell’intelligenza artificiale e quale impatto avrà nei diversi settori della società, in vista di futuri interventi normativi.

Dal canto suo invece il Sottosegretario alla Presidenza del Consiglio con delega all’Informazione e all’Editoria Alberto Barachini ha deciso di lanciare una Commissione Algoritmi, istituendo un Comitato formato da esperti e professori universitari che studierà l’impatto di questa tecnologia sul mondo del giornalismo e delle news di cui è stato nominato presidente Giuliano Amato, classe 1938, più volte Ministro, ex Presidente del Consiglio, docente di diritto costituzionale comparato per oltre 20 anni ed ex Presidente della Corte Costituzionale.

Ma non è finita qui perché il sottosegretario della Presidenza del Consiglio dei Ministri con delega all’innovazione, Alessandro Butti, ha appena nominato un Comitato di esperti incaricati di dare indicazioni per guidare la strategia nazionale sull’Intelligenza Artificiale.

Adesso, guardando dall’esterno tutto questo attivismo in ordine sparso non si può non rilevare come le azioni sia del Governo che del Parlamento italiani restituiscano un certo disordine di fondo non solo sull’argomento in generale ma anche sulle azioni che sarebbe opportuno intraprendere.

L’Intelligenza Artificiale è una nuova frontiera tecnologica che sta rimodellando le industrie, le economie e la vita quotidiana di ognuno di noi. Siamo di fronte ad una straordinaria opportunità di sviluppo, ma anziché coglierne le potenzialità e le opportunità, sembrerebbe che, ancora una volta, la preoccupazione principale in Italia, sia quella di “normare”, di stabilire dei limiti, di mettere dei paletti, di stabilire dei vincoli, di cercare di disciplinare un qualcosa che per sua natura evolve a ritmi velocissimi.

Adesso, pur nella giusta considerazione di tutela dai rischi, dalle manipolazioni e dalle sperequazioni che sono possibili con una gestione non corretta dei sistemi di AI, quello che la politica italiana non vede è che in questo modo si lascia in secondo piano un approccio volto invece a definire le strategie di sviluppo, a individuare le opportunità per il sistema Paese, promuovendone gli investimenti e le attività di ricerca, mettendo a sistema i centri di ricerca, le imprese e le Università per giocare da pari con gli altri Paesi e recuperare quella leadership in innovazione e sviluppo che per tanti anni ha caratterizzato il sistema economico e industriale del nostro Paese.

Quella portata dall’Intelligenza Artificiale è una vera e propria rivoluzione. E noi dobbiamo starci dentro, prima ancora come Paese che come Europa, che pure sembra preoccupata a “normare”. Il resto del mondo non ci aspetta. La posizione della politica italiana su questi temi sarà determinante nello stabilire che ruolo potrà avere l’Italia nello sviluppo futuro di questa tecnologia. Altrimenti perderemo anche questa opportunità.

L’Onu crea un comitato di esperti sull’intelligenza artificiale. L’unico italiano è il francescano Paolo Benanti

Il teologo Paolo Benanti è l’unico italiano tra i 38 esperti nominati da António Guterres come membri del nuovo Organo consultivo dell’ONU per l’Intelligenza Artificiale, un organismo consultivo composto da 39 esperti dei governi, delle imprese, della società civile, oltre a ricercatori e accademici provenienti da tutti i continenti, incaricati di valutare le opportunità e i rischi dell’AI generativa, di suggerire modelli di governance di questa nuova tecnologia e di individuare le strade per favorire la cooperazione internazionale in un campo essenziale per il futuro del nostro Pianeta.

Il team di esperti dovrà formulare le raccomandazioni preliminari entro il prossimo dicembre e presentare il rapporto conclusivo nell’estate del 2024, prima del Summit Onu sul Futuro del 22 e 23 settembre.

Il nostro Paolo Benanti è un francescano del Terzo Ordine Regolare, si occupa di etica, bioetica ed etica delle tecnologie, è docente presso la Pontificia Università Gregoriana, l’Istituto Teologico di Assisi e il Pontificio Collegio Leoniano ad Anagni ed è definito come il principale consigliere di Papa Francesco sull’IA. I suoi studi si focalizzano sulla gestione dell’innovazione: internet e l’impatto del Digital Age, le biotecnologie per il miglioramento umano e la biosicurezza, le neuroscienze e le neurotecnologie.

Di seguito l’elenco degli alti componenti dell’organismo ONU sull’AI:

Anna Abramova, Direttrice del Centro di Intelligenza Artificiale dell’Istituto di Relazioni Internazionali dello Stato di Mosca (MGIMO) – Università

Omar Sultan Al Olama, Ministro di Stato per l’Intelligenza Artificiale degli Emirati Arabi Uniti

Latifa Al-Abdulkarim, Membro del Consiglio della Shura (Parlamento Saudita), Professoressa Associata di Informatica presso l’Università King Saud

Estela Aranha, Consigliera Speciale per il Ministro della Giustizia e della Sicurezza Pubblica, Governo Federale del Brasile

Carme Artigas, Segretaria di Stato per la Digitalizzazione e l’Intelligenza Artificiale della Spagna

Ran Balicer, Chief Innovation Officer e Vice Direttore Generale presso Clalit Health Services Israel

Abeba Birhane, Senior Advisor in AI Accountability presso la Fondazione Mozilla

Ian Bremmer, Presidente e Fondatore di Eurasia Group

Anna Christmann, Coordinatrice del Settore Aerospaziale del Governo Federale Tedesco

Natasha Crampton, Chief Responsible AI Officer presso Microsoft

Nighat Dad, Direttrice Esecutiva della Digital Rights Foundation Pakistan

Vilas Dhar, Presidente della Patrick J. McGovern Foundation

Virginia Dignum, Professoressa di Intelligenza Artificiale Responsabile presso l’Università di Umeå

Arisa Ema, Professoressa Associata presso l’Università di Tokyo

Amandeep Singh Gill, Inviato del Segretario Generale dell’ONU per la Tecnologia

Mohamed Farahat, Consulente Legale & Vicepresidente del MAG del North Africa IGF

Wendy Hall, Professoressa Regia di Informatica presso l’Università di Southampton

Rahaf Harfoush, Antropologa Digitale

Hiroaki Kitano, CTO presso Sony Group Corporation

Haksoo Ko, Presidente della Personal Information Protection Commission (PIPC) della Repubblica di Corea

Andreas Krause, Professore presso l’ETH Zurich

James Manyika, Senior Vice Presidente di Google-Alphabet, Presidente per la Ricerca, Tecnologia e Società

Maria Vanina Martinez Posse, Ramon e Cajal Fellow presso l’Artificial Research Institute (IIIA-CSIC)

Seydina Moussa Ndiaye, Docente presso l’Università Digitale Cheikh Hamidou Kane

Mira Murati, Chief Technology Officer di OpenAI

Petri Myllymaki, Professore Ordinario presso il Dipartimento di Informatica dell’Università di Helsinki

Alondra Nelson, Professoressa Harold F. Linder presso l’Institute for Advanced Study

Nazneen Rajani, Responsabile Ricerca presso Hugging Face

Craig Ramlal, Responsabile del Gruppo di Controllo dei Sistemi presso l’Università delle Indie Occidentali a St. Augustine

He Ruimin, Chief Artificial Intelligence Officer & Vice Chief Digital Technology Officer, Governo di Singapore

Emma Ruttkamp-Bloem, Professoressa presso l’Università di Pretoria

Sharad Sharma, Co-fondatore della Fondazione iSPIRT

Marietje Schaake, Direttore di Politica Internazionale presso il Cyber Policy Center dell’Università di Stanford

Jaan Tallinn, Co-fondatore del Cambridge Centre for the Study of Existential Risk

Philip Thigo, Consigliere presso il Governo del Kenya

Jimena Sofia Viveros Alvarez, Capo di Gabinetto e Consigliera Legale del Giudice Loretta Ortiz presso la Corte Suprema Messicana

Yi Zeng, Professore e Direttore del Brain-inspired Cognitive AI Lab, Accademia Cinese delle Scienze

Zhang Linghan, Professore presso l’Istituto di Diritto dei Dati, Università Cinese di Scienze Politiche e Diritto

Papa Francesco sceglie l’Intelligenza Artificiale come tema della Giornata delle Comunicazioni Sociali 2024

La straordinaria importanza dell’Intelligenza Artificiale in questo periodo è testimoniata anche dall’attenzione che il Vaticano dedica a questa materia. L’attenzione della Santa Sede per le implicazioni etiche dell’IA è costante, volta a promuovere una riflessione etica sull’uso degli algoritmi, con un’attenzione particolare alla tutela della dignità umana.

Non è un caso allora che per la 58^ Giornata Mondiale delle Comunicazioni Sociali che si celebrerà il prossimo 12 maggio 2024 il tema scelto da Papa Francesco sia proprio questo: “Intelligenza artificiale e sapienza del cuore: per una comunicazione pienamente umana”.

Nel renderlo noto dalla Sala Stampa vaticana, si sottolinea che “l’evoluzione dei sistemi di intelligenza artificiale rende sempre più naturale comunicare attraverso e con le macchine, in modo che è diventato sempre più difficile distinguere il calcolo dal pensiero, il linguaggio prodotto da una macchina da quello generato dagli esseri umani”.

“Come tutte le rivoluzioni anche questa basata sull’intelligenza artificiale, pone nuove sfide affinché le macchine non contribuiscano a diffondere un sistema di disinformazione a larga scala e non aumentino anche la solitudine di chi già è solo, privandoci di quel calore che solo la comunicazione tra persone può dare”, si legge ancora nella nota vaticana, che sottolinea l’importanza “di guidare l’intelligenza artificiale e gli algoritmi, perché vi sia in ognuno una consapevolezza responsabile nell’uso e nello sviluppo di queste forme differenti di comunicazione che si vanno ad affiancare a quelle dei social media e di Internet“.   

Proprio per questo da Papa Francesco (che pure è stato una delle star delle immagini generate dall’IA) vengono costanti sollecitazioni per un dialogo aperto sul significato delle nuove tecnologie, dotate di potenzialità dirompenti e di effetti ambivalenti, con richiami alla “necessità di vigilare e di operare affinché non attecchisca una logica di violenza e di discriminazione nel produrre e nell’usare tali dispositivi, a spese dei più fragili e degli esclusi: ingiustizia e disuguaglianze alimentano conflitti e antagonismi”.

Intelligenza Artificiale e Sanità

Il mercato globale dell’Intelligenza Artificiale nel settore sanitario è destinato a un’esplosione senza precedenti, con stime che proiettano un valore di quasi 188 miliardi di dollari entro il 2030. Rispetto agli 11 miliardi di dollari del 2021, questo tasso di crescita annuo del 37% riflette i considerevoli vantaggi che l’IA apporta al settore sanitario. Tra questi, la riduzione dei costi e il miglioramento del supporto ai medici nell’analisi diagnostica dei pazienti emergono come driver chiave.

Attualmente, il 94% delle organizzazioni sanitarie sfrutta l’IA o il Machine Learning, mentre il 40% dei dirigenti sanitari prevede un aumento degli investimenti nei prossimi cinque anni. Questa crescente adozione rivela il ruolo centrale dell’IA nell’automazione del settore, anticipando un mercato globale dell’IA nel settore sanitario che raggiungerà i 188 miliardi di dollari entro il 2030, con l’obiettivo di migliorare la vita dei pazienti e ridurre i costi.

L’IA emerge come una leva cruciale per ridurre i costi di dimissione, stimati a circa 16 miliardi di dollari, e migliorare l’efficienza nel monitoraggio delle unità di terapia intensiva, con potenziali risparmi di circa 323.000 dollari per letto. Nel settore farmaceutico, l’AI potrebbe ridurre i costi legati alla scoperta di farmaci di oltre 70 miliardi di dollari entro il 2028, grazie all’accelerazione dello sviluppo di nuovi farmaci mediante algoritmi di Machine Learning.

L’Intelligenza Artificiale sta rivoluzionando la fornitura di servizi sanitari, rendendo il sistema più efficiente e apportando benefici tangibili a pazienti, medici e fornitori di servizi. Abilitando i professionisti sanitari a risparmiare tempo e ottenere rapidamente informazioni cliniche, l’AI supporta diagnosi più precise e decisioni più informate, riducendo potenzialmente gli errori del 86% e contribuendo a salvare oltre 250.000 vite all’anno.

L’Intelligenza Artificiale si dimostra preziosa anche nel supportare decisioni mediche, come evidenziato da studi che mostrano miglioramenti nella diagnosi di patologie come il carcinoma mammario. Un incremento del 44% nell’efficienza nella lettura delle mammografie è solo uno dei tanti esempi di come l’IA possa alleggerire il carico di lavoro dei medici.

La risposta positiva dei pazienti all’AI è evidente, con la maggior parte che si sente a proprio agio nell’interagire con assistenti virtuali per ottenere informazioni sui farmaci, inviare report ai medici e prenotare visite.

In definitiva le applicazioni dell’Intelligenza Artificiale nel settore sanitario rappresentano un’opportunità di trasformare il panorama medico in modo più efficiente e centrato sui pazienti, offrendo benefici significativi sia in termini di salute che di risparmio di costi.

Papa Francesco: perché è la star delle foto generate dall’intelligenza artificiale

Papa Francesco è diventato uno dei personaggi preferiti tra coloro che si divertono a generare immagini con l’aiuto degli strumenti di Intelligenza Artificiale rappresentato nei contesti più impensabili o negli scenari più improbabili. Ed ecco allora che lo vediamo indossare un lungo piumino bianco ispirato a Balenciaga, a cavallo di una moto, a ballare in discoteca e rappresentato con le braccia tatuate, vestito da rapper, all’interno di una sala pesi e via dicendo.

E’ così che sono apparse decine di foto che mostrano il Santo Padre negli scenari più inimmaginabili, scatenando un effetto domino sui social media e provocando una corsa per ritrarre Papa Bergoglio in situazioni sempre più strane. A parte il Pontefice stesso, le immagini hanno tutte qualcosa in comune: sono tutte false, realizzate da strumenti di intelligenza artificiale che creano immagini da brevi suggerimenti di testo.

La prevalenza di Papa Francesco nelle immagini generate dall’intelligenza artificiale è il risultato di una tempesta perfetta di fattori, primo fra tutti la sua riconoscibilità: 10 anni alla guida della Chiesa cattolica lo hanno fatto diventare un come personaggio globale, immediatamente riconoscibile in tutto il mondo. Ha poi un’immagine più accessibile rispetto al suo predecessore che aveva invece un carattere più spigoloso e distante.

Papa Francesco è quindi il personaggio ideale, anche perché è noto per la sua semplicità e la sua solidarietà con i più poveri tra i poveri. E proprio per questo quando è inserito in contesti fantasiosi è in grado di scatenare una curiosità incredibile.

L’immagine che ha trasformato Francis in una star dell’intelligenza artificiale lo mostra con un piumino bianco in stile di Balenciaga, mentre cammina a grandi passi per la strada è stata visualizzata più di 20 milioni di volte. 

Intelligenza Artificiale e creazione di immagini

I programmi di Intelligenza Artificiale hanno ormai raggiunto livelli incredibili nella creazione delle immagini. L’IA generativa consente infatti la la creazione di immagini, disegni e illustrazioni ad alta definizione utilizzando descrizioni testuali. È infatti sufficiente scrivere una parola chiave o un testo e l’algoritmo crea un’immagine personalizzata che rappresenta il concetto espresso. L’utente ha la possibilità di specificare lo stile, il colore, la prospettiva e altri dettagli per personalizzare la sua immagine.

Alcuni sistemi, come Midjourney, usano la Generative Adversarial Network (GAN), una rete neurale composta da due moduli chiamati generatore e discriminatore. Il primo è adibito alla produzione delle immagini dal testo, mentre il secondo valuta se le immagini sono realistiche. L’interazione tra i due moduli porta al miglioramento delle prestazioni per la produzione di immagini sempre più precise.

Dall’editing fotografico avanzato alle soluzioni di generazione di immagini, l’IA offre nuove prospettive creative per artisti, designer e creatori di contenuti, consentendo il miglioramento automatico delle immagini, dalla correzione del colore alla rimozione di imperfezioni, offrendo risultati sorprendenti e creando al tempo stesso un’esperienza visiva altamente personalizzata.

Tuttavia, con il potenziale innovativo possono anche emergere anche dei rischi significativi come la manipolazione dell’identità, perché l’IA rende possibile la creazione di foto fake realistiche di personaggi famosi, come è successo all’ex Presidente degli Stati Uniti Donald Trump o anche a Papa Francesco, sollevando preoccupazioni sulla manipolazione dell’identità e la diffusione di informazioni false.

I rischi di abuso possono riguardare, oltre all’eventuale creazione di supporti visivi a supporto delle fake news, anche la sfera reputazionale dei singoli cittadini, mettendone a rischio la privacy, fino a raggiungere quel confine dove la capacità delle società in generale di distingue la differenza tra realtà e finzione assume dei contorni sfocati. E, da questo punto di vista, i rischi possono essere significativi quando si tratta di personaggi famosi o di personalità di primo piano.

Affrontare le straordinarie opportunità offerte dall’IA nella creazione di immagini richiede un approccio bilanciato in grado di combinare l’innovazione tecnologica con un utilizzo non tanto regolamentato quanto etico per garantire che l’IA contribuisca positivamente al nostro mondo visivo senza compromettere verità, integrità e dignità della persona.

Gli impatti dell’IA generativa nel business

Da quando è stato rilasciato ChatGPT, il chatbot basato sul linguaggio di OpenAI, ormai un anno fa, nel novembre 2022, i tool di intelligenza artificiale e generativa sono cresciuti rapidamente, sviluppando funzionalità e applicazioni, riuscendo a coinvolgere un numero sempre maggiore di utilizzatori.

Secondo un report di Insider Intelligence, il 25% degli utenti internet negli Stati Uniti, quasi 80 milioni di persone, avrà utilizzato tool di Intelligenza Artificiale entro la fine del 2023. Un fenomeno che non si limita solo agli Usa ma che può definirsi globale complice anche il fatto che dal rilascio iniziale, la funzionalità dei modelli generativi di IA è notevolmente migliorata rendendola quindi più accessibile.

Proprio quest’accessibilità renderà questa tecnologia trasformativa, come lo sono stati i microprocessori, il web e gli smartphone. Con una differenza sostanziale. Queste sono tecnologie che hanno richiesto anni per prendere piede mentre sembra che il ritmo di adozione e di sviluppo dell’IA sia esponenziale con immaginabili ripercussioni anche nel business.

Goldman Sachs stima che il contributo dell’IA potrebbe aggiungere in 10 anni un 7% di prodotto interno lordo all’economia globale, influenzando tutta una serie di settori, dalla ricerca alle scienze, dalla medicina alla tecnologia. Inoltre, con la capacità creativa che ha già dimostrato, l’IA generativa sarà in grado di intervenire in quelle attività lavorative che un tempo pensavamo fossero intoccabili dalla tecnologia. Basti pensare alla capacità dell’IA di generare video, foto, immagini e anche audio, con un impatto anche nel settore audio e della musica.

Sempre Goldman Sachs stima che almeno un quarto dei lavori negli Stati Uniti e in Europa potrebbe essere automatizzato dall’IA generativa su cui peraltro si sta investendo moltissimo mentre, secondo dati riportati da CB Insights solo nella prima metà del 2023 gli investimenti in start-up IA sono aumentati di 5 volte, raggiungendo la cifra di 14 miliardi di dollari rispetto ai 2,5 miliardi nel 2022.

Libri. Scacco matto all’AI. Come le aziende all’avanguardia stravincono con l’intelligenza artificiale

Dall’autore di bestseller della letteratura manageriale e dal responsabile della divisione AI di Deloitte negli Stati Uniti, uno sguardo affascinante sulle aziende all’avanguardia che utilizzano l’intelligenza artificiale per creare nuovi vantaggi competitivi.

Sebbene la maggior parte delle organizzazioni stia scommettendo in modo modesto sull’intelligenza artificiale, esiste un gruppo di imprese di rilevanza mondiale che stanno puntando tutto su questa tecnologia e trasformando radicalmente i propri prodotti, processi, strategie, relazioni con i clienti e persino la propria cultura. Sebbene queste organizzazioni rappresentino meno dell’uno per cento delle grandi imprese, sono tutte aziende di alto livello nei rispettivi settori. Hanno modelli di business migliori, prendono decisioni migliori, hanno rapporti migliori con i clienti, offrono prodotti e servizi migliori e spuntano prezzi più alti.

Scacco matto con l’AI” analizza l’intelligenza artificiale all’avanguardia dal punto di vista di aziende affermate come Anthem, Ping An, Airbus e Capital One.

Ricco di approfondimenti, strategie e best practice, il libro fornisce ai leader e ai loro team le informazioni necessarie per aiutare le proprie aziende a portare l’intelligenza artificiale a un livello successivo.

Se siete curiosi di conoscere la prossima fase dell’implementazione dell’intelligenza artificiale all’interno delle imprese, o se state cercando di impiegare voi stessi questa potente tecnologia in modo più robusto, il lavoro di Davenport e Mittal vi offrirà una vista dall’interno su ciò
che stanno facendo i principali adottatori dell’intelligenza artificiale, fornendovi al contempo gli strumenti per mettere questa potente tecnologia al centro di tutto ciò che fate.

Scacco matto con l’AI: Come le aziende all’avanguardia stravincono con l’intelligenza artificiale di Thomas H. Davenport e Nitin Mittal, Egea Editore, 236 pagine, euro 32,00

Compralo su Amazon

AI Act: l’UE verso la regolamentazione dell’Intelligenza Artificiale

L’Intelligenza Artificiale (AI) sta trasformando il nostro mondo con una velocità ed una modalità senza precedenti. Questo crescente utilizzo dell’AI ha tuttavia sollevato preoccupazioni riguardo al suo impatto sui diritti e sulle libertà fondamentali, al punto da spingere l’Unione Europea (UE) a compiere un passo significativo per la sua regolamentazione, con l’adozione, lo scorso 14 giugno, dell’Artificial Intelligence Act.

L’AI Act approvato dal Parlamento europeo, punta a trasformare l’Europa in un hub globale per sistemi di Intelligenza Artificiale affidabili, stabilendo norme armonizzate che disciplinino lo sviluppo, la commercializzazione e l’uso di questa tecnologia nell’UE. 

La legge sull’Intelligenza Artificiale mira a garantire che i sistemi di intelligenza artificiale nell’UE siano sicuri e rispettino i diritti e i valori fondamentali, ponendo nuove restrizioni su quelli che sono considerati gli usi più rischiosi della tecnologia, prevedendo ad esempio lo stop all’uso del software di riconoscimento facciale in tempo reale.

Il disegno di legge europeo adotta un approccio basato sul rischio per regolamentare l’IA, concentrandosi sulle applicazioni con il maggior potenziale di danno. Ciò includerebbe i casi in cui i sistemi di intelligenza artificiale vengono utilizzati per gestire infrastrutture critiche come l’acqua o l’energia, nel sistema legale e nel determinare l’accesso ai servizi pubblici e ai benefit governativi, prevedendo che i produttori di tecnologia dovrebbero condurre valutazioni dei rischi prima di metterla nell’uso quotidiano, in modo simile al processo di approvazione dei farmaci.

Una delle principali aree di dibattito è, come già detto, l’uso dei software di riconoscimento facciale. Il Parlamento europeo ha votato per vietare l’uso del riconoscimento facciale dal vivo, ma rimangono dubbi sull’opportunità di consentire esenzioni per la sicurezza nazionale e altri scopi di applicazione della legge.

Un’altra disposizione vieterebbe alle aziende di raccogliere dati biometrici dai social media per creare database, una pratica che ha attirato l’attenzione dopo che la società di riconoscimento facciale Clearview AI  l’ha utilizzata.

Dopo il voto del giugno scorso, la versione finale della legge sarà negoziata dai rappresentanti dei tre rami dell’Unione europea: Parlamento europeo, Commissione europea e Consiglio dell’Unione europea. L’obiettivo comune è quello di raggiungere un accordo definitivo entro la fine dell’anno.

Vedremo quali saranno gli sviluppi anche se l’Unione europea, nell’interesse di tutti gli Stati membri, dovrebbe evitare normative eccessivamente ampie che inibiscano l’innovazione. Non è per nulla chiaro tra l’altro quanto possa essere efficace qualsiasi regolamentazione dell’intelligenza artificiale considerato che, come sempre succede con la tecnologia, le innovazioni della stessa stanno emergendo più velocemente di quanto i legislatori (non solo europei ma di qualsiasi Paese) siano in grado di affrontarle.

In ogni caso se anche l’UE avrà le capacità di diventare leader nella regolamentazione dell’intelligenza artificiale, difficilmente sarà in grado di guidare l’innovazione dell’intelligenza artificiale nella quale la partita è a due, tra gli Stati Uniti, attuale leader indiscusso nello sviluppo dell’IA e la Cina, con il Governo di Pechino che sta investendo pesantemente nella ricerca e nello sviluppo dell’IA.

L’alfabeto dell’Intelligenza Artificiale

A – Algoritmo:

Un insieme di istruzioni o regole sequenziali progettate per risolvere un problema o eseguire una specifica attività.

B – Bias:

Deviazione sistematica nei risultati di un modello di intelligenza artificiale dovuta a pregiudizi o disuguaglianze nei dati di addestramento.

C – Cluster Analysis:

Una tecnica di analisi dei dati in cui gli elementi vengono suddivisi in gruppi o “cluster” in base a somiglianze o caratteristiche comuni.

D – Deep Learning:

Una sotto-categoria del machine learning che utilizza reti neurali profonde per apprendere da dati complessi, riconoscere pattern e prendere decisioni avanzate.

E – Ensamble Learning:

Una tecnica in cui più modelli di machine learning vengono combinati per migliorare le prestazioni complessive del sistema.

F – Feature Engineering:

Il processo di selezione o creazione di caratteristiche (features) rilevanti per migliorare le prestazioni di un modello di machine learning.

G – Generative Adversarial Network (GAN):

Un tipo di rete neurale utilizzato per generare dati nuovi, spesso utilizzato nell’arte generativa e nella creazione di contenuti visivi.

H – Hyperparameter:

Un parametro esterno al modello di machine learning che influisce sul processo di addestramento e sulla capacità del modello di generalizzare.

I – Internet of Things (IoT):

La connessione di dispositivi fisici alla rete, consentendo la raccolta e lo scambio di dati in tempo reale.

J – JSON (JavaScript Object Notation):

Un formato di scrittura per lo scambio di dati leggibile dagli esseri umani e facile da interpretare per le macchine.

K – K-Means Clustering:

Un algoritmo di clustering che divide un insieme di dati in gruppi (clusters) basati sulla loro somiglianza.

L – Latent Variable:

Una variabile che non è direttamente osservabile ma è inferita da altre variabili osservabili nel modello.

M – Natural Language Processing (NLP):

Un campo di studio dell’intelligenza artificiale che si occupa dell’interazione tra computer e linguaggio umano, consentendo alle macchine di comprendere, interpretare e generare testo.

N – Neural Network:

Un modello computazionale ispirato alla struttura del cervello umano, utilizzato in deep learning per l’elaborazione di informazioni e la risoluzione di problemi complessi.

O – Overfitting:

Un problema in machine learning in cui un modello si adatta troppo bene ai dati di addestramento, perdendo la sua capacità di generalizzare su nuovi dati.

P – Precision and Recall:

Metriche di valutazione delle prestazioni di un modello, rispettivamente, la precisione misura la percentuale di risultati positivi corretti, mentre il richiamo misura la capacità del modello di identificare tutti i risultati positivi.

Q – Quantum Computing:

Un paradigma di calcolo che sfrutta i principi della meccanica quantistica, consentendo una potenza di calcolo significativamente superiore rispetto ai computer classici.

R – Reinforcement Learning:

Un paradigma di apprendimento automatico in cui un agente impara a compiere azioni in un ambiente per massimizzare una ricompensa.

S – Support Vector Machine (SVM):

Un algoritmo di apprendimento supervisionato utilizzato per la classificazione e la regressione.

T – Transfer Learning:

Una tecnica di machine learning in cui un modello pre-addestrato viene utilizzato come punto di partenza per un nuovo compito, accelerando il processo di addestramento.

U – Unsupervised Learning:

Una categoria di machine learning in cui il modello impara da dati non etichettati, cercando pattern e relazioni senza guida esterna.

V – Validation Set:

Un set di dati utilizzato per valutare le prestazioni di un modello durante il processo di addestramento, ma non per addestrarlo effettivamente.

W – Word Embedding:

Una tecnica di rappresentazione del linguaggio naturale in cui le parole vengono tradotte in vettori numerici, preservando le relazioni semantiche tra di loro.

X – XGBoost:

Una libreria di machine learning basata su algoritmi di boosting, spesso utilizzata per problemi di classificazione e regressione.

Y – Yield Curve Prediction:

Un’applicazione di machine learning nella finanza che prevede l’andamento futuro delle curve dei rendimenti.

Z – Zero-Shot Learning:

Un approccio di machine learning in cui un modello è in grado di affrontare compiti per i quali non è stato esplicitamente addestrato, utilizzando le conoscenze apprese in altre situazioni.


La tua iscrizione non può essere convalidata. Controlla i dati inseriti e riprova.
La tua iscrizione alle newsletter settimanale di Rivista.AI è avvenuta correttamente.

Newsletter Rivista.AI

Iscriviti alla nostra newsletter settimanale per rimanere sempre aggiornato su tutte le ultime news sull’Intelligenza Artificiale.

Utilizziamo Brevo come piattaforma di marketing. Inviando questo modulo, accetti che i dati personali da te forniti vengano trasferiti a Brevo per il trattamento in conformità all’Informativa sulla privacy di Brevo.

Pagina 4 di 4

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie