Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Autore: Fabio Ricceri

Mercato del lavoro e Intelligenza Artificiale: tra minacce e opportunità

L’Intelligenza Artificiale (AI) avrà un impatto sul 60% dei posti di lavoro nelle economie avanzate e su circa il 40% dei posti di lavoro a livello globale. È quanto emerge da un rapporto, presentato dalla direttrice generale del Fondo Monetario Internazionale, Kristalina Georgieva, poco prima di partire per il World Economic Forum di Davos, che si tiene in questi giorni in Svizzera.

Il rapido progresso dell’Intelligenza Artificiale sottolinea il rapporto, solleva importanti domande sul suo potenziale impatto sull’economia globale con effetti difficili da prevedere, poiché l’Intelligenza Artificiale si diffonderà nelle economie dei vari Paesi in modi diversi.

In particolare i mercati del lavoro nei Paesi emergenti e nelle economie in via di sviluppo vedranno un impatto iniziale minore causato dall’Intelligenza Artificiale, ma avranno anche meno probabilità di beneficiare dell’aumento di produttività che deriverà dalla sua integrazione sul mondo del lavoro. D’altra parte, proprio l’aumento della produttività rappresenta una enorme opportunità offerta dall’AI per alimentare la crescita globale. 

E’ indubbio, secondo il FMI, che molti posti di lavoro verranno sostituiti dall’Intelligenza Artificiale. Storicamente, l’automazione e la tecnologia in generale, hanno avuto la tendenza a influenzare le attività di routine, ma una delle cose che distingue e in un certo modo differenzia l’Intelligenza Artificiale dalle rivoluzioni tecnologiche alle quali abbiamo assistito nel passato, anche in quello più recente, è la sua capacità di generare impatto anche sui lavori altamente qualificati. 

Di conseguenza, sono proprio le economie avanzate che si troverebbero ad affrontare i rischi maggiori legati all’adozione massiva dei tool di Intelligenza Artificiale nei settori produttivi dell’economia e, paradossalmente, sono le stesse economie avanzate che avrebbero le maggiori opportunità di sfruttarne i benefici, rispetto ai mercati emergenti e ai Paesi in via di sviluppo.

Nelle economie avanzate, circa la metà dei lavori esposti a questa nuova rivoluzione tecnologica potrebbe trarre vantaggio dall’integrazione dell’Intelligenza Artificiale, migliorando la produttività. Per l’altra metà, le applicazioni di IA potrebbero eseguire compiti e mansioni attualmente svolti dagli esseri umani (nelle aree del customer care, dell’amministrazioe, della contabilità, del data entry, ecc.) il che potrebbe ridurre la domanda di impego, generando una possibile contrazione dei salari e, più in generale, ad una riduzione delle assunzioni. Nei casi più estremi, alcuni di questi posti di lavoro potrebbero addirittura scomparire.

Le persone esposte all’AI sono in genere donne e individui con istruzione universitaria, con i lavoratori più anziani potenzialmente meno in grado di adattarsi alla nuova tecnologia. 

L’AI potrebbe sostituire alcuni lavori e migliorare altri, influenzando quindi l’occupazione, i redditi e le disuguaglianze. Nella maggior parte degli scenari studiati dal FMI, l’Intelligenza Artificiale probabilmente peggiorerà la disuguaglianza complessiva, aumentando la forbice tra i redditi delle figure professionali, tra chi riuscirà a gestire l’integrazione dell’AI nel proprio lavoro grazie alla formazione e all’aggiornamento delle proprie competenze professionali e chi invece ne rimarrà escluso, come i lavoratori più anziani o quelli le cui mansioni possono essere facilmente sostituite.

Proprio per questo – è la raccomandazione del FMI – è fondamentale che i Paesi prevedano delle reti di sicurezza sociale adeguate e che offrano programmi di riqualificazione per i lavoratori vulnerabili. In questo modo è possibile rendere la transizione verso l’adozione generalizzata dell’Intelligenza Artificiale più inclusiva, minimizzando i rischi di disuguaglianza.

D’altra parte la strada intrapresa sembra irreversibile. Secondo un sondaggio condotto da PwC in vista del World Economic Forum di questa settimana, su un campione di 4.702 capi di aziende sparse in 105 Paesi,un quarto degli amministratori delegati globali prevede che l’implementazione dell’Intelligenza Artificiale generativa porterà a una riduzione dell’organico di almeno il 5% già quest’anno.

I settori guidati da media e intrattenimento, banche, assicurazioni e logistica sono quelli che hanno maggiori probabilità di prevedere perdite di posti di lavoro a causa degli strumenti di intelligenza artificiale all’avanguardia. Le aziende di ingegneria e di costruzione erano meno propense ad anticipare i tagli a causa dell’automazione.

L’analisi del FMI arriva mentre i leader politici e del mondo degli affari si riuniscono al World Economic Forum di Davos, in Svizzera dove, tra gli altri, l’Intelligenza Artificiale è un argomento di discussione.

L’Intelligenza Artificiale spinge il valore di Microsoft. Google insegue. Apple è in ritardo.

Lo scorso venerdì Microsoft è diventata la società con la maggiore capitalizzazione di borsa 2,887 trilioni di dollari scalzando da podio Apple, che per più di un decennio ha dominato il mercato azionario, possiamo dire senza rivali (nel 2011 ha superato per la prima volta Exxon Mobil come azienda pubblica di maggior valore al mondo e ha mantenuto la posizione quasi ininterrottamente)

Secondo una interessante analisi del New York Times, il primo posto di Microsoft è una svolta da non sottovalutare. Il cambiamento stabilito nella seduta di venerdì 12 gennaio fa parte di un più ampio meccanismo di riordino del mercato azionario messo in moto dall’avvento dell’Intelligenza Artificiale generativa che riguarda diverse aziende del settore hi-tech.

Questo perché, sebbene il settore tecnologico sia ancora dominante a Wall Street in termini di valori, le aziende che registrano uno slancio maggiore sono proprio quelle che hanno messo l’AI generativa in prima linea nei loro piani aziendali futuri.

Microsoft ha incorporato la tecnologia di OpenAI nella sua suite di software per la produttività, una mossa che ha contribuito a innescare una ripresa nel suo business del cloud computing nel trimestre luglio-settembre. 

Apple, nel frattempo, è alle prese con una domanda tiepida, anche per l’iPhone. La domanda in Cina, un mercato importante, è crollata mentre l’economia del paese si riprende lentamente dalla pandemia di Covid-19 e Huawei in forte ripresa sta erodendo la sua quota di mercato.

La leadership dell’azienda guidata da Satya Nadella nell’intelligenza artificiale ha anche creato un’opportunità per sfidare il dominio nella ricerca web di Google, che peraltro ha annunciato di aver programmato un piano, sia pur limitato, di licenziamenti nei comparti dell’assistenza digitale e dell’hardware, oltre che nella sua squadra di ingegneri, proprio a causa della concorrenza di OpenAI.

E’ la dimostrazione di come ormai crescere senza passare dall’IA – che come si è visto dall’ultima edizione del CES di Las Vegas appena concluso, ha investito ogni settore, dalle attività domestiche all’organizzazione professionale, alle relazioni sociali e forme di intrattenimento – sia ormai impossibile.

Il contenuto del presente articolo deve intendersi solo a scopo informativo e non costituisce una consulenza professionale. Le informazioni fornite sono ritenute accurate, ma possono contenere errori o imprecisioni e non possono essere prese in considerazione per eventuali investimenti personali.

Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Il New York Times fa causa a Microsoft e ad OpenAI per violazione del copyright

Il New York Times ha intentato una causa contro Microsoft e OpenAI, accusando entrambe di violazione del copyright e di aver utilizzato abusivamente la proprietà intellettuale del giornale per addestrare modelli linguistici di grandi dimensioni, i LLM che sono alla base di ChatGPT e di Copilot.

Secondo l’editore infatti milioni di suoi articoli sarebbero stati utilizzati per addestrare i chatbot delle due aziende che ora sarebbero potenzialmente in grado di competere direttamente con i contenuti del quotidiano. Sebbene il New York Times abbia affermato in una dichiarazione di riconoscere il potenziale in termini di utilità dell’Intelligenza Artificiale Generativa per il pubblico e per il giornalismo, ha aggiunto che, se utilizzato per scopi commerciali, il materiale giornalistico richiede il permesso del detentore dei diritti di copyright.

Questi strumenti, si afferma nell’articolo del New York Times che riporta la notizia, “sono stati creati e continuano a utilizzare giornalismo indipendente e contenuti che sono disponibili solo perché noi e i nostri colleghi li abbiamo segnalati, modificati e verificati a costi elevati e con notevole esperienza” e quindi “se Microsoft e OpenAI desiderano utilizzare il nostro lavoro per scopi commerciali, la legge [riferendosi alle norme sul copyright] richiede che ottengano prima il nostro permesso. Non l’hanno fatto”.

Il dettaglio non è di poco conto perché, come sappiamo, le società che sviluppano sistemi di AI non dichiarano espressamente su quali contenuti sono stati allenati i propri algoritmi e anche perché lo studio legale Susman Godfrey che assiste il New York Times in questo procedimento è lo stesso che rappresenta anche l’autore Julian Sancton e altri scrittori in una causa separata contro OpenAI e Microsoft che accusa le società di utilizzare materiali protetti da copyright senza autorizzazione per addestrare diverse versioni di ChatGPT.

In un’udienza al Congresso lo scorso mese di maggio, Sam Altman, CEO di OpenAi, si è mantenuto abbastanza vago su questo tema, affermando che i modelli utilizzati da ChatGPT sono addestrati su un’ampia gamma di dati che includono contenuti disponibili al pubblico, contenuti concessi in licenza e contenuti generati da revisori umani.

La causa arriva due settimane dopo che un altro importante editore, Axel Springer, che edita il quotidiano tedesco Bild oltre che Politico e Business Insider, ha invece raggiunto un accordo economico proprio con OpenAi per l’utilizzo dei propri contenuti da parte di ChatGPT, accordo che invece il New York Times dichiara non essere riuscito a siglare.

La denuncia del New York Times è quindi da questo punto di vista importante perché capiremo quali saranno gli orientamenti della Corte sul tema del copyright atteso che le società di Intelligenza Artificiale si sono sempre rifatte alla dottrina del Fair Use che consente a una parte di utilizzare un’opera protetta da copyright senza il permesso del proprietario del copyright per scopi quali critiche, commenti, notizie, insegnamento, borse di studio o ricerca.

Adesso, man mano che gli strumenti di intelligenza artificiale continuano ad avanzare in termini di capacità e portata, la tradizionale applicazione del Fair Use potrebbe essere messa in discussione e un’interpretazione più restrittiva del suo utilizzo potrebbe ridurre drasticamente il modo in cui l’intelligenza artificiale generativa viene addestrata e utilizzata portando addirittura all’obbligo di rimozione del materiale che viola il diritto d’autore sulla base del Digital Millennium Copyright Act (DMCA).

Synthesia: generazione automatica di video con l’AI

Synthesia è una startup che si occupa di generazione automatica di video con l’ausilio dell’Intelligenza Artificiale. Creare un video non è proprio una passeggiata, bisogna avere a disposizione uno studio, degli attori, le telecamere, fare attenzione alle luci, al suono, lavorare sulla post-produzione: insomma un processo complesso. Almeno fino ad ora. Perché la capacità dei sistemi guidati dall’Intelligenza Artificiale di generare contenuti audiovisivi sta facendo dei progressi enormi grazie al rilascio di sistemi di syntetic media in grado di generare video, immagini, testi e voci direttamente dal computer.

Ed è proprio quello che fa Synthesia, il tool di creazione video AI in grado di combinare Intelligenza Artificiale generativa, avatar, voci fuori campo e montaggio per creare in pochi minuti video di alta qualità, offrendo un’ampia gamma di funzionalità, come avatar, voci, sintesi vocale e un assistente di script per semplificare il processo di creazione dei video.

E’ anche possibile personalizzare il proprio avatar in modo che abbia il nostro aspetto, così come la nostra voce, oppure accedere ad una libreria di 60 template, video, 140 avatar e l’opzione di 120 lingue. Anche se, a proposito delle lingue, forse l’italiano è ancora da perfezionare.

Sotto un breve video di esempio di quello che si può realizzare con Synthesia. La facilità di generazione video è davvero impressionante, così come l’adattabilità nelle sfumature linguistiche, tranne forse che per l’italiano.

Qui sotto la versione in inglese:

Questa la versione in spagnolo:

La versione francese:

E infine, la versione in italiano, forse la meno riuscita:

PS: il tool è a pagamento, da 20,00 euro/mese

Editoria e Intelligenza Artificiale: accordo OpenAi e Axel Springer

ChatGPT potrà accedere e proporre ai propri utenti gli articoli di Bild, Die Welt, Politico e Business Insider. E’ il risultato dell’accordo tra l’editore tedesco Axel Spriger e OpenAI che pagherà per consentire a ChatGPT di riassumere gli articoli nelle risposte generate dal chatbot e di fornire collegamenti agli articoli completi per trasparenza e ulteriori informazioni.

E’ il primo accordo del genere in Europa per il settore dell’editoria e segna un precedente importante per il settore legato al tanto discusso tema del copyright. Precedentemente Associated Press ha dichiarato di avere concesso in licenza parte del proprio archivio a OpenAI, autorizzandone l’utilizzo per l’addestramento di ChatGPT a fronte di una adeguata remunerazione.

Il settore dell’editoria e dei mezzi di informazione ha un forte interesse per lo sviluppo e l’implementazione delle tecnologie di intelligenza artificiale, perché in grado di offrire agli editori digitali la possibilità di innovare e ampliare la propria offerta informativa utilizzando nuovi strumenti (l’ottimizzazione dei processi distributivi, l’analisi dei trend di mercato e delle preferenza dei lettori, lo sviluppo di tool di raccomandazioni personalizzate), ma solleva anche interrogativi sull’idoneità del quadro normativo esistente, soprattutto per quanto riguarda i diritti d’autore e il loro utilizzo non autorizzato e non retribuito per addestrare i sistemi di Intelligenza Artificiale.

Aleph Alpha, la startup tedesca di Intelligenza Artificiale Generativa raccoglie 500 milioni di dollari

Aleph Alpha è una start-up tedesca che fornisce sistemi di intelligenza artificiale generativa ad aziende e governi. Nel suo ultimo round di finanziamento ha raccolto più di 500 milioni di dollari da Innovation Park Artificial Intelligence (Ipai), Bosch Ventures e le società del Gruppo Schwarz, diventando un questo modo una delle start-up di AI in più rapida crescita e più apprezzate in Europa, assieme alla francese Mistral AI.

Il finanziamento farà avanzare la ricerca proprietaria sull’intelligenza artificiale e accelererà lo sviluppo e la commercializzazione dell’intelligenza artificiale generativa.

Aleph Alpha, che è stata fondata nel 2019 da Jonas Andrulis (che aveva maturato una precedente esperienza lavorando sull’intelligenza artificiale in Apple), si concentra sulla costruzione di modelli linguistici di grandi dimensioni (LLM) ma, a differenza della francese Mistral AI, è già attiva a livello commerciale. I clienti dell’azienda, che vanno dalle banche alle agenzie governative, utilizzano i LLM di Aleph Alpha per scrivere nuovi rapporti finanziari, riassumere report di centinaia di pagine e creare chatbot aziendali. Ma gli LLM sono solo una parte dell’attività su cui è concentrata l’azienda che punta allo sviluppo dell’intelligenza artificiale generale e la cui specializzazione è nella protezione e nella sicurezza dei dati regolamentati.

Proprio per questo ha aperto il suo primo data center a Berlino in modo da poter soddisfare meglio settori altamente regolamentati, come quello delle aziende governative o della sicurezza, che ritengono mandatorio il fatto che i propri dati sensibili siano ospitati in Germania o comunque all’interno dell’UE. A tale proposito il modello sviluppato da Aleph Alpha può già comunicare oltre che in tedesco, in francese, spagnolo, italiano e inglese, e i suoi dati di addestramento includono il vasto archivio di documenti pubblici multilingue pubblicati dal Parlamento Europeo.

I cambiamenti recenti e imminenti nella regolamentazione europea dell’IA generativa con l’AI Act potrebbero contribuire a detreminarne il successo nel prossimo futuro, grazie ai suoi collegamenti con enti governativi e con le forze dell’ordine. Nonostante ciò Aleph Alpha deve ancora dimostrare che la sua tecnologia sia sufficientemente avanzata da poter diventare un competitor effettivo delle grandi aziende Usa del settore.

Mistral AI, la startup francese di Intelligenza Artificiale Generativa raccoglie 385 milioni di finanziamento

Mistral AI, la start-up francese specializzata in Intelligenza Artificiale Generativa, ha appena completato un round di finanziamento da 385 milioni di euro guidato dai fondi statunitensi Andreessen Horowitz e Lightspeed Venture insieme a una serie di altri investitori tra cui Salesforce Ventures, BNP Paribas, CMA CGM, General Catalyst e, secondo quanto riportato dal quotidiano economico francese Les Echos, Nvidia.

L’azienda è stata fondata lo scorso mese di maggio da Arthur Mensch, ex ricercatore di Google DeepMind e da due soci, Timothée Lacroix e Guillaume Lample che hanno lavorato entrambi a Meta nel team responsabile dei grandi modelli linguistici (LLM), lo stesso tipo di tecnologia alla base di applicazioni come ChatGPT.

L’obiettivo dell’azienda è quello di creare un campione europeo con una vocazione globale nell’intelligenza artificiale generativa, basato su un approccio aperto, responsabile e decentralizzato alla tecnologia.

A settembre, Mistral AI ha rilasciato il suo primo modello chiamato Mistral 7B. Questo modello linguistico di grandi dimensioni non è pensato per competere direttamente con GPT-4 o Claude 2 poiché è stato addestrato su un set di dati “piccolo” di circa 7 miliardi di parametri. Invece di consentire l’accesso al modello Mistral 7B tramite API, l’azienda lo ha reso disponibile come download gratuito in modo che gli sviluppatori potessero eseguirlo sui propri dispositivi e server.

Il modello è stato rilasciato con licenza Apache 2.0, una licenza open source che non prevede restrizioni sull’uso o sulla riproduzione oltre l’attribuzione. Sebbene il modello possa essere gestito da chiunque, è stato sviluppato a porte chiuse con un set di dati proprietario e pesi non divulgati.

Adesso, senza addentrarci troppo su aspetti legati alla tecnologia, quello che mi preme sottolineare è la straordinaria attenzione che quest’azienda ha saputo catalizzare su di se, non solo in casa propria, in quella Francia alla disperata ricerca di un campione nazionale dell’AI da poter ostentare sul piano politico (ricordiamoci che il presidente Emmanuel Macron è uno dei suoi grandi sponsor) ma anche oltreoceano, dove aziende del calibro di Salesforce e Nvidia hanno ritenuto di scommettere su questa startup.

Vale peraltro la pena sottolineare come Mistral AI abbia svolto un ruolo importante nel dare forma alle discussioni sull’AI Act dell’UE, esercitando pressioni per un’esenzione totale per i modelli fondamentali e guidando in qualche modo la posizione della Francia favorevole ad una regolamentazione dell’AI che dovrebbe applicarsi invece a valle, ai casi d’uso e alle aziende che lavorano su prodotti utilizzati direttamente dagli utenti finali.

Intesa UE sulle regole per l’Intelligenza Artificiale

Dopo un negoziato fiume durato oltre 36 ore i politici e i legislatori dell’Unione europea hanno raggiunto venerdì un accordo sul primo insieme completo di norme al mondo che regolano l’uso dell’Intelligenza Artificiale.

Nelle prossime settimane verranno elaborati i dettagli di quello che di fatto può essere definito un accordo politico, che dovrà poi passare dall’approvazione finale degli Stati membri oltre che dal Parlamento europeo.

I punti chiave su cui si è arrivati ad un accordo riguardano principalmente i cosidetti sistemi ad alto rischio, quelli che si ritiene possano avere una significativa potenzialità potenziale di nuocere alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia, alle elezioni e allo Stato di diritto. Questi sistemi, in particolare, dovranno rispettare una serie di requisiti e sono previsti una serie di obblighi nei confronti dei fornitori e dei sviluppatori di sistemi di IA a seconda dei livelli di rischio identificati.

I sistemi di intelligenza artificiale che si ritiene presentino rischi limitati sarebbero soggetti a obblighi di trasparenza molto leggeri, come etichette informative che dichiarino che il contenuto è stato generato dall’intelligenza artificiale per consentire agli utenti di decidere come utilizzarlo.

Uno dei capitoli più importanti, su cui il negoziato si è incagliato per ore, è quello delle pratiche di AI vietate perché potenzialmente in grado di minare i diritti fondamentali, come il divieto di sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale, il cui uso sarà limitato a casi specifici.

L’uso di sistemi di identificazione biometrica remota in tempo reale negli spazi pubblici da parte delle forze dell’ordine sarà consentito solo per aiutare a identificare le vittime di rapimenti, tratta di esseri umani, sfruttamento sessuale e per prevenire una minaccia terroristica specifica e attuale. Sarà inoltre autorizzato per rintracciare persone sospettate di reati di terrorismo, tratta, sfruttamento sessuale, omicidio, rapimento, stupro, rapina a mano armata, partecipazione a un’organizzazione criminale e crimini ambientali.

Tra i punti controversi, anche quello sui modelli di fondazione come GPT-4, alla base di ChatGPT. L’accordo prevede obblighi più stringenti per i modelli ad alto impatto con rischio sistemico che saranno soggetti a requisiti di trasparenza come la stesura di documentazione tecnica, il rispetto della normativa UE sul copyright e la diffusione di riepiloghi dettagliati sui contenuti utilizzati per la formazione degli algoritmi.

Sono invece espressamente proibite attività come i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili come convinzioni politiche, religiose, filosofiche, orientamento sessuale e razza; il recupero non mirato di immagini facciali da Internet o tramite filmati di video sorveglianza per creare database di riconoscimento facciale; il riconoscimento delle emozioni sul posto di lavoro e nelle scuole; il punteggio sociale basato sul comportamento sociale o sulle caratteristiche personali (come invece avviene in Cina); i sistemi di intelligenza artificiale che manipolano il comportamento umano per aggirare il loro libero arbitrio e, più in generale, tutte quelle applicazioni dell’AI volte a sfruttare le vulnerabilità delle persone a causa della loro età, disabilità, situazione sociale o economica.

L’UE diventa il primo continente a stabilire regole chiare per l’uso dell’intelligenza artificiale“, ha scritto su X il commissario per il mercato interno Thierry Breton, secondo cui l’AI Actè molto più di un regolamento: è un trampolino di lancio per startup e ricercatori dell’UE per guidare la corsa globale all’intelligenza artificiale”.

Dello stesso tono anche il commento di uno dei correlatori della legge sull’Intelligenza Artificiale, il deputato Dragoș Tudorache: “Siamo i primi al mondo a mettere in atto una vera regolamentazione per il futuro mondo digitale guidato dall’intelligenza artificiale, guidando lo sviluppo e evoluzione di questa tecnologia in una direzione incentrata sull’uomo.

Tuttavia non mancano reazioni critiche come quella del deputato del Ppe Axel Voss che si è detto “non convintoche questo sia il modo giusto per garantire che l’Europa rimanga competitiva nell’IA. L’innovazione si farà comunque altrove“.

E il punto forse è proprio questo. L’Europa ha sicuramente vinto la gara per legiferare in materia di Intelligenza Artificiale, ma l’innovazione su questo campo si sta facendo altrove, negli Stati Uniti e in Cina. Bene guardare ad uno sviluppo responsabile dell’Intelligenza Artificiale che, come tutte le tecnologie va prima o poi regolamentata. Ma occorre anche che non si mettano troppi vincoli alle aziende europee che già sono destinate a rincorrere, perché il Vecchio Continente su questo tema non è competitivo. Non si parla poi di investimenti, di una cornice unica europea in grado di favorire la ricerca e lo sviluppo in questo ambito, con finanziamenti e interventi nel capitale di rischio di start up e piccole imprese. Perché altrimenti, ancora una volta, l’Europa rischia di perdere il treno dell’innovazione, così come è già stato per Internet e per i Social.

Un anno di Chat GPT

Esattamente un anno fa, il 30 novembre 2022, OpenAI rilasciava ChatGPT che nel giro di pochi mesi è diventata l’applicazione con la crescita più rapida di tutti i tempi. È raro che un singolo prodotto crei un impatto così forte sull’industria tecnologica in un solo anno eppure, grazie al fatto di aver reso disponibili i modelli linguistici di grandi dimensioni (LLM) ad un vasto pubblico, ha creato un nuovo filone nel mondo della tecnologia.

Durante questi 365 giorni, ChatGPT ha ampliato la percezione pubblica dell’Intelligenza Artificiale, ha catturato l’immaginazione, attirato i critici e alimentato in alcuni una sorta di angoscia esistenziale per il timore che macchine e algoritmi potessero conquistare a breve il mondo.

Ha rilanciato Microsoft (che ha investito in OpenAI 10 miliardi di dollari), ha messo sotto pressione Google, ha dettato l’agenda dei leader mondiali spingendo vari tentativi di regolamentazione governativa, ha contribuito ad aggiungere parole al nostro dizionario quotidiano, ispirando conferenze e dando il via ad una serie di altre applicazioni basate sull’intelligenza generativa per realizzare immagini, foto, musica e persino video, allarmando anche il mondo di Holliwood.

ChatGPT ha contributo ad accelerare le attività di programmazione degli sviluppatori di software, ha assistito editor, scrittori e marketing manager nelle proprie attività, ha fatto intravedere le opportunità infinite di questa tecnologia connesse alla ricerca scientifica, all’educazione e a tanti altri campi della società, anche se, da un punto di vista tecnologico, inizialmente ChatGPT non è sembrato particolarmente nuovo agli esperti del settore. I chatbot esistevano già da tempo e GPT-3, il modello di AI che ha portato a ChatGPT, era in circolazione dal 2020.

Tuttavia OpenAI non si è fermata, ha continuato a testare nuove funzionalità, aggiungendo anche un livello a pagamento per l’accesso prioritario e con il lancio di GPT-4 nel marzo 2023, ChatGPT ha ricevuto un notevole aggiornamento, diventando un assistente sempre più affidabile e ampiamente considerato il leader tra i modelli linguistici di Intelligenza Artificiale.

Cassandra, il primo cortometraggio realizzato con il contributo dell’Intelligenza Artificiale

È disponibile da oggi su RaiPlay ‘Cassandra‘, un cortometraggio realizzato grazie alla collaborazione tra intelligenze umane e artificiali, prodotto da Scuola Holden con Rai Cinema.

Protagoniste della storia sono Agatha, una giovane studentessa della Scuola Holden, e Cassandra, una app di intelligenza artificiale predittiva. Cassandra è stata progettata per analizzare i dati raccolti sulle abitudini degli utenti e, in base a un semplice calcolo delle probabilità, può prevedere con una certa esattezza quel che accadrà nelle loro vite.

Agatha insegna a Cassandra a somigliare il più possibile a un essere umano e a parlare alle persone con una voce viva. Con il passare dei giorni, però, la ragazza capisce che le previsioni di Cassandra si spingono ben oltre i calcoli matematici, rischiando di influenzare attivamente le scelte personali di chi si affida alle sue predizioni.

Cassandra – spiega una nota di produzione – segna un nuovo modello produttivo: è il primo cortometraggio concepito e realizzato insieme all’Ai potenziando la creatività umana. I pensieri di Cassandra sono stati ispirati da un dialogo tra gli autori e un’applicazione di AI, Google Bard.

Il cortometraggio è stato poi girato in parte facendo recitare gli attori in carne e ossa, e in parte utilizzando Runway, un tool di editing video basato su intelligenza artificiale generativa che ha creato alcune scene del corto trasformandole nei pensieri di Cassandra, mentre il personaggio stesso di Cassandra è stato interamente generato con l’AI grazie alla combinazione tra Midjourney e HeyGen per l’animazione.

Infine anche il logo di Cassandra è stato sviluppato grazie a Looka, anche questa una piattaforma basata sull’intelligenza artificiale.

Di seguito il trailer:

Clicca qui per guardare il corto su Rai Play.

Intelligenza Artificiale in Russia. Putin: inaccettabile il monopolio dell’Occidente

Il presidente russo Vladimir Putin ha annunciato venerdì (23 novembre 2023) un piano per sostenere una strategia nazionale per lo sviluppo dell’intelligenza artificiale, sottolineando che è essenziale prevenire il monopolio occidentale.

Intervenendo a una conferenza sull’intelligenza artificiale a Mosca, Putin ha osservato che “è imperativo utilizzare soluzioni russe nel campo della creazione di sistemi di intelligenza artificiale affidabili e trasparenti che siano sicuri anche per l’uomo”.

Il dominio monopolistico di tale tecnologia straniera in Russia è inaccettabile, pericoloso e inammissibile”, ha affermato Putin, sottolineando come, a suo avviso, “molti sistemi moderni, basati su dati occidentali, sono destinati al mercato occidentale” riflettendo per questo “quella parte dell’etica occidentale, delle norme di comportamento e della politica pubblica a cui ci opponiamo”.

Si è impegnato a investire risorse aggiuntive nello sviluppo di supercomputer e altre tecnologie per contribuire a intensificare la ricerca nazionale sull’intelligenza artificiale.

Il governo russo da parte sua ha annunciato l’intenzione di rilasciare una tabella di marcia ufficiale per lo sviluppo dell’IA, che mira a identificare e rimuovere gli ostacoli allo sviluppo di soluzioni di IA e a stimolare la domanda di mercato interna in Russia promuovendo la cooperazione pubblico-privato e coinvolgendo l’industria privata nello sviluppo dell’IA.

Il Paese d’altra parte può contare un significativo background accademico in ambito scientifico, tecnologico, ingegneristico e matematico (STEM) assieme ad un importante bacino di talenti in all’interno delle forze armate che, attraverso la Advanced Research Foundation (ARF), svolgono un ruolo significativo nello sviluppo dell’IA, in particolare

La strategia enfatizza anche l’educazione all’IA e lo sviluppo di hardware e software per l’IA da parte delle industrie del Paese. Il settore privato russo sta vivendo una rinascita nello sviluppo dell’IA, con progetti di rilievo nelle tecnologie di riconoscimento delle immagini e del parlato. Tuttavia, il settore privato deve affrontare sfide come la limitatezza dei finanziamenti e del supporto. Anche l’esercito russo sta investendo nello sviluppo dell’IA, in particolare nei sistemi di armamento e nell’elaborazione delle informazioni per le guerre informatiche per incorporare l’IA in vari sistemi d’arma e hanno identificato i principi di sviluppo dell’IA, tra cui il riconoscimento delle immagini, il riconoscimento vocale, il controllo di sistemi militari autonomi e il supporto al ciclo di vita delle armi. Il governo sta inoltre istituendo una “tecnopoli” dell’innovazione militare chiamata “ERA” per creare un laboratorio di IA e facilitare la collaborazione tra l’esercito e il settore privato il cui sviluppo in quest’ambito è relativamente ridotto rispetto ad altri Paesi a causa della mancanza di disponibilità di capitale di rischio (come quello che guida gli investimenti nella Silicon Valley), sebbene vi siano aziende come Yandex.ru, ABBYY e VisionLabs che stanno sviluppando e utilizzando le tecnologie AI soprattutto nei settori del riconoscimento dei dati di testo e del riconoscimento facciale.

Nasce Kyutai: il primo laboratorio europeo di ricerca sull’Intelligenza Artificiale. Open Source e No-profit

È stato inaugurato in Francia il primo laboratorio europeo dedicato alla ricerca sull’Intelligenza Artificiale. Il progetto si chiama Kyutai e poggia sui principi dell’open source e del no-profit, un modello simile a quello con cui è nata OpenAI a San Francisco qualche tempo fa.

Tra i promotori del progetto, che ha a disposizione un finanziamento iniziale di circa 300 milioni di euro, Xavier Niel, CEO e fondatore del gruppo Iliad, Rodolphe Saadé, presidente del gruppo logistico CMA CGM e Eric Schmidt, ex CEO di Google. All’evento di lancio, tenutosi nei locali di Station F, un campus per startup da 34mila metri quadri nella Halle Freyssinet, a Parigi, è intervenuto anche Jensen Huang, CEO di Nvidia, i cui processori H100 garantiscono la potenza di calcolo necessaria al nuovo progetto.

Il laboratorio punta a diventare un polo di attrazione per i talenti del settore e un centro di eccellenza nel campo dell’AI per quell’Europa che su questo tema si trova a dover inseguire Stati Uniti e Cina.

Guida ai Prompt: il RISEN framework

Mettiamo che abbiate aperto ChatGPT con in testa un’idea di ciò che volete chiedergli, ma che abbiate difficoltà a tradurre i vostri pensieri in istruzioni precise affinché ChatGPT capisca effettivamente cosa volete che faccia.

In questo caso è possibile usare i cosidetti Prompt framework che servono per dare una struttura precisa per fornire le informazioni giuste al vostro chatbot AI che state utilizzando.

YouTube lancia Dream Track per creare musica con l’Intelligenza Artificiale

YouTube ha svelato un nuovo esperimento di applicazione dell’Intelligenza Artificiale alla musica in collaborazione con il laboratorio DeepMind di Google. Uno di questi in particolare, offre agli utenti la possibilità di generare frammenti di canzoni originali, con una durata massima di 30 secondi, utilizzando l’Intelligenza Artificiale per clonare la voce dell’artista prescelto.

Dream Track, questo il nome dell’esperimento di cui parliamo, che si trova su YouTube Shorts, è realizzato in collaborazione con 9 artisti, tra cui Demi Lovato, John Legend, Alec Benjamin, Charlie Puth, Sia, Charli XCX, Papoose, T-Pain e Troye Sivan, che hanno accettato di partecipare a questo innovativo esperimento.

Dream Track è alimentato da Lyria, il modello di generazione musicale più avanzato di Google DeepMind, e al momento è accessibile solo a un piccolo gruppo di artisti e creatori.

Il funzionamento è semplice: gli utenti inseriscono un’idea nel prompt di creazione, selezionano un artista partecipante, et voilà, ottengono un frammento di canzone unico generato dall’intelligenza artificiale con la voce e lo stile di quell’artista.

Secondo Lyor Cohen, responsabile di YouTube per la musica, e Toni Reid, vicepresidente delle esperienze emergenti e dei prodotti per la comunità, l’obiettivo di questo esperimento è esplorare come la tecnologia può creare connessioni più profonde tra gli artisti, i creatori e i loro fan. I dirigenti hanno paragonato il progresso dell’intelligenza artificiale nella musica all’impacto del sintetizzatore, che ha trasformato la musica elettronica e rock.

YouTube ha condiviso esempi di tracce generate, come una frase melodica di “Charlie Puth” basata sulla richiesta di “Una ballata sugli opposti che si attraggono“.

Allo stesso modo, è stata creata un’anteprima di Dream Track per T-Pain, ispirata dalla descrizione “Una mattina soleggiata in Florida, R&B“.

Tuttavia, l’uso dell’intelligenza artificiale per imitare voci e stili artistici ha sollevato e continua a sollevare dubbi e perplessità, per i possibili abusi.

Uno degli esempi più noti è Heart on My Sleeve, una canzone con voci create dall’intelligenza artificiale che si spacciavano per Drake e The Weeknd. La canzone è stata ritirata dai servizi di streaming dopo che Universal Music Group, la casa discografica di entrambi gli artisti, l’ha criticata per “contenuti illeciti creati con l’IA generativa“. Tuttavia, la canzone è ancora accessibile agli ascoltatori su YouTube.

https://www.youtube.com/watch?v=pIJSKxVJppA

In risposta, YouTube ha adottato nuove politiche che non solo richiedono ai creator di indicare quando caricano contenuti generati dall’intelligenza artificiale, ma anche la possibilità per le case discografiche di richiedere la rimozione dei brani che utilizzano versioni generate dall’intelligenza artificiale delle voci degli artisti senza autorizzazione.

L’entusiasmo degli artisti coinvolti è palpabile. “Lo sviluppo della tecnologia AI sta cambiando rapidamente il modo in cui ci muoviamo nel mondo, e credo che come artisti dobbiamo essere parte del futuro“, ha dichiarato Demi Lovato in un comunicato. “La mia carriera è stata incentrata sul superamento dei confini… e sulla creazione della musica più interessante per i miei fan. Sono aperta e spero che questo esperimento con Google e YouTube sia un’esperienza positiva e illuminante“.

Charlie Puth ha dichiarato: “Sono estremamente emozionato e ispirato… YouTube è stato un grande partner nel delineare il proprio approccio all’IA e comprende la necessità di lavorare insieme per sviluppare questa tecnologia in modo responsabile, assicurandosi che acceleri la creatività invece di sostituirla“.

Da parte sua, T-Pain ha dichiarato: “Ho sempre voluto spingermi oltre i confini della tecnologia e sfruttarla per creare la musica più interessante per i miei fan. Chissà cosa ci riserva il futuro, ma unire le mani con YouTube e Google per contribuire a plasmare quel futuro mi sembra un ottimo primo passo“.

YouTube sottolinea l’importanza di affrontare responsabilmente l’intelligenza artificiale, riconoscendo che si tratta di una tecnologia destinata ad amplificare la creatività umana, non a sostituirla. Quel che è certo è che quando innovazione tecnologica, creatività umana e musica si incontrano, possono accadere cose straordinarie. 

Prompt Chat GPT per scrivere un articolo Seo ottimizzato

Scrivere un articolo Seo con l’aiuto di Chat GPT è abbastanza semplice, basta utilizzare il giusto Prompt. Vediamolo di seguito nel dettaglio come impostarlo al meglio.

ll futuro della cardiologia: Susan-Gpt-4 rivela come l’Intelligenza Artificiale sta rivoluzionando la medicina

Provate ad immaginate un futuro in cui l’Intelligenza Artificiale applicata alla medicina sarà così normale da far si che ci si possa trovare davanti non un medico vero e proprio, in carne ed ossa intendo, ma un avatar, un chat bot virtuale. Ebbene non c’è bisogno di immaginarlo perché il futuro è già qui. Bastava essere presenti all’ultimo convegno dedicato alle malattie cardiovascolari e alla cura del cuore organizzato dall’ospedale Molinette di Torino per rendersene conto.

La guest star dell’evento, se così possiamo definirla, è stata infatti proprio un algoritmo, sviluppato da Chat GPT che, assumendo le sembianze di un’avatar, ha presentato le potenzialità dell’AI in ambito medico, rispondendo alle domande di una squadra internazionale di professori e medici: Gaetano Maria De Ferrari, direttore della Cardiologia universitaria delle Molinette, Amedeo Chiribiri di Londra, Amir Lerman della Mayo Clinic di Rochester USA ed il dottor Maurizio Roberto direttore della Cardiochirurgia di Cuneo.

L’avatar cardiologa ha accettato la proposta di De Ferrari di farsi chiamare Susan per la durata della sessione scientifica e ha chiarito che il suo ruolo e la sua capacità erano quelle di fornire risposte sulla base della consultazione di una smisurata banca dati mondiale aggiornata ad aprile 2023.

Ha altresì chiarito di non provare emozioni o sentimenti in prima persona, ma di capire le emozioni dell’uomo e di poter fornire informazioni su emozioni ed esperienze umane.

Rispondendo a domande più specifiche, l’avatar cardiologa ha detto che l’Intelligenza Artificiale sta rapidamente rivoluzionando la medicina, indicando moltissimi campi di applicazione. Per quanto riguarda la cardiologia, Susan-Gpt-4 ha indicato settori specifici per i quali entro 5 anni nulla sarà come prima. Tra questi l’analisi dell’elettrocardiogramma, dove l’AI si è già dimostrata molto superiore all’uomo, l’analisi delle immagini diagnostiche come Tac, risonanza magnetica ed ecocardiogramma, l’ottimizzazione delle procedure interventistiche, quali l’ablazione della aritmie e l’impianto della valvola aortica ed anche la predizione del rischio nel singolo paziente.

Proprio in questo ultimo ambito peraltro, la Cardiologia dell’Ospedale Molinette di Torino ha, prima al mondo, sviluppato un punteggio per il rischio dopo infarto, proprio utilizzando la IA.

Susan ha anche sostenuto con forza la necessità che l’AI venga rapidamente inserita tra gli insegnamenti che si impartiscono agli studenti di Medicina ed ai neo-laureati che frequentano una scuola di specializzazione, segnalando come questi medici si troveranno ad operare in un sistema dove gli algoritmi di AI saranno utilizzati in ogni processo diagnostico ed operativo, ma con il rischio di non aver ricevuto alcuna educazione per capire le potenzialità e i limiti di questo approccio rivoluzionario, se non adeguatamente formati.

Nel corso del suo intervento Susan-Gpt-4 ha chiarito che in ogni ambito medico non potremo mai più fare a meno dell’AI, vigilando sulla correttezza del suo utilizzo e che l’uomo, in particolare il dottore empatico, che prova emozioni e le comunica al paziente ed allo studente, sarà sempre necessario sia per curare i malati che per insegnare ai giovani.

Seguiamo l’intervento:

Il Giappone passa la presidenza del G7 all’Italia. Tra gli obiettivi lavoro e Intelligenza Artificiale

Il Giappone ha passato l’8 novembre all’Italia la Presidenza del G7 (che ha durata annuale e ruota tra i paesi membri in base alla sequenza Stati Uniti, Regno Unito, Germania, Giappone, Italia, Canada, Francia): tra le attività già annunciate dall’Italia ci sarà una conferenza sul rapporto tra Intelligenza Artificiale e lavoro.

Una materia, quella dell’AI “sulla quale dobbiamo coinvolgere gli attori privati, perché costruire una governance dell’intelligenza artificiale non vuol dire lavorare contro le aziende, ma dialogare col mondo privato in un mondo in cui gli interessi pubblici e privati, entrambi legittimi, non sono sempre sovrapponibili e a volte sono in contrasto” il commento del presidente del Consiglio Giorgia Meloni al Comitato per la Transizione digitale a Palazzo Chigi.

Noi dobbiamo evitare” continua la Meloni “che aumenti il divario tra i ricchi e i poveri, che scompaia la classe media e che in definitiva l’impatto dell’intelligenza artificiale sia più negativo che positivo sulle nostre vite e sulle nostre società”.

Tra le priorità indicate dal presidente del Consiglio, quella di fare in modo che l’IA sia incentrata sull’uomo e controllata dall’uomo, lavorando “per garantire delle barriere etiche all’Intelligenza artificiale e dare applicazione pratica al concetto di algoretica, ovvero dare un’etica agli algoritmi” che ha chiuso ringraziando su questo punto Padre Paolo Benanti, docente all’Università Gregoriana, che è stato recentemente nominato dal Segretario Generale delle Nazioni Unite, unico italiano, come membro del Comitato di esperti sull’Intelligenza Artificiale.

Il G7 2024 si svolgerà dal 13 al 15 giugno in Puglia, nella Valle d’Itria, a Borgo Egnazia.

Samsung: l’Intelligenza Artificiale tradurrà le telefonate in tempo reale

Anche Samsung si lancia nel mondo dell’intelligenza artificiale. L’azienda sta lavorando alla sua IA che dovrebbe arrivare a inizio del 2024 ed essere resa disponibile sui telefoni più recenti. Tra le funzioni più interessanti che verranno abilitate un traduttore audio e testo delle telefonate in tempo reale, rendendo così più semplice effettuare una chiamata in un’altra lingua grazie all’AI generativa Gauss.

Sviluppata da Samsung Research, l’intelligenza artificiale generativa è composta da tre modelli: Samsung Gauss Language, Samsung Gauss Code e Samsung Gauss Image.

Il colosso tecnologico sudcoreano ha affermato che il suo modello di intelligenza artificiale prende il nome da Carl Friedrich Gauss, il matematico che stabilì la teoria della distribuzione normale, la spina dorsale dell’apprendimento automatico e dell’intelligenza artificiale.

Samsung Gauss incarnerà la nostra visione di sfruttare la potenza dell’intelligenza artificiale per migliorare la vita dei consumatori di tutto il mondo”, ha affermato un dirigente dell’azienda al Samsung AI Forum 2023 che si è tenuto questa settimana a Seul.

In particolare, la funzione di traduzione AI Live Translate Call metterà a disposizione degli utenti un traduttore personale ogni volta che ne avranno bisogno. Le traduzioni audio e testuali appariranno in tempo reale mentre si parla, rendendo estremamente semplice effettuare una chiamata in un’altra lingua.

Sebbene Samsung non abbia specificato la disponibilità della sua piattaforma AI al forum, gli esperti del settore si aspettano che l’IA on-device basata su Samsung Gauss sarà incorporata nella sua linea di smartphone di prossima generazione della serie Galaxy S24, il cui lancio è previsto per gennaio 2024.

Con il rilascio di Samsung Gauss, Samsung entra nell’arena dell’AI globale, preparandosi a competere seriamente con le Big Tech del settore.

Chat GPT fallisce il test di Touring

Non ce l’ha fatta: ChatGpt non ha superato il test di Turing, ideato per capire se una macchina ha raggiunto un livello di intelligenza tale da poter ingannare qualcuno facendogli credere di essere umana.

Ci è andata però molto vicino: nella sua versione più aggiornata, Gpt-4, è riuscita a ingannare i partecipanti il 41% delle volte. Il risultato è stato pubblicato sulla piattaforma arXiv, che ospita lavori non ancora passati al vaglio della comunità scientifica, da due ricercatori dell’Università della California a San Diego.

I due ricercatori Cameron Jones e Benjamin Bergen hanno arruolato 650 partecipanti per sostenere brevi conversazioni con altri volontari oppure con ChatGpt, a loro insaputa.

L’ultima versione Gpt-4, rilasciata dall’azienda OpenAI quest’anno, ha convinto i partecipanti di essere una persona il 41% delle volte, mentre la versione precedente, chiamata Gpt-3.5, solo dal 5% al 14% delle volte.

È interessante anche notare che gli esseri umani sono riusciti a convincere gli altri volontari di non essere delle macchine solo nel 63% delle prove.

Coloro che hanno smascherato correttamente ChatGpt si sono basati su alcuni fattori chiave: conversazioni troppo formali o, all’opposto, troppo informali, testi eccessivamente prolissi o molto sintetici, oppure anche una grammatica e una punteggiatura eccezionalmente buona o pessima, erano tutti elementi che facevano risuonare un segnale di ‘allarme’. Un’altra caratteristica rivelatrice è risultata la genericità della risposta. “Questi sistemi sono ottimizzati per produrre testi altamente probabili e per evitare opinioni controverse“, spiegano gli autori dello studio: “e ciò incoraggia risposte molto generiche, prive delle idiosincrasie tipiche di una persona“.

AI Safety Summit a Bletchley Park: la Gran Bretagna prova a guidare il dibattito globale sull’Intelligenza Artificiale

La Gran Bretagna ha deciso di ospitare il suo primo vertice globale sull’intelligenza artificiale, l’AI Safety Summit, a Bletchley Park, proprio nel sito considerato il luogo di nascita dell’informatica grazie ai progressi nei processi crittografici e di intelligence durante la Seconda Guerra Mondiale.

I timori sull’impatto che l’Intelligenza Artificiale potrebbe avere sulle economie e sulla società sono esplosi nel novembre dello scorso anno quando OpenAI ha reso disponibile al pubblico la sua tecnologia. ChatGPT, utilizzando strumenti di elaborazione del linguaggio naturale per creare un dialogo simile a quello umano, ha alimentato i timori (anche tra alcuni pionieri dell’intelligenza artificiale), che le macchine potrebbero col tempo raggiungere un’intelligenza maggiore rispetto agli umani, portando a conseguenze illimitate e non intenzionali.

Negli ultimi tempi si rileva un grande fermento sotto questo aspetto, con i Governi e la politica che stanno cercando di tracciare una via da seguire insieme alle aziende di intelligenza artificiale che temono dal canto loro di essere appesantite dalla regolamentazione prima ancora che la tecnologia raggiunga il suo pieno potenziale.

Mentre l’Unione Europea ha concentrato la sua supervisione sull’AI, l’AI Act, sui temi come la privacy, la sorveglianza dei dati e il loro potenziale impatto sui diritti umani – un po’ come fatto dall’amministrazione Biden con l’Ordine Esecutivo sull’AI – il vertice britannico ha invece come obiettivo principale quello di esaminare i cosiddetti rischi esistenziali derivanti da modelli generici altamente capaci chiamati “AI di frontiera”, anche perché la Gran Bretagna non ha in programma, almeno per il momento, una legislazione specifica per regolamentare l’Intelligenza Artificiale.

Il vertice, che si è tenuto il 1° e 2 novembre scorsi, nasce per volontà del primo ministro britannico Rishi Sunak, che vorrebbe ritagliare per la Gran Bratagna post-Brexit un ruolo come intermediario tra i blocchi economici di Stati Uniti, Cina e UE.

Anche se l’evento è stato un po’ offuscato dalla decisione della vicepresidente americana Kamala Harris di tenere un discorso a Londra proprio il giorno di inizio del summit sulla risposta del suo governo all’intelligenza artificiale, esponendo la sua visione su come il mondo dovrebbe governare questa tecnologia (e auspicando che tutti i Paesi aderiscano all’approccio USA su questa tematica), il Summit ha comunque avuto il merito di coinvolgere anche la Cina, un partecipante chiave al vertice, dato il ruolo del Paese nello sviluppo dell’Intelligenza Artificiale, sia pure con il solito doppio standard di Pechino.

Alla fine, sebbene ogni delegazione presente fosse ansiosa di rivendicare la propria preminenza nella regolamentazione dell’IA, i rappresentanti dei 25 Paesi partecipanti, assieme ad altri attori pubblici e privati, tra cui il segretario generale dell’Onu, Antònio Guterres e la presidente della Commissione europea, Ursula Von der Leyen, hanno firmato la “Dichiarazione di Bletchley” in cui si afferma che i Paesi devono lavorare insieme e stabilire un approccio comune sulla supervisione.

La dichiarazione definisce un’agenda su due fronti incentrata sull’identificazione dei rischi di preoccupazione condivisa e sulla costruzione della loro comprensione scientifica, sviluppando allo stesso tempo politiche transnazionali per mitigarli.

Difficile in ogni caso dire se la Gran Bretagna a guida Sunak possa davvero riuscire a ritagliarsi un ruolo nella corsa a mettere il cappello sulla regolamentazione di un tema come quello dell’Intelligenza Artificiale dove ognuno, singoli Paesi come gli USA ma anche organizzazioni, come l’Onu, l’UE e il G7 vogliono affermare la propria leadership.

Kamala Harris ruba la scena a Rishi Sunak. Gli USA vogliono scrivere le regole dell’AI

Mentre l’evento clou sul tema dell’Intelligenza Artificiale organizzato dal primo ministro britannico Rishi Sunak prendeva il via mercoledì scorso (1° novembre) a Bletchley Park, 50 miglia più a sud presso l’ambasciata americana a Londra, il vicepresidente americano Kamala Harris ha esposto la sua visione su come il mondo dovrebbe governare questa tecnologia, annunciando una serie di nuove iniziative degli USA per promuovere un uso sicuro e responsabile dell’IA.

Un intervento quello della Harris – preceduto dall’Ordine Esecutivo in materia di AI firmato dal Presidente Joe Biden il 30 ottobre – che ha messo un po’ in ombra l’AI Safety Summit inglese, volto a dimostrare al mondo la leadership degli Stati Uniti su questa tecnologia e a ribadire la volontà di Washington di voler dettare le regole in tema di Intelligenza Artificiale.

Nel suo discorso la vicepresidente Kamala Harris ha invitato i leader mondiali ad affrontare le minacce che l’intelligenza artificiale rappresenta per i diritti umani e i valori democratici ed ha annunciato le misure che l’amministrazione Biden adotterà per gestire i rischi e le sfide normative della tecnologia emergente.

In particolare, la Harris ha posto l’enfasi sulla tutela dei consumatori e su come l’intelligenza artificiale potrebbe esacerbare le disuguaglianze esistenti affermando che i programmi di intelligenza artificiale possono produrre risultati distorti che discriminano in base alla razza, al sesso o all’età.

“Come la storia ha dimostrato, in assenza di regolamentazione e di una forte supervisione da parte del governo, alcune aziende tecnologiche scelgono di dare priorità al profitto rispetto al benessere dei propri clienti, alla sicurezza delle nostre comunità e alla stabilità delle nostre democrazie”, ha concluso la Harris, annunciando poi alcune misure aggiuntive che gli Stati Uniti stanno adottando per arricchire e sviluppare l’Ordine Esecutivo in materia di AI di Biden tra i quali la creazione di un “Istituto per la sicurezza dell’intelligenza artificiale”, che creerebbe standard per testare la sicurezza dei modelli di intelligenza artificiale per uso pubblico e nuove linee guida per le agenzie federali per garantire che la tecnologia venga utilizzata in futuro per il bene pubblico.

Un futuro in cui l’IA sia utilizzata per promuovere i diritti umani e la dignità umana, in cui la privacy sia protetta e le persone abbiano pari accesso alle opportunità, in cui rendiamo le nostre democrazie più forti e il nostro mondo più sicuro.

“Prima che l’IA generativa conquistasse l’attenzione mondiale, il Presidente Biden e io” ha aggiunto il vicepresidente americano, “abbiamo riunito i leader di tutto il Paese, dagli informatici agli attivisti per i diritti civili, ai leader aziendali e agli studiosi di diritto, per garantire che i benefici dell’IA siano condivisi in modo equo e per affrontare le minacce prevedibili, tra cui i deep fake, le violazioni della privacy dei dati e la discriminazione algoritmica”.

“Abbiamo poi creato la Carta dei diritti dell’intelligenza artificiale” continua la Harris sottolinenando come l’amministrazione Biden si sia impregnata ad istituire un programma nazionale di segnalazione sull’uso non sicuro dell’IA negli ospedali e nelle strutture mediche, a promuovere la creazione da parte delle aziende tecnologiche di strumenti per aiutare i consumatori a distinguere se i contenuti audio e visivi sono generati dall’IA e prevedendo un obbligo per gli sviluppatori di presentare al governo degli Stati Uniti i risultati dei test sulla sicurezza dell’IA.

La Harris ha poi rimarcato come la sua amministrazione stia prendendo provvedimenti per stabilire i requisiti affinché il governo degli Stati Uniti, quando utilizza l’IA, promuova l’interesse pubblico, auspicando che queste politiche nazionali sull’IA servano da modello per tutte le politiche globali e rendendo quindi chiara l’intenzione degli Stati Uniti di rimanere l’egemone tecnologico mondiale e scrivere le proprie regole del gioco.

“Cerchiamo di essere chiari: quando si tratta di intelligenza artificiale, l’America è un leader globale. Sono le aziende americane a guidare il mondo nell’innovazione dell’intelligenza artificiale. È l’America che può catalizzare l’azione globale e costruire un consenso globale in un modo che nessun altro paese può fare”, ha dichiarato la Harris prima di volare al vertice di Bletchley Park del governo britannico sulla sicurezza dell’intelligenza artificiale.

D’altra parte il dominio americano nella ricerca e sviluppo dell’Intelligenza Artificiale è difficilmente contestabile. Secondo il rapporto State of AI del 2023 il 70% dei documenti di ricerca più citati sull’Intelligenza Artificiale sono stati pubblicati da Università e Istituti di ricerca americani, senza contare che aziende del calibro di Google, Meta, Microsoft, ma anche Open Ai e la miriade di start-up innovative sull’AI generativa hanno sede nella costa occidentale degli USA.

Bletchley Park, la sede iconica dei decifratori inglesi durante la II Guerra Mondiale, scelta come sede per il primo vertice sull’intelligenza artificiale del Regno Unito

La Gran Bretagna ha deciso di ospitare il suo primo vertice globale sull’intelligenza artificiale (l’AI Safety Summit) a Bletchley Park, nel sito considerato il luogo di nascita dell’informatica grazie ai progressi nei processi crittografici e di intelligence durante la Seconda Guerra Mondiale.

Durante la II guerra mondiale, un gruppo di matematici, crittografi, esperti in enigmistica e maestri di scacchi si riunirono in una casa di campagna vittoriana a 45 miglia a nord-ovest di Londra per intraprendere una guerra segreta contro la Germania nazista. Il loro obiettivo: decifrare i codici inviolabili di Adolf Hitler.

L’impresa più famosa di Bletchley Park fu quella di superare in astuzia la macchina di crittografia tedesca Enigma, che produceva un codice in costante cambiamento ed era ampiamente considerata indecifrabile. Per riuscirci, il matematico Alan Turing sviluppò una macchina considerata il precursore dei computer moderni.

I messaggi Enigma decifrati rivelarono dettagli sui movimenti delle flotte di sottomarini tedeschi e fornirono informazioni cruciali per la campagna nel deserto del Nord Africa e l’invasione alleata della Francia. Alcuni storici sostengono che decifrare il codice abbia contribuito ad abbreviare la guerra fino a due anni.

Il lavoro a Bletchley Park ha accelerato lo sviluppo dell’informatica. Gli scienziati che vi lavoravano costruirono quella che può essere considerata come la prima generazione di computer praticamente dal nulla.

Quando finì la guerra, i decifratori tornarono alla vita civile, giurando di mantenere il segreto sul loro lavoro in quel posto. Fu solo negli anni ’70 che quanto successo a Bletchley Park divenne ampiamente conosciuta in Gran Bretagna e nel mondo.

Non c’è da sorprendersi quindi se Bletchley Park,  aperto come museo nel 1994 e riportato al suo aspetto degli anni ’40, completo di macchine da scrivere manuali, telefoni d’epoca e tazze smaltate, si stato scelto come sede del primo vertice internazionale sull’Intelligenza Artificiale dal primo ministro britannico Rishi Sunak, che vorrebbe ritagliare per il suo Paese un ruolo post-Brexit come intermediario tra i blocchi economici di Stati Uniti, Cina e UE.

Sicurezza e innovazione: Joe Biden firma l’Ordine Esecutivo sull’Intelligenza Atificiale

Il Presidente degli Stati Uniti Joe Biden ha firmato lo scorso lunedì (30 ottobre) un Ordine Esecutivo sull’Intelligenza Artificiale che cerca di bilanciare le esigenze di sviluppo delle aziende tecnologiche con la sicurezza nazionale e i diritti dei consumatori, richiedendo all’industria di sviluppare standard di sicurezza e protezione, indicando una serie di linee guida che potrebbero essere rafforzate da ulteriori interventi legislativi e fornendo alle agenzie federali un ampio elenco di cose da fare per supervisionare una tecnologia in rapido sviluppo.

L’ordinanza – che dovrà essere comunque rafforzata dall’azione del Congresso – cerca di orientare il modo in cui l’intelligenza artificiale viene sviluppata in modo che le aziende possano trarre profitto senza mettere a repentaglio la sicurezza pubblica.

Utilizzando il Defense Production Act, l’ordine impone ai principali sviluppatori di intelligenza artificiale di condividere i risultati dei test di sicurezza e altre informazioni con il governo. Il National Institute of Standards and Technology (NIST) creerà standard per garantire che gli strumenti di intelligenza artificiale siano sicuri e protetti prima del rilascio pubblico.

Il Dipartimento del Commercio pubblicherà linee guida per etichettare e marchiare i contenuti generati dall’intelligenza artificiale per aiutare a distinguere le interazioni autentiche da quelle generate dal software. 

L’Ordine Esecutivo (EO) prevede otto principi guida:

  • nuovi standard per la sicurezza dell’IA; 
  • proteggere la privacy degli americani; 
  • promuovere l’equità e i diritti civili; 
  • difendere i consumatori, i pazienti e gli studenti; 
  • sostenere i lavoratori; 
  • promuovere l’innovazione e la concorrenza; 
  • far avanzare la leadership americana all’estero; 
  • garantire un uso responsabile ed efficace dell’IA da parte del governo e incaricare le agenzie federali sia di redigere linee guida per l’IA responsabile sia di adottare misure per regolamentare e rivedere le sue applicazioni. 

Con l’Unione Europea che si avvicina all’approvazione finale di una legge sull’intelligenza artificiale (l’AI ACT), il G7 che sotto la presidenza giapponese ha appena concordato con la Dichiarazione di Hiroshima una serie di principi di sicurezza dell’IA e un codice di condotta volontario per gli sviluppatori di IA e la Gran Bretagna che con l’iniziativa del suo leader Rishi Sunak di organizzare un Summit Internazionale sull’IA spera di ritagliare un ruolo di primo piano al suo Paese su questa tecnologia dopo l’uscita dalla UE, gli Stati Uniti – che peraltro ospitano ospitano molti dei principali sviluppatori di tecnologie IA all’avanguardia, tra cui i giganti della tecnologia Google, Meta e Microsoft e startup focalizzate sull’IA come OpenAI, produttore di ChatGPT – sono più che mai decisi a riprendersi la leadership anche della normativa che stabilirà le regole di utilizzo dell’Intelligenza Artificiale.

Dichiarazione di Hiroshima: intesa al G7 sui codici di condotta sull’Intelligenza Artificiale

L’intelligenza Artificiale rimane al centro dell’agenda politica mondiale e dopo l’Unione Europea, scende in campo anche il G7. La dichiarazione di Hiroshima adottata oggi, 30 ottobre 2023, dai leader di Canada, Francia, Germania, Giappone, Italia, Regno Unito e Stati Uniti vuole sottolineare le opportunità innovative e il potenziale trasformativo dei sistemi avanzati di Intelligenza Artificiale (IA), in particolare, dei modelli di base e dell’IA generativa.

Riconosciamo la necessità di gestire i rischi connessi, di proteggere gli individui, la società e i nostri principi condivisi come lo Stato di Diritto e i valori democratici, ponendo l’umanità al centro” si legge nella dichiarazione di Hiroshima, che è integrata da 2 documenti più operativi: gli 11 principi guida per i sistemi di AI Generativa avanzata e un Codice di condotta internazionale, che saranno costantemente modificati, se necessario, alla luce del rapido evolversi della materia di cui si occupano.

A tale proposito, i leader dei Paesi del G7 sono favorevoli ad incoraggiare l’adozione di misure adeguate durante l’intero processo di sviluppo di sistemi avanzati di intelligenza artificiale anche prima e durante la loro distribuzione e commercializzazione, con l’obiettivo di identificare, valutare e mitigare i rischi lungo l’intero ciclo di vita delle tecnologie emergenti. Tra queste misure dovrebbero essere previsti anche dei test interni ed esterni indipendenti.

Per quanto riguarda invece l’uso improprio, le organizzazioni responsabili dello sviluppo di sistemi avanzati sono chiamate a monitorare attentamente vulnerabilità, incidenti e rischi emergenti. Dovrebbero facilitare la scoperta e la segnalazione di problemi e vulnerabilità da parte degli utenti dopo l’implementazione. La trasparenza da questo punto di vista è fondamentale, e le capacità, le limitazioni e gli ambiti di utilizzo appropriato e inappropriato dovrebbero essere comunicati pubblicamente attraverso rapporti dettagliati.

La condivisione responsabile delle informazioni e la segnalazione degli incidenti rappresentano dei punti cruciali per i Paesi del G7, coinvolgendo industria, governi, società civile e mondo accademico. L’approccio raccomandato è basato sulla gestione del rischio, in linea con il Regolamento UE in fase di completamento. Ciò implica processi di responsabilità e di governance per valutare e mitigare i rischi.

Occorrono poi dei meccanismi affidabili di autenticazione e di provenienza dei contenuti, come watermarking, etichettatura o dichiarazioni di non responsabilità, in modo da consentire agli utenti di determinare se un contenuto è stato creato con il sistema di intelligenza artificiale di una specifica organizzazione.

Tra le priorità elencate vi è poi la mitigazione dei rischi per la società e la sicurezza, nonché lo sviluppo di sistemi avanzati per affrontare sfide come la crisi climatica, la salute globale e l’istruzione, in linea con gli Obiettivi di Sviluppo Sostenibile delle Nazioni Unite. Infine, i leader del G7 sottolineano l’importanza di promuovere lo sviluppo e, se del caso, l’adozione di standard tecnici internazionali, insieme a misure adeguate di protezione dei dati personali e della proprietà intellettuale.

A margine di questo accordo, Ursula fon der Leyen, Presidente della Commissione Europea, si è detta lieta di accogliere i principi guida internazionali del G7 e il codice di condotta volontario, esprimendosi a favore dell’impegno congiunto per favorire lo sviluppo tecnologico ponendo in primo piano il tema della sicurezza e dell’affidabilità delle tecnologie.

I benefici potenziali che l’AI comporta per l’economia e i cittadini europei sono fondamentali. Non dobbiamo però dimenticare che la velocità dei processi innescati dall’AI porta con sé anche nuove sfide”, il commento della von der Leyen alla Dichiarazione di Hiroshima, che prosegue “l’Ue è già all’avanguardia, dal punto di vista normativo, grazie all’AI Act, che rappresenta un importante contributo anche a livello di governance globale”.

Italia: Parlamento e Governo in ordine sparso sull’IA

Se da un lato va riconosciuto come la gestione della transizione digitale e tecnologica in atto sia un tema oggettivamente complesso va anche detto che il Parlamento e il Governo italiani stanno viaggiando in ordine sparso nell’affrontare le implicazioni dell’uso di sistemi intelligenti che imitano e riproducono le capacità umane.

Da un lato ci ritroviamo un collegato alla manovra economica in arrivo da parte del Ministero delle Imprese e del Made in Italy, dall’altro un’indagine conoscitiva promossa dalla Commissione Attività produttive della Camera, dall’altro ancora il Comitato per la documentazione della Camera che vola oltre oceano per discutere di tecnologie avanzate con le grandi tech company americane e poi la creazione di una commissione algoritmi guidata da Giuliano Amato, ex presidente del Consiglio e della Corte Costituzionale.

Nel dettaglio, il Ministro delle Imprese e del Made In Italy, Adolfo Urso, ha dichiarato che l’AI sarà una sfida che il governo affronterà in un collegato alla manovra. A quest’attività farà poi seguito un’attenzione particolare al tema che l’Italia si impegna a promuovere durante il turno di presidenza italiana del G7 del 2024.

L’indagine conoscitiva sull’AI promossa dal presidente della Commissione Attività produttive della Camera, Alberto Gusmeroli, si focalizza invece sui possibili effetti, positivi o negativi, per il mondo produttivo, con l’obiettivo di arrivare alla stesura di un progetto di legge sulla falsariga di quanto già avvenuto per il Made in Italy.

Una delegazione del Comitato per la documentazione della Camera, composta dalla presidente del Comitato e vicepresidente della Camera, Anna Ascani, e dalle deputate Ilaria Cavo e Maria Rosaria Tassinari vola invece prima a Seattle e poi a San Francisco dove incontrerà le grandi tech company del settore, da Open AI a Microsoft, da Amazon a Meta, per cercare di comprendere quale sia lo stato dell’arte dell’intelligenza artificiale e quale impatto avrà nei diversi settori della società, in vista di futuri interventi normativi.

Dal canto suo invece il Sottosegretario alla Presidenza del Consiglio con delega all’Informazione e all’Editoria Alberto Barachini ha deciso di lanciare una Commissione Algoritmi, istituendo un Comitato formato da esperti e professori universitari che studierà l’impatto di questa tecnologia sul mondo del giornalismo e delle news di cui è stato nominato presidente Giuliano Amato, classe 1938, più volte Ministro, ex Presidente del Consiglio, docente di diritto costituzionale comparato per oltre 20 anni ed ex Presidente della Corte Costituzionale.

Ma non è finita qui perché il sottosegretario della Presidenza del Consiglio dei Ministri con delega all’innovazione, Alessandro Butti, ha appena nominato un Comitato di esperti incaricati di dare indicazioni per guidare la strategia nazionale sull’Intelligenza Artificiale.

Adesso, guardando dall’esterno tutto questo attivismo in ordine sparso non si può non rilevare come le azioni sia del Governo che del Parlamento italiani restituiscano un certo disordine di fondo non solo sull’argomento in generale ma anche sulle azioni che sarebbe opportuno intraprendere.

L’Intelligenza Artificiale è una nuova frontiera tecnologica che sta rimodellando le industrie, le economie e la vita quotidiana di ognuno di noi. Siamo di fronte ad una straordinaria opportunità di sviluppo, ma anziché coglierne le potenzialità e le opportunità, sembrerebbe che, ancora una volta, la preoccupazione principale in Italia, sia quella di “normare”, di stabilire dei limiti, di mettere dei paletti, di stabilire dei vincoli, di cercare di disciplinare un qualcosa che per sua natura evolve a ritmi velocissimi.

Adesso, pur nella giusta considerazione di tutela dai rischi, dalle manipolazioni e dalle sperequazioni che sono possibili con una gestione non corretta dei sistemi di AI, quello che la politica italiana non vede è che in questo modo si lascia in secondo piano un approccio volto invece a definire le strategie di sviluppo, a individuare le opportunità per il sistema Paese, promuovendone gli investimenti e le attività di ricerca, mettendo a sistema i centri di ricerca, le imprese e le Università per giocare da pari con gli altri Paesi e recuperare quella leadership in innovazione e sviluppo che per tanti anni ha caratterizzato il sistema economico e industriale del nostro Paese.

Quella portata dall’Intelligenza Artificiale è una vera e propria rivoluzione. E noi dobbiamo starci dentro, prima ancora come Paese che come Europa, che pure sembra preoccupata a “normare”. Il resto del mondo non ci aspetta. La posizione della politica italiana su questi temi sarà determinante nello stabilire che ruolo potrà avere l’Italia nello sviluppo futuro di questa tecnologia. Altrimenti perderemo anche questa opportunità.

L’Onu crea un comitato di esperti sull’intelligenza artificiale. L’unico italiano è il francescano Paolo Benanti

Il teologo Paolo Benanti è l’unico italiano tra i 38 esperti nominati da António Guterres come membri del nuovo Organo consultivo dell’ONU per l’Intelligenza Artificiale, un organismo consultivo composto da 39 esperti dei governi, delle imprese, della società civile, oltre a ricercatori e accademici provenienti da tutti i continenti, incaricati di valutare le opportunità e i rischi dell’AI generativa, di suggerire modelli di governance di questa nuova tecnologia e di individuare le strade per favorire la cooperazione internazionale in un campo essenziale per il futuro del nostro Pianeta.

Il team di esperti dovrà formulare le raccomandazioni preliminari entro il prossimo dicembre e presentare il rapporto conclusivo nell’estate del 2024, prima del Summit Onu sul Futuro del 22 e 23 settembre.

Il nostro Paolo Benanti è un francescano del Terzo Ordine Regolare, si occupa di etica, bioetica ed etica delle tecnologie, è docente presso la Pontificia Università Gregoriana, l’Istituto Teologico di Assisi e il Pontificio Collegio Leoniano ad Anagni ed è definito come il principale consigliere di Papa Francesco sull’IA. I suoi studi si focalizzano sulla gestione dell’innovazione: internet e l’impatto del Digital Age, le biotecnologie per il miglioramento umano e la biosicurezza, le neuroscienze e le neurotecnologie.

Di seguito l’elenco degli alti componenti dell’organismo ONU sull’AI:

Anna Abramova, Direttrice del Centro di Intelligenza Artificiale dell’Istituto di Relazioni Internazionali dello Stato di Mosca (MGIMO) – Università

Omar Sultan Al Olama, Ministro di Stato per l’Intelligenza Artificiale degli Emirati Arabi Uniti

Latifa Al-Abdulkarim, Membro del Consiglio della Shura (Parlamento Saudita), Professoressa Associata di Informatica presso l’Università King Saud

Estela Aranha, Consigliera Speciale per il Ministro della Giustizia e della Sicurezza Pubblica, Governo Federale del Brasile

Carme Artigas, Segretaria di Stato per la Digitalizzazione e l’Intelligenza Artificiale della Spagna

Ran Balicer, Chief Innovation Officer e Vice Direttore Generale presso Clalit Health Services Israel

Abeba Birhane, Senior Advisor in AI Accountability presso la Fondazione Mozilla

Ian Bremmer, Presidente e Fondatore di Eurasia Group

Anna Christmann, Coordinatrice del Settore Aerospaziale del Governo Federale Tedesco

Natasha Crampton, Chief Responsible AI Officer presso Microsoft

Nighat Dad, Direttrice Esecutiva della Digital Rights Foundation Pakistan

Vilas Dhar, Presidente della Patrick J. McGovern Foundation

Virginia Dignum, Professoressa di Intelligenza Artificiale Responsabile presso l’Università di Umeå

Arisa Ema, Professoressa Associata presso l’Università di Tokyo

Amandeep Singh Gill, Inviato del Segretario Generale dell’ONU per la Tecnologia

Mohamed Farahat, Consulente Legale & Vicepresidente del MAG del North Africa IGF

Wendy Hall, Professoressa Regia di Informatica presso l’Università di Southampton

Rahaf Harfoush, Antropologa Digitale

Hiroaki Kitano, CTO presso Sony Group Corporation

Haksoo Ko, Presidente della Personal Information Protection Commission (PIPC) della Repubblica di Corea

Andreas Krause, Professore presso l’ETH Zurich

James Manyika, Senior Vice Presidente di Google-Alphabet, Presidente per la Ricerca, Tecnologia e Società

Maria Vanina Martinez Posse, Ramon e Cajal Fellow presso l’Artificial Research Institute (IIIA-CSIC)

Seydina Moussa Ndiaye, Docente presso l’Università Digitale Cheikh Hamidou Kane

Mira Murati, Chief Technology Officer di OpenAI

Petri Myllymaki, Professore Ordinario presso il Dipartimento di Informatica dell’Università di Helsinki

Alondra Nelson, Professoressa Harold F. Linder presso l’Institute for Advanced Study

Nazneen Rajani, Responsabile Ricerca presso Hugging Face

Craig Ramlal, Responsabile del Gruppo di Controllo dei Sistemi presso l’Università delle Indie Occidentali a St. Augustine

He Ruimin, Chief Artificial Intelligence Officer & Vice Chief Digital Technology Officer, Governo di Singapore

Emma Ruttkamp-Bloem, Professoressa presso l’Università di Pretoria

Sharad Sharma, Co-fondatore della Fondazione iSPIRT

Marietje Schaake, Direttore di Politica Internazionale presso il Cyber Policy Center dell’Università di Stanford

Jaan Tallinn, Co-fondatore del Cambridge Centre for the Study of Existential Risk

Philip Thigo, Consigliere presso il Governo del Kenya

Jimena Sofia Viveros Alvarez, Capo di Gabinetto e Consigliera Legale del Giudice Loretta Ortiz presso la Corte Suprema Messicana

Yi Zeng, Professore e Direttore del Brain-inspired Cognitive AI Lab, Accademia Cinese delle Scienze

Zhang Linghan, Professore presso l’Istituto di Diritto dei Dati, Università Cinese di Scienze Politiche e Diritto

Papa Francesco sceglie l’Intelligenza Artificiale come tema della Giornata delle Comunicazioni Sociali 2024

La straordinaria importanza dell’Intelligenza Artificiale in questo periodo è testimoniata anche dall’attenzione che il Vaticano dedica a questa materia. L’attenzione della Santa Sede per le implicazioni etiche dell’IA è costante, volta a promuovere una riflessione etica sull’uso degli algoritmi, con un’attenzione particolare alla tutela della dignità umana.

Non è un caso allora che per la 58^ Giornata Mondiale delle Comunicazioni Sociali che si celebrerà il prossimo 12 maggio 2024 il tema scelto da Papa Francesco sia proprio questo: “Intelligenza artificiale e sapienza del cuore: per una comunicazione pienamente umana”.

Nel renderlo noto dalla Sala Stampa vaticana, si sottolinea che “l’evoluzione dei sistemi di intelligenza artificiale rende sempre più naturale comunicare attraverso e con le macchine, in modo che è diventato sempre più difficile distinguere il calcolo dal pensiero, il linguaggio prodotto da una macchina da quello generato dagli esseri umani”.

“Come tutte le rivoluzioni anche questa basata sull’intelligenza artificiale, pone nuove sfide affinché le macchine non contribuiscano a diffondere un sistema di disinformazione a larga scala e non aumentino anche la solitudine di chi già è solo, privandoci di quel calore che solo la comunicazione tra persone può dare”, si legge ancora nella nota vaticana, che sottolinea l’importanza “di guidare l’intelligenza artificiale e gli algoritmi, perché vi sia in ognuno una consapevolezza responsabile nell’uso e nello sviluppo di queste forme differenti di comunicazione che si vanno ad affiancare a quelle dei social media e di Internet“.   

Proprio per questo da Papa Francesco (che pure è stato una delle star delle immagini generate dall’IA) vengono costanti sollecitazioni per un dialogo aperto sul significato delle nuove tecnologie, dotate di potenzialità dirompenti e di effetti ambivalenti, con richiami alla “necessità di vigilare e di operare affinché non attecchisca una logica di violenza e di discriminazione nel produrre e nell’usare tali dispositivi, a spese dei più fragili e degli esclusi: ingiustizia e disuguaglianze alimentano conflitti e antagonismi”.

Intelligenza Artificiale e Sanità

Il mercato globale dell’Intelligenza Artificiale nel settore sanitario è destinato a un’esplosione senza precedenti, con stime che proiettano un valore di quasi 188 miliardi di dollari entro il 2030. Rispetto agli 11 miliardi di dollari del 2021, questo tasso di crescita annuo del 37% riflette i considerevoli vantaggi che l’IA apporta al settore sanitario. Tra questi, la riduzione dei costi e il miglioramento del supporto ai medici nell’analisi diagnostica dei pazienti emergono come driver chiave.

Attualmente, il 94% delle organizzazioni sanitarie sfrutta l’IA o il Machine Learning, mentre il 40% dei dirigenti sanitari prevede un aumento degli investimenti nei prossimi cinque anni. Questa crescente adozione rivela il ruolo centrale dell’IA nell’automazione del settore, anticipando un mercato globale dell’IA nel settore sanitario che raggiungerà i 188 miliardi di dollari entro il 2030, con l’obiettivo di migliorare la vita dei pazienti e ridurre i costi.

L’IA emerge come una leva cruciale per ridurre i costi di dimissione, stimati a circa 16 miliardi di dollari, e migliorare l’efficienza nel monitoraggio delle unità di terapia intensiva, con potenziali risparmi di circa 323.000 dollari per letto. Nel settore farmaceutico, l’AI potrebbe ridurre i costi legati alla scoperta di farmaci di oltre 70 miliardi di dollari entro il 2028, grazie all’accelerazione dello sviluppo di nuovi farmaci mediante algoritmi di Machine Learning.

L’Intelligenza Artificiale sta rivoluzionando la fornitura di servizi sanitari, rendendo il sistema più efficiente e apportando benefici tangibili a pazienti, medici e fornitori di servizi. Abilitando i professionisti sanitari a risparmiare tempo e ottenere rapidamente informazioni cliniche, l’AI supporta diagnosi più precise e decisioni più informate, riducendo potenzialmente gli errori del 86% e contribuendo a salvare oltre 250.000 vite all’anno.

L’Intelligenza Artificiale si dimostra preziosa anche nel supportare decisioni mediche, come evidenziato da studi che mostrano miglioramenti nella diagnosi di patologie come il carcinoma mammario. Un incremento del 44% nell’efficienza nella lettura delle mammografie è solo uno dei tanti esempi di come l’IA possa alleggerire il carico di lavoro dei medici.

La risposta positiva dei pazienti all’AI è evidente, con la maggior parte che si sente a proprio agio nell’interagire con assistenti virtuali per ottenere informazioni sui farmaci, inviare report ai medici e prenotare visite.

In definitiva le applicazioni dell’Intelligenza Artificiale nel settore sanitario rappresentano un’opportunità di trasformare il panorama medico in modo più efficiente e centrato sui pazienti, offrendo benefici significativi sia in termini di salute che di risparmio di costi.

Papa Francesco: perché è la star delle foto generate dall’intelligenza artificiale

Papa Francesco è diventato uno dei personaggi preferiti tra coloro che si divertono a generare immagini con l’aiuto degli strumenti di Intelligenza Artificiale rappresentato nei contesti più impensabili o negli scenari più improbabili. Ed ecco allora che lo vediamo indossare un lungo piumino bianco ispirato a Balenciaga, a cavallo di una moto, a ballare in discoteca e rappresentato con le braccia tatuate, vestito da rapper, all’interno di una sala pesi e via dicendo.

E’ così che sono apparse decine di foto che mostrano il Santo Padre negli scenari più inimmaginabili, scatenando un effetto domino sui social media e provocando una corsa per ritrarre Papa Bergoglio in situazioni sempre più strane. A parte il Pontefice stesso, le immagini hanno tutte qualcosa in comune: sono tutte false, realizzate da strumenti di intelligenza artificiale che creano immagini da brevi suggerimenti di testo.

La prevalenza di Papa Francesco nelle immagini generate dall’intelligenza artificiale è il risultato di una tempesta perfetta di fattori, primo fra tutti la sua riconoscibilità: 10 anni alla guida della Chiesa cattolica lo hanno fatto diventare un come personaggio globale, immediatamente riconoscibile in tutto il mondo. Ha poi un’immagine più accessibile rispetto al suo predecessore che aveva invece un carattere più spigoloso e distante.

Papa Francesco è quindi il personaggio ideale, anche perché è noto per la sua semplicità e la sua solidarietà con i più poveri tra i poveri. E proprio per questo quando è inserito in contesti fantasiosi è in grado di scatenare una curiosità incredibile.

L’immagine che ha trasformato Francis in una star dell’intelligenza artificiale lo mostra con un piumino bianco in stile di Balenciaga, mentre cammina a grandi passi per la strada è stata visualizzata più di 20 milioni di volte. 

Intelligenza Artificiale e creazione di immagini

I programmi di Intelligenza Artificiale hanno ormai raggiunto livelli incredibili nella creazione delle immagini. L’IA generativa consente infatti la la creazione di immagini, disegni e illustrazioni ad alta definizione utilizzando descrizioni testuali. È infatti sufficiente scrivere una parola chiave o un testo e l’algoritmo crea un’immagine personalizzata che rappresenta il concetto espresso. L’utente ha la possibilità di specificare lo stile, il colore, la prospettiva e altri dettagli per personalizzare la sua immagine.

Alcuni sistemi, come Midjourney, usano la Generative Adversarial Network (GAN), una rete neurale composta da due moduli chiamati generatore e discriminatore. Il primo è adibito alla produzione delle immagini dal testo, mentre il secondo valuta se le immagini sono realistiche. L’interazione tra i due moduli porta al miglioramento delle prestazioni per la produzione di immagini sempre più precise.

Dall’editing fotografico avanzato alle soluzioni di generazione di immagini, l’IA offre nuove prospettive creative per artisti, designer e creatori di contenuti, consentendo il miglioramento automatico delle immagini, dalla correzione del colore alla rimozione di imperfezioni, offrendo risultati sorprendenti e creando al tempo stesso un’esperienza visiva altamente personalizzata.

Tuttavia, con il potenziale innovativo possono anche emergere anche dei rischi significativi come la manipolazione dell’identità, perché l’IA rende possibile la creazione di foto fake realistiche di personaggi famosi, come è successo all’ex Presidente degli Stati Uniti Donald Trump o anche a Papa Francesco, sollevando preoccupazioni sulla manipolazione dell’identità e la diffusione di informazioni false.

I rischi di abuso possono riguardare, oltre all’eventuale creazione di supporti visivi a supporto delle fake news, anche la sfera reputazionale dei singoli cittadini, mettendone a rischio la privacy, fino a raggiungere quel confine dove la capacità delle società in generale di distingue la differenza tra realtà e finzione assume dei contorni sfocati. E, da questo punto di vista, i rischi possono essere significativi quando si tratta di personaggi famosi o di personalità di primo piano.

Affrontare le straordinarie opportunità offerte dall’IA nella creazione di immagini richiede un approccio bilanciato in grado di combinare l’innovazione tecnologica con un utilizzo non tanto regolamentato quanto etico per garantire che l’IA contribuisca positivamente al nostro mondo visivo senza compromettere verità, integrità e dignità della persona.

Gli impatti dell’IA generativa nel business

Da quando è stato rilasciato ChatGPT, il chatbot basato sul linguaggio di OpenAI, ormai un anno fa, nel novembre 2022, i tool di intelligenza artificiale e generativa sono cresciuti rapidamente, sviluppando funzionalità e applicazioni, riuscendo a coinvolgere un numero sempre maggiore di utilizzatori.

Secondo un report di Insider Intelligence, il 25% degli utenti internet negli Stati Uniti, quasi 80 milioni di persone, avrà utilizzato tool di Intelligenza Artificiale entro la fine del 2023. Un fenomeno che non si limita solo agli Usa ma che può definirsi globale complice anche il fatto che dal rilascio iniziale, la funzionalità dei modelli generativi di IA è notevolmente migliorata rendendola quindi più accessibile.

Proprio quest’accessibilità renderà questa tecnologia trasformativa, come lo sono stati i microprocessori, il web e gli smartphone. Con una differenza sostanziale. Queste sono tecnologie che hanno richiesto anni per prendere piede mentre sembra che il ritmo di adozione e di sviluppo dell’IA sia esponenziale con immaginabili ripercussioni anche nel business.

Goldman Sachs stima che il contributo dell’IA potrebbe aggiungere in 10 anni un 7% di prodotto interno lordo all’economia globale, influenzando tutta una serie di settori, dalla ricerca alle scienze, dalla medicina alla tecnologia. Inoltre, con la capacità creativa che ha già dimostrato, l’IA generativa sarà in grado di intervenire in quelle attività lavorative che un tempo pensavamo fossero intoccabili dalla tecnologia. Basti pensare alla capacità dell’IA di generare video, foto, immagini e anche audio, con un impatto anche nel settore audio e della musica.

Sempre Goldman Sachs stima che almeno un quarto dei lavori negli Stati Uniti e in Europa potrebbe essere automatizzato dall’IA generativa su cui peraltro si sta investendo moltissimo mentre, secondo dati riportati da CB Insights solo nella prima metà del 2023 gli investimenti in start-up IA sono aumentati di 5 volte, raggiungendo la cifra di 14 miliardi di dollari rispetto ai 2,5 miliardi nel 2022.

Libri. Scacco matto all’AI. Come le aziende all’avanguardia stravincono con l’intelligenza artificiale

Dall’autore di bestseller della letteratura manageriale e dal responsabile della divisione AI di Deloitte negli Stati Uniti, uno sguardo affascinante sulle aziende all’avanguardia che utilizzano l’intelligenza artificiale per creare nuovi vantaggi competitivi.

Sebbene la maggior parte delle organizzazioni stia scommettendo in modo modesto sull’intelligenza artificiale, esiste un gruppo di imprese di rilevanza mondiale che stanno puntando tutto su questa tecnologia e trasformando radicalmente i propri prodotti, processi, strategie, relazioni con i clienti e persino la propria cultura. Sebbene queste organizzazioni rappresentino meno dell’uno per cento delle grandi imprese, sono tutte aziende di alto livello nei rispettivi settori. Hanno modelli di business migliori, prendono decisioni migliori, hanno rapporti migliori con i clienti, offrono prodotti e servizi migliori e spuntano prezzi più alti.

Scacco matto con l’AI” analizza l’intelligenza artificiale all’avanguardia dal punto di vista di aziende affermate come Anthem, Ping An, Airbus e Capital One.

Ricco di approfondimenti, strategie e best practice, il libro fornisce ai leader e ai loro team le informazioni necessarie per aiutare le proprie aziende a portare l’intelligenza artificiale a un livello successivo.

Se siete curiosi di conoscere la prossima fase dell’implementazione dell’intelligenza artificiale all’interno delle imprese, o se state cercando di impiegare voi stessi questa potente tecnologia in modo più robusto, il lavoro di Davenport e Mittal vi offrirà una vista dall’interno su ciò
che stanno facendo i principali adottatori dell’intelligenza artificiale, fornendovi al contempo gli strumenti per mettere questa potente tecnologia al centro di tutto ciò che fate.

Scacco matto con l’AI: Come le aziende all’avanguardia stravincono con l’intelligenza artificiale di Thomas H. Davenport e Nitin Mittal, Egea Editore, 236 pagine, euro 32,00

Compralo su Amazon

AI Act: l’UE verso la regolamentazione dell’Intelligenza Artificiale

L’Intelligenza Artificiale (AI) sta trasformando il nostro mondo con una velocità ed una modalità senza precedenti. Questo crescente utilizzo dell’AI ha tuttavia sollevato preoccupazioni riguardo al suo impatto sui diritti e sulle libertà fondamentali, al punto da spingere l’Unione Europea (UE) a compiere un passo significativo per la sua regolamentazione, con l’adozione, lo scorso 14 giugno, dell’Artificial Intelligence Act.

L’AI Act approvato dal Parlamento europeo, punta a trasformare l’Europa in un hub globale per sistemi di Intelligenza Artificiale affidabili, stabilendo norme armonizzate che disciplinino lo sviluppo, la commercializzazione e l’uso di questa tecnologia nell’UE. 

La legge sull’Intelligenza Artificiale mira a garantire che i sistemi di intelligenza artificiale nell’UE siano sicuri e rispettino i diritti e i valori fondamentali, ponendo nuove restrizioni su quelli che sono considerati gli usi più rischiosi della tecnologia, prevedendo ad esempio lo stop all’uso del software di riconoscimento facciale in tempo reale.

Il disegno di legge europeo adotta un approccio basato sul rischio per regolamentare l’IA, concentrandosi sulle applicazioni con il maggior potenziale di danno. Ciò includerebbe i casi in cui i sistemi di intelligenza artificiale vengono utilizzati per gestire infrastrutture critiche come l’acqua o l’energia, nel sistema legale e nel determinare l’accesso ai servizi pubblici e ai benefit governativi, prevedendo che i produttori di tecnologia dovrebbero condurre valutazioni dei rischi prima di metterla nell’uso quotidiano, in modo simile al processo di approvazione dei farmaci.

Una delle principali aree di dibattito è, come già detto, l’uso dei software di riconoscimento facciale. Il Parlamento europeo ha votato per vietare l’uso del riconoscimento facciale dal vivo, ma rimangono dubbi sull’opportunità di consentire esenzioni per la sicurezza nazionale e altri scopi di applicazione della legge.

Un’altra disposizione vieterebbe alle aziende di raccogliere dati biometrici dai social media per creare database, una pratica che ha attirato l’attenzione dopo che la società di riconoscimento facciale Clearview AI  l’ha utilizzata.

Dopo il voto del giugno scorso, la versione finale della legge sarà negoziata dai rappresentanti dei tre rami dell’Unione europea: Parlamento europeo, Commissione europea e Consiglio dell’Unione europea. L’obiettivo comune è quello di raggiungere un accordo definitivo entro la fine dell’anno.

Vedremo quali saranno gli sviluppi anche se l’Unione europea, nell’interesse di tutti gli Stati membri, dovrebbe evitare normative eccessivamente ampie che inibiscano l’innovazione. Non è per nulla chiaro tra l’altro quanto possa essere efficace qualsiasi regolamentazione dell’intelligenza artificiale considerato che, come sempre succede con la tecnologia, le innovazioni della stessa stanno emergendo più velocemente di quanto i legislatori (non solo europei ma di qualsiasi Paese) siano in grado di affrontarle.

In ogni caso se anche l’UE avrà le capacità di diventare leader nella regolamentazione dell’intelligenza artificiale, difficilmente sarà in grado di guidare l’innovazione dell’intelligenza artificiale nella quale la partita è a due, tra gli Stati Uniti, attuale leader indiscusso nello sviluppo dell’IA e la Cina, con il Governo di Pechino che sta investendo pesantemente nella ricerca e nello sviluppo dell’IA.

L’alfabeto dell’Intelligenza Artificiale

A – Algoritmo:

Un insieme di istruzioni o regole sequenziali progettate per risolvere un problema o eseguire una specifica attività.

B – Bias:

Deviazione sistematica nei risultati di un modello di intelligenza artificiale dovuta a pregiudizi o disuguaglianze nei dati di addestramento.

C – Cluster Analysis:

Una tecnica di analisi dei dati in cui gli elementi vengono suddivisi in gruppi o “cluster” in base a somiglianze o caratteristiche comuni.

D – Deep Learning:

Una sotto-categoria del machine learning che utilizza reti neurali profonde per apprendere da dati complessi, riconoscere pattern e prendere decisioni avanzate.

E – Ensamble Learning:

Una tecnica in cui più modelli di machine learning vengono combinati per migliorare le prestazioni complessive del sistema.

F – Feature Engineering:

Il processo di selezione o creazione di caratteristiche (features) rilevanti per migliorare le prestazioni di un modello di machine learning.

G – Generative Adversarial Network (GAN):

Un tipo di rete neurale utilizzato per generare dati nuovi, spesso utilizzato nell’arte generativa e nella creazione di contenuti visivi.

H – Hyperparameter:

Un parametro esterno al modello di machine learning che influisce sul processo di addestramento e sulla capacità del modello di generalizzare.

I – Internet of Things (IoT):

La connessione di dispositivi fisici alla rete, consentendo la raccolta e lo scambio di dati in tempo reale.

J – JSON (JavaScript Object Notation):

Un formato di scrittura per lo scambio di dati leggibile dagli esseri umani e facile da interpretare per le macchine.

K – K-Means Clustering:

Un algoritmo di clustering che divide un insieme di dati in gruppi (clusters) basati sulla loro somiglianza.

L – Latent Variable:

Una variabile che non è direttamente osservabile ma è inferita da altre variabili osservabili nel modello.

M – Natural Language Processing (NLP):

Un campo di studio dell’intelligenza artificiale che si occupa dell’interazione tra computer e linguaggio umano, consentendo alle macchine di comprendere, interpretare e generare testo.

N – Neural Network:

Un modello computazionale ispirato alla struttura del cervello umano, utilizzato in deep learning per l’elaborazione di informazioni e la risoluzione di problemi complessi.

O – Overfitting:

Un problema in machine learning in cui un modello si adatta troppo bene ai dati di addestramento, perdendo la sua capacità di generalizzare su nuovi dati.

P – Precision and Recall:

Metriche di valutazione delle prestazioni di un modello, rispettivamente, la precisione misura la percentuale di risultati positivi corretti, mentre il richiamo misura la capacità del modello di identificare tutti i risultati positivi.

Q – Quantum Computing:

Un paradigma di calcolo che sfrutta i principi della meccanica quantistica, consentendo una potenza di calcolo significativamente superiore rispetto ai computer classici.

R – Reinforcement Learning:

Un paradigma di apprendimento automatico in cui un agente impara a compiere azioni in un ambiente per massimizzare una ricompensa.

S – Support Vector Machine (SVM):

Un algoritmo di apprendimento supervisionato utilizzato per la classificazione e la regressione.

T – Transfer Learning:

Una tecnica di machine learning in cui un modello pre-addestrato viene utilizzato come punto di partenza per un nuovo compito, accelerando il processo di addestramento.

U – Unsupervised Learning:

Una categoria di machine learning in cui il modello impara da dati non etichettati, cercando pattern e relazioni senza guida esterna.

V – Validation Set:

Un set di dati utilizzato per valutare le prestazioni di un modello durante il processo di addestramento, ma non per addestrarlo effettivamente.

W – Word Embedding:

Una tecnica di rappresentazione del linguaggio naturale in cui le parole vengono tradotte in vettori numerici, preservando le relazioni semantiche tra di loro.

X – XGBoost:

Una libreria di machine learning basata su algoritmi di boosting, spesso utilizzata per problemi di classificazione e regressione.

Y – Yield Curve Prediction:

Un’applicazione di machine learning nella finanza che prevede l’andamento futuro delle curve dei rendimenti.

Z – Zero-Shot Learning:

Un approccio di machine learning in cui un modello è in grado di affrontare compiti per i quali non è stato esplicitamente addestrato, utilizzando le conoscenze apprese in altre situazioni.


La tua iscrizione non può essere convalidata. Controlla i dati inseriti e riprova.
La tua iscrizione alle newsletter settimanale di Rivista.AI è avvenuta correttamente.

Newsletter Rivista.AI

Iscriviti alla nostra newsletter settimanale per rimanere sempre aggiornato su tutte le ultime news sull’Intelligenza Artificiale.

Utilizziamo Brevo come piattaforma di marketing. Inviando questo modulo, accetti che i dati personali da te forniti vengano trasferiti a Brevo per il trattamento in conformità all’Informativa sulla privacy di Brevo.

Pagina 4 di 4

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie