La Francia è riuscita ad ottenere la cifra record di 15 miliardi di euro di investimenti nell’ambito del suo programma “Choose France”, l’iniziativa che punta a promuovere gli investimenti esteri nel Paese. Ad annunciarlo è stato lo stesso presidente Emmanuel Macron che ha sottolineato il successo dell’edizione 2024 dell’iniziativa che si è chiusa registrando ben 56 progetti di investimento, concentrati su Intelligenza Artificiale, ricerca, innovazione e decarbonizzazione.
Autore: Fabio Ricceri Pagina 4 di 5

Nel discorso tenuto in occasione della Festa del Lavoro, il presidente della Repubblica italiana, Sergio Mattarella, ha sottolineato l’importanza della creatività umana nel contesto del lavoro. Ha affermato che senza il contributo della creatività, il lavoro sarebbe privo di consistenza e qualità, evidenziando come la sua connessione con la realizzazione della personalità umana conferisca al lavoro un significato ben più ampio di mero valore economico, rendendolo un elemento fondamentale del destino comune.
Le parole di Mattarella hanno posto l’accento su una discussione importante e attuale riguardante il futuro del lavoro in un’era in cui l’Intelligenza Artificiale e le tecnologie emergenti stanno sempre più influenzando il panorama lavorativo. È significativo notare come, nonostante l’avanzamento tecnologico, il presidente abbia espresso preoccupazione riguardo alla possibile rimozione del valore della creatività umana nel lavoro.
La prospettiva di una “fine del lavoro” come traguardo di modernità, spesso associata alla sostituzione dell’imperfezione umana con macchine e tecnologie, solleva interrogativi importanti sul ruolo dell’Intelligenza Artificiale nel contesto lavorativo. Mentre alcuni vedono l’Intelligenza Artificiale come un mezzo per eliminare errori e aumentare l’efficienza, le parole di Mattarella ci invitano a considerare il tema anche da un’altra prospettiva.
L’integrazione dell’Intelligenza Artificiale nel mondo del lavoro solleva quindi questioni etiche e sociali cruciali, incluso il tema di come preservare la creatività umana e la libertà individuale nel processo lavorativo.
L’allarme espresso dal presidente Mattarella riflette in un certo senso la necessità di affrontare questi temi in modo responsabile e consapevole, garantendo che l’Intelligenza Artificiale sia utilizzata per migliorare e arricchire il lavoro umano anziché per sostituirlo o limitarlo.
Sono parole, quelle di Sergio Mattarella, che ci spingono a riflettere sulle implicazioni dell’Intelligenza Artificiale nel contesto del lavoro, incoraggiandoci a cercare un equilibrio tra l’innovazione tecnologica e il valore insostituibile della creatività umana. E sono tanto più importanti oggi, 1° maggio, giornata nella quale si celebra il “lavoro” in occasione della quale dobbiamo comprendere come agire senza timore, consapevoli che l’Intelligenza Artificiale può e deve essere un alleato nella realizzazione del potenziale umano.
Iscriviti alla nostra newsletter settimanale per non perdere le ultime notizie sull’Intelligenza Artificiale.

L’arcivescovo di Canterbury, Justin Welby, ha firmato a nome della Chiesa d’Inghilterra la Rome Call for AI Ethics, il documento, nato nel 2020, che sta dando un forte contribuito alla riflessione globale su uno dei temi di più stretta attualità: la necessità e l’urgenza di un’etica nello sviluppo e nella realizzazione dell’Intelligenza Artificiale.
“La firma dell’arcivescovo Justin Welby, oggi, è benvenuta per molti motivi. Anzitutto perché sottolinea che le questioni etiche che l’AI solleva sono di interesse globale” è il commento di mons. Vincenzo Paglia, Presidente della Pontificia Accademia per la Vita Esse, che aggiunge come questo tema trascenda i confini religiosi e culturali e abbracci principi universali come la dignità dell’uomo e del rispetto per il pianeta in cui vive.
L’adesione alla Rome Call da parte dell’arcivescovo Justin Welbi è importante proprio in quanto elemento capace di rafforzare questi principi perché, continua ancora mons. Paglia, “la Chiesa d’Inghilterra, attraverso la sua autorevolezza nel mondo globalizzato, può avere un ruolo decisivo nel sensibilizzare sulle questioni etiche legate all’Intelligenza Artificiale. Sono convinto che con questa firma crescerà la consapevolezza della responsabilità della società di fronte alla sfida rappresentata dall’Intelligenza Artificiale. E’ uno dei nuovi compiti affidati alla sapienza delle religioni perché in questo mondo ove lo sviluppo tecnologico sia al servizio della persona umana e dello sviluppo sostenibile del pianeta“.
Commentando l’evento, l’arcivescovo Welby, che ha firmato a nome della Chiesa d’Inghilterra, ha dichiarato: “Sono lieto di sostenere la Rome Call for AI Ethics, che sottolinea la dignità di ogni essere umano in mezzo ai cambiamenti tecnologici. Anche se non possiamo prevedere il futuro, sappiamo che continueranno ad esserci rapidi sviluppi nella scienza e nella tecnologia e dobbiamo essere preparati. L’intelligenza artificiale offre un enorme potenziale per migliorare le capacità umane. Deve anche cercare di proteggere, preservare e tutelare la dignità della persona umana. Gli enormi progressi offerti dall’AI non possono essere proprietà esclusiva dei suoi sviluppatori o di una singola parte dell’umanità. Devono essere per tutte le persone, ovunque. Devono essere al servizio del bene comune, del clima e dello sviluppo sostenibile. Il modo in cui comprendiamo l’intelligenza artificiale dipende in gran parte dal modo in cui comprendiamo la natura dell’essere umano. Lavoriamo tutti per garantire che la dignità di ogni essere umano, creato da Dio, non per il profitto o la produttività, sia al centro di tutto ciò che facciamo”.
La Rome Call for AI Ethics è un documento che mira a promuovere un senso di responsabilità condivisa per la dignità umana in un contesto di rapidi progressi tecnologici. Per garantire che ogni individuo, indipendentemente dal proprio background, possa beneficiare di questi progressi, le religioni, le organizzazioni internazionali, i governi, le istituzioni e il settore privato devono lavorare insieme. Il documento chiede uno sviluppo etico dell’Intelligenza Artificiale che sia al servizio dell’umanità piuttosto che del profitto e che contrasti la graduale sostituzione delle persone sul posto di lavoro e che, al tempo stesso, promuova il rispetto per il pianeta Terra.
Dal lancio della Rome Call nel febbraio 2020, molti stakeholder hanno firmato il documento, tra cui rappresentanti delle religioni abramitiche – l’Ebraismo, il Cristianesimo e l’Islam – il governo italiano, nonché player del settore come Microsoft, IBM e Cisco e la Fao a livello di organizzazione internazionale.
Padre Paolo Benanti, Professore Straordinario di Etica delle tecnologie presso la Pontificia Università Gregoriana e direttore scientifico della Fondazione RenAIssance, ha affermato: “Con questa nuova espansione della Rome Call possiamo guardare con rinnovata fiducia all’algoretica, ovvero al contributo positivo dell’approccio etico all’intelligenza artificiale. Non è mai un mero problema di innovazione. Si tratta piuttosto di trasformare quest’ultima in sviluppo umano. È altresì molto importante il fatto che il patrimonio di sapienza umana rappresentata dalle religioni parli all’intera umanità, valorizzando ciò che è condiviso per affrontare le sfide della contemporaneità”.
Iscriviti alla nostra newsletter settimanale per non perdere le ultime notizie sull’Intelligenza Artificiale.

Papa Francesco, nonostante i suoi 87 anni e l’essere parte di una generazione meno avvezza alla tecnologia moderna, ha abbracciato con fermezza il potenziale delle nuove tecnologie come strumento per promuovere la pace e la dignità umana. Riconoscendo che le nuove tecnologie non devono incutere paura, ma piuttosto essere guidate da principi etici e valori, il Papa ha dedicato i principali documenti del 2024 all’Intelligenza Artificiale.
Il Messaggio per la Pace e il Messaggio per la Giornata delle Comunicazioni sociali, entrambi pubblicati all’inizio di quest’anno, affrontano il tema dell’Intelligenza Artificiale.
Il Papa ha anche avuto incontri personali con leader dell’industria tecnologica come Elon Musk e Tim Cook, oltre che con il ceo di Cisco, Chuck Robbins che nei giorni scorsi ha aderito alla Rome Call for Ai Ethics.
Il Papa si preoccupa del ruolo delle nuove tecnologie nel promuovere la pace e nel contrastare la possibilità che siano utilizzate per fini bellici o destabilizzanti, auspicando che l’Intelligenza Artificiale possa favorire la fraternità e la solidarietà tra le persone.
L’ “algoretica“, come viene definita dal Vaticano, non solo promuove l’etica nell’uso dell’Intelligenza Artificiale, ma garantisce anche la democrazia, contrastando la polarizzazione dell’opinione pubblica e promuovendo il pluralismo. Per questo motivo viene incoraggiato l’utilizzo dell’Intelligenza Artificiale nel campo della comunicazione, sottolineando l’importanza di non annullare il ruolo del giornalismo ma di integrarlo positivamente.
In un mondo sempre più complesso e tecnologicamente avanzato, Papa Francesco si pone come guida nella promozione di un utilizzo etico e responsabile delle nuove tecnologie e in particolare dell’Intelligenza Artificiale, affinché possano essere strumenti al servizio della pace e della dignità di tutti gli esseri umani.
Iscriviti alla nostra newsletter settimanale per rimanere aggiornato sulle ultime notizie sull’Intelligenza Artificiale.

“In un momento in cui la complessità dello scenario, legato all’evoluzione tecnologica, mostra che non c’è un tipo di conoscenza che da sola risolve tutti i problemi, la Rome Call“, il documento del Vaticano che chiede l’applicazione dei principi dell’etica all’Intelligenza Artificiale, “mostra la sapienza delle religioni sul tema, affinché si possa assicurare un domani all’umanità di pace e prosperità. In questo contesto la partecipazione del Papa al G7 in Puglia è di grande rilevanza“.
Sono le parole di padre Paolo Benanti, consigliere di Papa Francesco sull’Intelligenza Artificiale, docente della Pontificia Università Gregoriana, membro del Comitato AI presso le Nazioni Unite e presidente della Commissione sull’Intelligenza Artificiale di Palazzo Chigi.
È proprio lui il punto di contatto tra le due sponde del Tevere e la sua attenzione per una tecnologia al servizio dell’uomo, tanto presente nei documenti vaticani, sta facendo il giro del mondo. È sempre lui ad aver convinto le grandi aziende tecnologiche, Università e organizzazioni internazionali com la Fao a sottoscrivere il documento.
La Rome Call non è tanto “un insieme di regole ma la volontà di mettere in primo piano secoli di sapienza umana” ha avuto modo di spiegare padre Benanti e proprio per questo il documento vaticano arriverà fino in Giappone, dove nel mese di luglio sarà essere fatto proprio anche dai leader delle religioni orientali (dopo quelle abramitiche).
“Andremo ad Hiroshima, un luogo dalla forte valenza simbolica, per dire che la tecnologia mai più sia uno strumento di distruzione” continua ancora Benanti che ritiene, questa della tecnologia e dell’Intelligenza Artificiale in particolare, una sfida “di oggi, non del futuro“.
Per Benanti “ci sono elementi fondamentali per affrontare le trasformazioni dell’AI e tra questi c’è l’abilitazione delle sue capacità, che stanno rapidamente avanzando e stanno trasformando molti settori. Per abilitare le capacità di AI in modo etico, è necessario agire in più direzioni: sviluppare data set di grandi dimensioni, di alta qualità e imparziali per addestrare i modelli di IA; dare accesso alle infrastrutture informatiche; costruire competenze di AI; stabilire quadri di governance per gestire lo sviluppo dell’AI; e che i sistemi di AI siano trasparenti, responsabili e allineati con i valori umani“.
Iscriviti alla nostra newsletter settimanale per non perdere le ultime notizie sull’Intelligenza Artificiale.

Papa Francesco si unirà al G7 per la prima volta nella storia: l’annuncio è arrivato dalla premier Giorgia Meloni ed è stato successivamente confermato dalla sala stampa vaticana. Il Pontefice parteciperà quindi all’evento di Borgo Egnazia in Puglia a metà giugno, prendendo parte alla sessione dedicata all’Intelligenza Artificiale aperta ai Paesi non membri, la cosiddetta ‘Outreach’. Questo segna un momento senza precedenti, con il Pontefice coinvolto nel vertice che coinvolge Stati Uniti, Canada, Francia, Regno Unito, Germania e Giappone.
La presidenza italiana del G7 intende promuovere l’iniziativa della Santa Sede sull’Intelligenza Artificiale attraverso la “Rome Call for AI Ethics“, portandola all’attenzione dei leader mondiali durante il vertice in Puglia. La presenza del Papa promette di contribuire significativamente alla definizione di un quadro regolatorio, etico e culturale per l’Intelligenza Artificiale, sottolinea la premier Meloni.
L’interesse del Pontefice per l’Intelligenza Artificiale è evidente, considerando la sua recente dedizione ai temi tecnologici, come dimostrato nei suoi messaggi per la Pace e per la Giornata delle Comunicazioni sociali. Papa Francesco ha anche incontrato il CEO di Cisco, Chuck Robbins, lodando gli sforzi per l’istruzione dei detenuti, sottolineando l’importanza di utilizzare l’IA per il bene comune anziché per fini manipolativi o distruttivi.
La Rome Call for AI Ethics, promossa dalla Pontificia Accademia per la Vita, sta raccogliendo consensi a livello globale, coinvolgendo leader religiosi, aziende e istituzioni accademiche. La partecipazione del Papa al G7 evidenzia l’impegno del Vaticano nel promuovere un dialogo interdisciplinare sull’etica tecnologica, con l’obiettivo di garantire un futuro di pace e prosperità per tutta l’umanità.
In un mondo sempre più dominato dalla tecnologia, la presenza del Papa al G7 rappresenta un’opportunità unica per affrontare le sfide etiche legate all’Intelligenza Artificiale e per promuovere un approccio responsabile e orientato al bene comune nell’uso delle nuove tecnologie.
Iscriviti alla nostra newsletter settimanale per non perdere le ultime notizie sull’Intelligenza Artificiale.

Alla luce dell’intensificarsi dei preparativi per le imminenti Olimpiadi di Parigi, l’integrazione dell’Intelligenza Artificiale nei sistemi di sorveglianza stradale in tempo reale ha acceso, in Francia e non solo, un acceso dibattito sulle libertà civili e le preoccupazioni per la sicurezza.
In base ai piani, avanzati algoritmi di Intelligenza Artificiale saranno dispiegati attraverso le telecamere CCTV in tutta Parigi, mirati a rilevare attività sospette come bagagli abbandonati e folle inaspettate. Mentre i i gruppi per i diritti civili esprimono preoccupazioni riguardo all’eventuale violazione delle libertà individuali, i sostenitori argomentano che tali misure siano cruciali per garantire la sicurezza pubblica durante eventi di rilievo.
Il quadro normativo che consente la video sorveglianaza algoritmica è contenuto nell’articolo 7 della Legge sui Giochi Olimpici, approvato dall’Assemblea Nazionale con 59 voti favorevoli e 14 contrari, che autorizza l’uso della cosiddetta videosorveglianza “intelligente” , basata su algoritmi per analizzare le immagini catturate da telecamere o droni, al fine di rilevare automaticamente azioni e azioni potenzialmente rischiose.
Secondo la formulazione dell’articolo, le immagini ottenute avranno il solo scopo di rilevare “in tempo reale eventi predeterminati idonei a manifestare o rivelare tali rischi e di segnalarli”, mentre il riconoscimento facciale non sembrerebbe autorizzato.

Tuttavia, lo scetticismo persiste tra coloro che sostengono che la videosorveglianza alimentata dall’AI, anche senza il riconoscimento facciale, costituisca una significativa minaccia alla privacy e all’autonomia personale per il rischio che tali tecnologie possano consentire una sorveglianza di massa, erodendo i diritti degli individui all’anonimato e alla libertà di movimento negli spazi pubblici.
L’introduzione di tale tecnologia rappresenta comunque una novità nel continente europeo. In una lettera aperta, 38 organizzazioni europee della società civile sostengono che l’uso generalizzato della videosorveglianza guidata da algoritmi presenta un rischio significativo per le libertà individuali e civili e viola il diritto internazionale sui diritti umani.
Mentre il governo francese naviga in un equilibrio delicato tra la sicurezza e le libertà civili, ancora una volta la questione mette in evidenza l’importanza delle considerazioni etiche nell’adozione dei sistemi di AI che toccano temi come la privacy e le libertà individuali, che stanno plasmando i discorsi pubblici in vista delle Olimpiadi di Parigi.
L’uso della tecnologia di sorveglianza automatizzata è un tema controverso, proprio per il rischio che l’integrazione dell’Intelligenza Artificiale possa rappresentare una nuova transizione nella sorveglianza di massa delle popolazioni civili. Questo perché l’uso di algoritmi nella videosorveglianza significa che il comportamento di chiunque venga filmato in uno spazio pubblico è costantemente analizzato e da qui al riconoscimento biometrico e facciale il passo è breve. Quello che è certo è che occorre trovare il giusto equilibrio tra i rischi per la sicurezza e la limitazione delle libertà civili.

Il governo indiano, sotto la guida del primo ministro Narendra Modi, ha identificato l’Intelligenza Artificiale come una tecnologia strategica in grado di apportare cambiamenti trasformativi in tutti gli aspetti della vita del Paese. Coerentemente con questa visione ha lanciato la strategia nazionale sull’Intelligenza Artificiale, oltre ad una serie di altre iniziative per promuovere l’adozione dell’AI su diversi settori che includono la sanità, l’agricoltura, l’istruzione, le smart city, i servizi finanziari, la difesa, i trasporti e l’energia.
Certo, ci vorrà del tempo prima che l’India raggiunga i leader del settore come gli Stati Uniti e la Cina, ma è indubbio che l’Intelligenza Artificiale in India sia un panorama in forte espansione con un immenso potenziale di sviluppo. L’India ha approvato lo scorso mese di marzo un investimento di 103 miliardi di rupie (1,25 miliardi di dollari) in progetti di Intelligenza Artificiale, tra i quali è previsto lo sviluppo di infrastrutture informatiche e lo sviluppo di grandi modelli linguistici.
Il denaro verrà utilizzato anche per finanziare startup basate sull’intelligenza artificiale e per sviluppare applicazioni di Intelligenza Artificiale per il settore pubblico.
La città di Bangalore, la capitale dello stato indiano meridionale di Karnataka e centro dell’industria tecnologica del Paese, ospita attualmente il maggior numero di startup GenAI in India, che hanno raccolto complessivamente poco più di 590 milioni di dollari di finanziamenti.
Un recente rapporto pubblicato da EY stima che l’AI generativa potrebbe aumentare il PIL dell’India di 359-438 miliardi di dollari entro il 2030, con una crescita stimata tra il 5,9 e 7,2%. Gli impatti si farebbero sentire anche sui lavoratori. Si stima che oltre 16 milioni di dipendenti a tempo pieno in India avrebbero bisogno di riqualificarsi e di migliorare le proprie competenze a causa dell’automazione, soprattutto nei settori manifatturiero, agricolo, forestale e ittico. Ma anche settori come i servizi alle imprese, la finanza, la sanità e l’istruzione sarebbero impattati in modo significativo da questa trasformazione.
D’altra parte l’Intelligenza Artificiale non ridefinirebbe soltanto i vecchi lavori ma andrebbe a creare anche nuove opportunità. Le stime parlano di una crescita fino a 4,7 milioni di nuovi posti di lavoro legati all’adozione della nuova tecnologia nel settore manifatturiero, della vendita al dettaglio, dell’istruzione e dell’industria e della finanza.
L’istituzione di programmi nazionali per l’intelligenza come “Make AI for India” e “Make AI Work for India”, mirano a promuovere la collaborazione tra università e aziende nella ricerca e nello sviluppo di applicazioni pratiche di Intelligenza Artificiale in settori chiave come l’agricoltura, la sanità e le smart city. Al fine di aggiornare le skill di studenti e lavoratori, è stato poi lanciato il programma YUVAI (Responsible AI for Youth) che ha l’obiettivo di migliorare le competenze nell’area dell’Intelligenza Artificiale e le università e le aziende tecnologiche indiane stanno sviluppando programmi e certificazioni di Intelligenza Artificiale.
Iniziative come KissanGPT per l’agricoltura, PolicyGPT per le assicurazioni, GitaGPT per l’impegno culturale e BharatGPT per il supporto linguistico mostrano come l’Intelligenza Artificiale generativa possa essere in grado di gestire sfide specifiche, ottimizzando i processi e dando maggiore potere alle comunità indiane in generale. L’adozione diffusa di questi strumenti di Intelligenza Artificiale adattati alle esigenze specifiche dell’India racchiude un immenso potenziale di innovazione, progresso e sviluppo inclusivo dal basso verso l’alto.
La strategia nazionale sull’Intelligenza Artificiale mira a rendere l’India un leader nello sviluppo e nell’adozione dell’AI. L’obiettivo del Paese è quello di concentrarsi sulla creazione di infrastrutture digitali pubbliche per sostenere la crescita dell’Intelligenza Artificiale e gli investimenti in set di dati di formazione indigena per le lingue indiane. L’istruzione continua a essere una delle principali preoccupazioni in quasi tutti i Paesi in via di sviluppo. Le tecnologie di Intelligenza Artificiale in grado di impartire un’istruzione di qualità alla popolazione indiana, caratterizzata da una grande varietà linguistica, potrebbero rivelarsi, da questo punto di vista, molto utili anche in altri Paesi in via di sviluppo.

I recenti progressi nel campo dell’AI possono contribuire ad affrontare alcune sfide che l’India si trova a dover affrontare. Ad esempio l’adozione dell’Intelligenza Artificiale può contribuire a facilitare l’accesso al sistema sanitario da parte delle popolazioni che vivono in aree disagiate, può favorire una crescita finanziaria inclusiva per ampie fasce di popolazione finora escluse dai prodotti finanziari formali prodotti finanziari formali, può fornire consulenza in tempo reale agli agricoltori e contribuire ad affrontare i fattori imprevisti che rischiano di minacciare la produttività, così come essere utilizzata per favorire l’azione di infrastrutture intelligenti ed efficienti nell’ambito delle smart city per rispondere alle esigenze di una popolazione in rapida urbanizzazione.
Un altro aspetto delle potenzialità dell’India nell’acquisire un ruolo nel panorama più generale dell’Intelligenza Artificiale è la comprovata esperienza del Paese come fornitore di soluzioni tecnologiche per le aziende in outsourcing che potrebbe essere un modello da seguire anche per l’Intelligenza Artificiale come Servizio (AIaaS). Per inquadrare bene questa potenzialità basta considerare che il maggior numero di sviluppatori su GitHub, un servizio basato su cloud per lo sviluppo di software, proviene dall’India.
Le aziende IT indiane sono state pioniere nel portare prodotti e sviluppi tecnologici come soluzioni in tutto il mondo. Man mano che l’Intelligenza Artificiale matura e le applicazioni generalizzate diventano comuni, l’India potrebbe trarne vantaggio per quanto riguarda l’implementazione su larga scala.
Inoltre, la competenza indiana nel campo dell’IT, unita a opportunità come l’interoperabilità tra più lingue, fornisce l’impulso necessario per trovare soluzioni scalabili per problemi che hanno implicazioni globali, come la PNL.
Certo, stiamo parlando di analisi delle potenzialità. L’India non ha finora generato un impatto significativo nel settore dell’Intelligenza Artificiale e nessuna realtà indiana è emersa al punto da poter sfidare il dominio di grandi giganti del settore come OpenAI con GPT-4 e Google con Bard. Ma in quale altro Paese questo è successo? In ogni caso, l’India possiede un enorme pool di talenti per lo sviluppo di software e un mercato di consumo interno forte espansione che potrebbe consentire al Paese di diventare un importante fornitore di applicazioni di AI, non solo per il suo mercato interno in forte espansione, ma anche, come dicevamo per il mercato globale.
Tra l’altro, oltre a offrire opportunità uniche, l’India costituisce un terreno di gioco perfetto per le imprese e le istituzioni di tutto il mondo per sviluppare soluzioni scalabili che possono essere facilmente implementate nel resto delle economie emergenti e nei Paesi via di sviluppo. Questo vorrebbe dire l’apertura di infinite potenzialità. Proviamo ad esempio ad immaginare una soluzione avanzata basata sull’Intelligenza Artificiale in ambito sanitario, legata ad esempio alla diagnosi precoce della tubercolosi che è ancora oggi, una delle prime dieci cause di morte al mondo. Ecco, in questo caso una eventuale soluzione potrebbe essere immediatamente estesa sia agli altri Paesi del Sud-Est asiatico che ai Paesi dell’Africa. Occore tenere in considerazione peraltro che, oltre all’assistenza sanitaria, le tecnologie AI in altri settori, come l’agricoltura, l’istruzione e la mobilità, sono destinate a trasformare il mondo. La comunanza di problematiche relative ai settori sopra citati tra l’India e i Paesi in via di sviluppo costituisce un caso d’uso ideale per lo sviluppo di soluzioni di Intelligenza Artificiale che potrebbero essere adattate a più mercati.

Sempre analizzando la realtà indiana dal punto di vista delle potenzialità va anche tenuto conto che l’età media in India, che conta 1,4 miliardi di abitanti, è di 28 anni (contro quella Europea che è di 44 ). Secondo l’autorità indiana di regolamentazione delle telecomunicazioni (TRAI), l’India ha più di 790 milioni di utenti di banda larga mobile e la penetrazione di Internet continua ad aumentare. Si tratta di un dividendo demografico e tecnologico estremamente importante perché questa caratteristica specifica costituisce il substrato ideale per creare una vastissima base utenti per servizi e applicazioni di Intelligenza Artificiale. Che è un dato da non trascurare.
L’infrastruttura digitale pubblica in forte espansione, costituisce poi un terreno ideale per lo sviluppo di sistemi basati sull’AI anche se il problema maggiore al momento è rappresentato dal dilemma regolatorio.
Fino allo scorso anno il governo indiano ha sempre dichiarato che non avrebbe regolamentato l’Intelligenza Artificiale al fine di promuovere un ambiente favorevole all’innovazione con l’obiettivo di facilitare la corsa dell’India alla leadership legata alle tecnologie dell’Intelligenza Artificiale.
Ora invece, con le elezioni alle porte (1) e con i principali partiti politici indiani che hanno iniziato ad utilizzare i deepfake nelle loro campagne, il governo Modi, che punta al terzo mandato, ha in parte cambiato idea, chiedendo alle aziende tecnologiche di ottenere il suo esplicito assenso prima di lanciare pubblicamente modelli o strumenti di Intelligenza Artificiale generativa.
Insomma, lo status emergente dell’India come potenza tecnologica, combinato con il suo panorama socioeconomico unico, la mette in una posizione favorevole per diventare il più grande utilizzatore di Intelligenza Artificiale al mondo entro la fine di questo decennio. Dalla semplificazione dell’istruzione al sostegno ai programmi di protezione sociale, l’Intelligenza Artificiale ha il potenziale per penetrare profondamente nella società indiana, determinando un cambiamento ampio e significativo.
[1] Le elezioni indiane si terranno tra il 19 aprile e il 1° giugno 2024 quando, nell’arco di 6 settimane, saranno chiamati al voto più di 950 milioni di elettori. Il conteggio dei voti verrà effettuato il 4 giugno.

La Corea del Sud investirà quasi 7 miliardi di dollari nell’Intelligenza Artificiale entro il 2027, nel tentativo di diventare un leader globale nei semiconduttori all’avanguardia. Ad annunciarlo il Presidente Yoon Suk-Yeol durante un incontro con i rappresentanti di Samsung, SK Hynix, il gigante tecnologico Naver e la startup di chip Ai Sapeon.
“Il futuro dell’industria dei semiconduttori dipende dall’intelligenza artificiale“, ha dichiarato il Presidente Yoon, precisando che Seul investirà 9.400 miliardi di won (pari a 6,94 miliardi di dollari) nell’Intelligenza Artificiale e nei semiconduttori AI entro il 2027 e istituirà un fondo separato con una dotazione di 1.400 miliardi di won (circa 1 miliardo di dollari) per aiutare la crescita delle aziende innovative di semiconduttori AI.
La Corea del Sud ospita Samsung e SK Hynix, i due principali produttori al mondo di chip, inclusi quelli premium a larghezza di banda elevata (Hbm) utilizzati nell’hardware che alimenta l’Intelligenza Artificiale.
L’industria dei semiconduttori è un pilastro importante dell’economia della Corea del Sud che è focalizzata sulle esportazioni e Seul punta a diventare leader mondiale nella tecnologia AI e a conquistare il futuro mercato dei chip di Intelligenza Artificiale per il quale ha commentato Yoon “la competizione dei semiconduttori che si sta verificando oggi è una guerra industriale e una guerra totale tra le nazioni” in riferimento alla rivalità tra Stati Uniti e Cina, alimentata anche dalle recenti tensioni per Taiwan.

Focus su Intelligenza Artificiale e Cybersecurity, con investimenti complessivi di 8 miliardi di euro, di cui 1 dedicato all’AI, per supportare lo sviluppo dell’economia e dell’innovazione italiana: queste le principali novità del Piano Industriale 2024-2028 di CDP Venture Capital appena presentato a Milano dalla Presidente Anna Lambiase e dall’Amministratore Delegato e Direttore Generale Agostino Scornajenchi.
Il focus è concentrato su 7 settori industriali ritenuti strategici per il futuro del Paese:
- Industry Tech;
- Infra Tech & Mobility;
- Agrifood Tech;
- Clean Tech;
- Aerospazio;
- Lifescience;
- Intelligenza Artificiale.
All’Intelligenza Artificiale, come aveva anticipato lo scorso mese di marzo la Presidente del Consiglio Giorgia Meloni, sono dedicate risorse per 1 miliardo di euro su 3 ambiti specifici:
- 120 milioni di euro dedicati al trasferimento tecnologico, anello di congiunzione tra ricerca universitaria e mercato;
- 580 milioni di euro di investimenti in startup con applicazioni settoriali per rafforzare gli attori già esistenti;
- 300 milioni di euro di investimenti in aziende mature pronte a scalare all’estero e diventare i futuri campioni nazionali.
In merito a quest’ultimo punto Agostino Scornajenchi, amministratore delegato di Cdp Venture Capital ha commentato “abbiamo un silver bullet da 300 milioni di euro per una, due o tre operazioni di concentrazione. Dobbiamo supportare il nostro sistema in modo tale che faccia nascere un campione nazionale dell’Intelligenza Artificiale, dobbiamo fare massa critica su questo ambito e questa fase specifica di investimento sul nostro comparto large venture sarà dedicata a questo“.
Adesso il tema vero è il seguente: 1 miliardo di euro come investimento Paese è sufficiente per far si che l’Italia possa giocare un ruolo significativo nel panorama dell’Intelligenza Artificiale?

Secondo articolo di una serie di 4 che analizzano l’evoluzione normativa e l’ambiente dell’Intelligenza Artificiale in Europa.
In un momento in cui l’Intelligenza Artificiale in Europa sta catalizzando l’interesse del mondo politico a seguito dell’approvazione dell’AI Act da parte del Parlamento europeo e pur in un contesto in cui sembra mancare una visione unica europea sullo sviluppo di un sistema europeo di Intelligenza Artificiale, come abbiamo visto nel primo articolo di questa serie, c’è un Paese in Europa che da qualche anno sta invece progettando la sua sfida per diventare una potenza nel campo dell’innovazione tecnologica e dell’intelligenza artificiale. E’ la Francia di Emmanuel Macron che con un piano da 1,5 miliardi di euro, intende trasformare il Paese in uno dei protagonisti del settore puntando sull’open source e su un piano di sviluppo che ha l’obiettivo di potenziare le capacità informatiche, le componenti e le architetture di sistema necessarie per recuperare il gap competitivo con gli Stati Uniti da un lato e con la Cina dall’altro.

La strategia nazionale per l’intelligenza artificiale – nell’ambito del più ampio piano di investimenti da 54 miliardi di Francia 2030 per creare nuovi settori industriali e tecnologici nel Paese – ha gettato le basi per una strutturazione a lungo termine dell’ecosistema AI, in tutte le fasi dello sviluppo tecnologico (ricerca, sviluppi e innovazioni, applicazioni, marketing, ecc.), promuovendo la creazione e lo sviluppo di una rete di istituti interdisciplinari di intelligenza artificiale, il sostegno a cattedre di eccellenza in AI, il finanziamento di programmi di dottorato e investimenti nelle capacità di calcolo della ricerca pubblica.
I risultati di questa politica sono sotto gli occhi di tutti. In pochi mesi, l’ecosistema parigino è letteralmente esploso.

Un segno tangibile che qualcosa stava cambiando è stata l’ascesa fulminea dell’unicorno Mistral AI, nata meno di un anno fa e già impostasi come uno dei leader del settore. Il suo nuovo LLM Mistral Large è progettato per rivaleggiare con concorrenti come GPT-4 e Claude2.
Google ha inaugurato a Parigi il 16 febbraio scorso, alla presenza del ceo Sundar Pichai, del ministro dell’Economia Bruno Le Maire e del segretario di Stato per il Digitale Marina Ferrari, il suo nuovo centro di ricerca e sviluppo sull’intelligenza artificiale (AI), che vedrà al lavoro un team composto da più di 300 ricercatori e ingegneri.

“Parigi è un centro globale di innovazione e una calamita per i talenti” ha sottolineato Sundar Pichai a margine dell’evento, “sono felice di aprire questo nuovo capitolo di Google in Francia”.
Facebook aveva già aperto, sempre a Parigi, il suo laboratorio di ricerca sull’AI denominato Fair (Facebook Artificial Intelligence Research), sotto la direzione del ricercatore francese Yann Le Cun, uno dei pionieri nel campo dell’intelligenza artificiale e dell’apprendimento automatico.
Alphabet e Meta non sono però le uniche aziende del settore tecnologico ad aver investito nell’intelligenza artificiale a Parigi. Altre realtà come Ibm, Samsung e Fujitsu hanno aperto dei propri centri di ricerca nella capitale francese.

“In pochi anni siamo riusciti a creare diversi istituti di ricerca interdisciplinari, a raddoppiare il numero di laureati in intelligenza artificiale e ad aumentare di 500 il numero dei dottorandi” è stato il commento del presidente Emmanuel Macron in occasione del lancio del laboratorio di ricerca sull’Intelligenza Artificiale Kyutai guidato da Xavier Niel, il patron di Iliad e da Eric Schmidt, ex CEO di Google, che con una dotazione di 300 milioni di euro ha l’obiettivo di attirare i più grandi talenti del settore AI. Kyutai è ospitato all’interno di Station F, il più grande campus di start up del mondo, situato nel 13° arrondissement di Parigi, in un ex deposito ferroviario, quello de La Halle Freyssinet, e ospita più di 1.000 startup in uno spazio di 34.000 mq. Un progetto ambizioso volto ad affermare la Francia come punto di riferimento globale nel campo dell’innovazione.
Tutte queste iniziative mirano a costruire un hub che da Parigi funga da collegamento per università, centri di ricerca e aziende. A Parigi sono peraltro presenti due figure di spicco dell’intelligenza artificiale: Vincent Simonet, direttore dell’ingegneria di Google France, e Joëlle Barral, direttrice della ricerca sull’Intelligenza Artificiale presso Google Deep Mind, tornata dagli Stati Uniti appena un anno fa.
Che Parigi e la Francia più in generale abbiano una strategia chiara per raggiungere l’obiettivo di diventare leader a livello europeo dell’Intelligenza Artificiale si capisce peraltro anche dalle posizioni che ha tenuto il governo francese durante i negoziati che hanno portato all’approvazione dell’AI Act europeo, esercitando ad esempio pressioni per un’esenzione totale per i modelli fondamentali. Come gli osservatori più attenti avranno rilevato la posizione dell’Eliseo è drasticamente cambiata nel corso del 2023, passando da una visione di fatto allineata a quella degli atri Paesi in termini di vincoli e regole ad una più favorevole all’adozione di maglie larghe nella regolamentazione per paura che i troppo vincoli della legislazione europea avrebbero potuto mettere in crisi non solo realtà nazionali come Mistral AI ma anche l’attrattività del suo progetto di diventare l’hub europeo delle start-up che puntano sull’innovazione e sull’Intelligenza Artificiale.

Ricordiamoci anche che il più grande incubatore di start-up al mondo si trova proprio a Parigi ed occupa occupa i 34 000 metri quadri della Halle Freyssinet, l’ex deposito ferroviario dell’Est della capitale francese. Station F, questo il nome dell’incubatore, nato nel 2017 per volere di Xavier Niel patron di Iliad, ospita già oltre alle start-up anche giganti del tech come Microsoft, la già citata Facebook, aziende come LVMH e realtà di prestigio come l’HEC, la storica grande école di business di Parigi, con la quale Station F ha appena lanciato, lo scorso mese di febbraio, un programma specifico per attirare più start-up internazionali interessate a decollare nel mercato europeo.
Tanta roba.
E l’Italia in questo scenario come si sta muovendo? Lo vedremo nel prossimo articolo dove analizzeremo cosa si sta facendo in Italia sul tema dell’Intelligenza Artificiale.
Leggi il 1° articolo della serie: Dopo l’AI Act: impatti e prospettive per l’Intelligenza Artificiale in Europa
Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

Secondo un rapporto pubblicato martedì, riportato dal New York Times, l’Arabia Saudita starebbe valutando la creazione di un fondo da 40 miliardi di dollari per investire nel settore dell’Intelligenza Artificiale (AI).
Il fondo renderebbe lo Stato del Golfo il più grande investitore al mondo nell’Intelligenza Artificiale e aiuterebbe il Regno non solo a realizzare il suo programma Vision 2030 che ha l’obiettivo di diversificare la dipendenza dell’economia dal petrolio, ma anche a contrastare i principali rivali nella regione, gli Emirati Arabi Uniti che sono molto attivi nel settore.
Il Fondo di investimento pubblico (PIF) dell’dell’Arabia Saudita, che ha già investito molto nel cloud computing e in altre infrastrutture digitali, ha un patrimonio di oltre 900 miliardi di dollari e nelle ultime settimane avrebbe discusso una potenziale partnership con Andreessen Horowitz, una delle principali società di venture capital della Silicon Valley e con altri potenziali finanziatori del fondo. .
Questa nuova spinta agli investimenti dell’Arabia Saudita probabilmente decollerà durante la seconda metà di quest’anno e potrebbero essere parte della partita anche altre società globali , non necessariamente dei venture capital. Amazon Web Services (AWS) ad esempio, in occasione della conferenza tecnologica LEAP che si è tenuta a Riad all’inizio di questo mese di marzo, si è impegnato a investire 5,3 miliardi di dollari nel fiorente mercato tecnologico del regno per creare data center cloud a partire dal 2026.
Una notizia importante perché fa entrare un nuovo player nel settore. Ma se Stati Uniti e Cina sono abbastanza avanti in termini di vantaggio acquisito, così non è per altre realtà come la Gran Bretagna e l’Europa che, tra le altre cose, non possono contare su risorse infinite in un settore dove la capacità di investimento è determinante per il successo.
Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

Primo articolo di una serie di 4 che analizzeranno l’evoluzione normativa e l’ambiente dell’Intelligenza Artificiale in Europa.
Il 13 marzo 2024 il Parlamento Europeo ha approvato a larga maggioranza l’AI Act, l’impianto di norme chiamato a regolare e ad armonizzare la legislazione europea in materia di Intelligenza Artificiale. La normativa sarà poi votata con una votazione separata nella seduta plenaria di aprile per poi entrare in vigore dopo la pubblicazione sulla Gazzetta Ufficiale dell’Ue probabilmente nel mese di maggio.
In base all’AI Act, i sistemi di apprendimento automatico saranno suddivisi in quattro categorie principali in base al rischio potenziale che rappresentano per la società. I sistemi considerati ad alto rischio saranno soggetti a regole severe che si applicheranno prima del loro ingresso nel mercato dell’UE.

Via libera del Parlamento europeo all’AI Act, l’impianto di norme europee sull’Intelligenza Artificiale. L’approvazione è arrivata ad ampia maggioranza: i deputati hanno approvato il regolamento, frutto dell’accordo raggiunto con gli Stati membri nel dicembre 2023, con 523 voti favorevoli, 46 contrari e 49 astensioni.
L’Ue è la prima al mondo a dotarsi di regole sull’Intelligenza artificiale, con un impianto normativo che stabilisce obblighi per l’AI sulla base dei possibili rischi e del livello d’impatto e che, in assenza di altre disposizioni di legge a livello internazionale – gli Stati Uniti sono al momento fermi all’Ordine esecutivo firmato dal presidente Biden sull’AI lo scorso mese di ottobre che si limita a delle raccomandazioni – potrebbe diventare il punto di riferimento per la legislazione in materia, almeno nel mondo occidentale.
“Dopo due anni intensi di lavoro siamo finalmente riusciti ad approvare la prima legge vincolante al mondo sull’intelligenza artificiale, volta a ridurre i rischi e aumentare opportunità, combattere la discriminazione e portare trasparenza. Grazie al Parlamento europeo, le pratiche inaccettabili di AI saranno proibite in Europa. Tuteliamo i diritti dei lavoratori e dei cittadini. Dovremo ora accompagnare le aziende a conformarsi alle regole prima che entrino in vigore. Siamo riusciti a mettere gli esseri umani e i valori europei al centro dello sviluppo dell’AI” è quanto ha dichiarato il correlatore dell’AI Act Brando Benifei nel dibattito in plenaria sull’approvazione delle norme.
“Abbiamo un testo che rispecchia moltissimo le priorità del Parlamento europeo” ha spiegato l’europarlamentare, soffermandosi in particolare sulla parte legata ai divieti, ulteriormente rafforzate nel negoziato, e su quella dedicata alla trasparenza e sicurezza dei modelli fondativi più potenti.
L’impianto della legge prevede in particolare il divieto di utilizzo dell’AI per una serie di attività, a partire dal divieto di sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale, il cui uso sarà limitato a casi specifici e sarà consentito solo per aiutare a identificare le vittime di rapimenti, tratta di esseri umani, sfruttamento sessuale e per prevenire minacce terroristiche.
Sono poi espressamente proibite attività come i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili come convinzioni politiche, religiose, filosofiche, orientamento sessuale e razza; il recupero non mirato di immagini facciali da Internet o tramite filmati di video sorveglianza per creare database di riconoscimento facciale; il riconoscimento delle emozioni sul posto di lavoro e nelle scuole; il punteggio sociale basato sul comportamento sociale o sulle caratteristiche personali e una serie di altre pratiche ritenute appunto “a rischio” per i diritti dei cittadini.
L’AI Act diventerà legge dopo la firma degli Stati membri e dopo la pubblicazione sulla Gazzetta Ufficiale dell’Ue. A tale proposito, Markus Beyrer, direttore generale di Business Europe, l’associazione degli industriali europei, afferma che “la legge sull’IA mantiene giustamente un quadro di riferimento basato sul rischio e impedisce l’emergere di leggi nazionali divergenti. Tuttavia, la necessità di un’ampia legislazione secondaria e di linee guida solleva questioni significative sulla certezza del diritto e sull’interpretazione della legge nella pratica” avvisando altresì che c’è un altro tema fondamentale che l’Europa è ora chiamata a prendere in considerazione: quello dei capitali e degli investimenti per promuovere, sostenere e far crescere l’AI nel vecchio continente.
“L’Europa deve non solo essere leader nella definizione delle regole, ma anche facilitare l’accesso ai capitali e ai finanziamenti per lo sviluppo dell’IA“, sottolinea su questo punto Beyrer, concludendo che “gran parte del lavoro reale per garantire il successo dello sviluppo dell’AI in Europa è solo all’inizio“.
Positivo il giudizio di Innocenzo Cipolletta, presidente dell’Associazione Italiana Editori (AIE) e di Confindustria Cultura Italia (CCI), secondo cui “è importante che siano previste regole chiare sulla trasparenza delle fonti utilizzate dai sistemi di Intelligenza Artificiale per addestrare gli algoritmi: la trasparenza è infatti il requisito per poter analizzare criticamente gli output dell’Intelligenza Artificiale e, per chi detiene i diritti, sapere quali opere sono utilizzate nello sviluppo di questi strumenti, se provengono da fonti legali e se l’uso è stato autorizzato”.
Favorevole a continuare a sostenere lo sviluppo di un’Intelligenza Artificiale responsabile anche Salvatore Nastasi, presidente Siae, secondo cui “l’approvazione dell’AI Act da parte del Parlamento Europeo, oltre a dotare l’Ue di una legge, la prima al mondo, che disciplina lo sviluppo e l’utilizzo di sistemi di AI anche nell’industria creativa, è la dimostrazione di quanto può essere efficace il nostro comparto quando si muove in maniera congiunta e unitaria” nell’ottica della massima trasparenza e della tutela degli autori ed editori.
Entusiasmi a parte va detto che l’approvazione dell’AI Act da parte del Parlamento UE è solo il primo passo: occorre non solo armonizzare le modalità con le quali i singoli Paesi europei accoglieranno il regolamento ma anche riuscire a tenere il passo con la rapidità di evoluzione della tecnologia e del cambiamento che l’adozione di questa necessariamente comporta.

Il boom della domanda energetica sta spingendo al limite la rete elettrica americana. Complici l’intelligenza artificiale, i centri per i dati e il mining di criptovalute, la richiesta di energia elettrica è balzata negli ultimi anni mettendo a dura prova la rete di trasmissione elettrica con il rischio di innescare una crisi di sistema potenzialmente in grado di minacciare anche la transizione verso l’energia pulita.
Secondo quanto riportato in un articolo del Washington Post, vaste aree degli Stati Uniti rischiano di rimanere a corto di energia. In Georgia, la domanda di energia industriale sta raggiungendo livelli record, con la proiezione di un nuovo utilizzo di elettricità per il prossimo decennio ormai 17 volte superiore a quello registrato solo di recente. In Arizona si prevede che la capacità di trasmissione sarà esaurita prima della fine del decennio e la Virginia del Nord ha bisogno dell’equivalente di diverse grandi centrali nucleari per servire tutti i nuovi data center pianificati e in costruzione. Senza parlare dell Texas, dove la carenza di elettricità è già una routine.
Aziende tecnologiche come Amazon, Apple, Google, Meta e Microsoft così come molte altre aziende meno conosciute sono a caccia di siti per nuovi data center che andranno ad esercitare ulteriori pressioni su una rete già sovraccarica. Senza contare che l’impennata del consumo di energia sta già ritardando la chiusura delle centrali a carbone.
Tenere il passo con la crescita del settore e la conseguente crescente domanda di elettricità da parte dell’Intelligenza Artificiale causerà un aumento delle emissioni di riscaldamento del pianeta, che alcuni stimano poter essere fino all’80%, anche se va detto che proprio i progressi nei sistemi di AI possono contribuire a migliorare il riscaldamento globale.
L’intelligenza artificiale può essere utilizzata per prevedere la siccità in Africa e in altre zone del pianeta, per monitorare la deforestazione, identificare sversamenti illegali, monitorare gli eventi meteorologici, analizzare i cambiamenti nello scioglimento del giacchio ai poli ma anche gestire in modo più intelligente le città, il traffico urbano, i trasporti, riducendo l’impatto dell’inquinamento.
Con il mondo sulla buona strada per non riuscire a raggiungere l’obiettivo dell’Accordo di Parigi di mantenere il riscaldamento al di sotto di 1,5° C, sfruttare l’Intelligenza Artificiale per arginare il cambiamento climatico è, tra le altre, l’enorme opportunità di questa tecnologia.
Secondo il rapporto Accelerating Climate Action with AI di BCG scritto in collaborazione con Google, l’implementazione della tecnologia e della scalabilità dell’intelligenza artificiale ha già dimostrato che le applicazioni dell’intelligenza artificiale per il clima possono ridurre significativamente le emissioni globali di gas serra (GHG). Scalando le applicazioni e le tecnologie attualmente collaudate, l’AI ha il potenziale per sbloccare informazioni che potrebbero aiutare a mitigare dal 5% al 10% delle emissioni di gas serra entro il 2030 che inserito nel contesto di cui si parla, equivale alle emissioni totali dell’Unione Europea.
Il tema del ruolo dell’intelligenza artificiale nell’affrontare il cambiamento climatico sarà sicuramente un argomento caldo alla prossima COP29 che si terrà a Baku in Azerbaijan anche se suona un po’ paradossale il fatto che discutere come raggiungere l’obiettivo delle Nazioni Unite di ridurre le emissioni del 43% entro il 2030 si faccia in un Paese esportatore di combustibili fossili, il cui uso è la principale causa del riscaldamento globale (non che la scelta di Dubai per la COP 28 fosse, dallo stesso punto di vista, tanto oculata).
Il problema effettivo, tornando al nostro tema principale, è che sebbene l’Intelligenza Artificiale possa essere parte della soluzione al tema del riscaldamento climatico, è essa stessa parte del problema, avendo una propria, significativa, impronta carbonica. Da questo punto di vista è necessario un approccio integrato al problema che coinvolga l’ottimizzazione dei processi tecnici, l’adozione di pratiche sostenibili e l’impegno a livello politico e industriale per promuovere la sostenibilità ambientale che passi non solo dall’azione su larga scala di fonti rinnovabili già disponibili e mature come il solare e l’eolico, ma anche attraverso la ricerca di fonti di energia alternative e pulite come la fusione a confinamento magnetico in grado di rilasciare un’enorme quantità di energia senza emettere gas a effetto serra.
Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

L’importanza di una scrittura efficace dei prompt non può essere sottovalutata. Un prompt scritto male può portare a risposte ambigue, irrilevanti o fuorvianti, riducendo così la user experience e l’utilità del modello di AI che stiamo interrogando. D’altro canto, un prompt ben strutturato può sbloccare il pieno potenziale di un sistema di Intelligenza Artificiale, consentendogli di fornire risultati precisi e di valore.
Il Framework RTF è l’acronimo di Request, Task e Format. È un approccio strutturato alla scrittura dei prompt che mira a semplificare l’interazione tra l’utente e il modello di intelligenza artificiale. Suddividendo il prompt in tre componenti distinti, il Framework RTF assicura che il modello AI riceva una richiesta ben definita, perseguibile e facile da comprendere ed eseguire.

Nel regno dell’Intelligenza Artificiale (AI) e dell’elaborazione del linguaggio naturale (NLP), i prompt servono come catalizzatori che accendono le interazioni tra esseri umani e macchine. Queste frasi brevi e istruttive sono in grado di guidare i modelli di intelligenza artificiale nella generazione di risposte contestualmente pertinenti, accurate e perspicaci. Abbiamo visto come sia possibile usare i cosidetti Prompt framework per fornire ai chatbot AI le informazioni corrette per il task che desideriamo venga portato a termine e all’interno di questi ne abbiamo in particolare analizzato uno, il RISEN framework.

Che l’Intelligenza Artificiale avrà un impatto sull’occupazione è indubbio. Il Fondo Monetario Internazionale stima che l’adozione dell’AI toccherà il 60% dei posti di lavoro nelle economie avanzate e il 40% a livello globale. Secondo un rapporto del MIT e dell’Università di Boston, l’Intelligenza Artificiale sostituirà fino a due milioni di lavoratori nel settore manifatturiero entro il 2025 che potrebbero arrivare a regime all’equivalente di 300 milioni di posti di lavoro secondo le previsioni della banca di investimenti Goldman Sachs.
Uno scenario a tinte fosche che va però mitigato dal boost di produttività e di crescita economica che proprio l’Intelligenza Artificiale sarà in grado di imprimere all’economia e che, secondo lo stesso studio di Goldman Sachs, potrebbe determinare un aumento del 7% (o quasi 7 trilioni di dollari) del PIL globale e aumentare la crescita della produttività di 1,5 punti percentuali in un periodo di 10 anni.
Tra ottimisti e pessimisti, quello che è certo comunque, è che un buon numero di lavoratori a livello globale, da qui al 2030, potrebbe aver bisogno di cambiare carriera o di ridefinire i propri skill professionali a causa dei progressi della digitalizzazione, della robotica e dei sistemi di Intelligenza Artificiale.
E se questo processo fosse già iniziato? Se l’è chiesto Bloomberry, una società che si occupa di analizzare le tendenze del mercato del lavoro, che per cercare di rispondere a questa domanda ha deciso di analizzare eventuali variazioni dei profili richiesti nel mercato dei freelance negli Usa dal lancio di ChatGPT nel novembre 2022 ad oggi.

Le 4 categorie che hanno registrato i maggiori cali sono state quelle della produzione di contenuti (- 33%), i servizi di traduzione (- 19%), il servizio clienti (- 16%) e, sebbene in misura minore, il social media management (- 4%).
Sull’altro fronte invece le crescite maggiori sono si registrano sui lavori di editing e produzione video (+ 39%), di web design (+10%) e di grafica (+ 8%).
Cosa ci dicono questi dati? Una prima riflessione a caldo è che, molto probabilmente, l’impatto effettivo dell’AI è meno devastante di quanto temuto. Per alcune attività, come le traduzioni, ma anche la produzione di contenuti e le attività legate alla gestione dei social media, il calo è facilmente spiegabile. Si tratta infatti di lavori che insistono sugli usi più comuni dei sistemi di AI che, più o meno tutti, abbiamo sperimentato fino ad ora e che ChatGPT e simili sono già in grado (sia pure con alcuni limiti e distinguo) di produrre. Anche il dato relativo al calo dei servizi clienti si spiega con il fatto, come fano notare da Bloomberry, che molte aziende stanno investendo sui chatbot che stanno sostituendo gli addetti al servizio clienti.
Quello che forse fa riflettere, per il momento positivamente, e che l’analisi in questione – da cui prende spunto questo articolo – evidenzia in modo netto, è invece l’aumento registrato nelle richieste di lavori di video editing e di grafica ovvero proprio in quei settori nei quali il rilascio, anche recente, di modelli di generazione text-to-video, come Runway o Sora, o text-to-image, come Dall-E, Stable Diffusion e Midjourney, avrebbero fatto invece pensare il contrario.
Stiamo dicendo, sostanzialmente, che nonostante siano sempre più diffusi sul mercato modelli AI per la generazione automatica di immagini e di video, il loro utilizzo non è poi ne così semplice ne tantomeno maturo e che per realizzare un video completo, un trailer aziendale o per l’editing di immagini strutturate da usare in ambito aziendale occorrono delle competenze specifiche, anche di prompt engineering, che in azienda non sono immediatamente disponibili.
Da questo punto di vista quindi va forse considerato che c’è spazio anche per una crescita dell’occupazione in questo settore specifico e che l’Intelligenza Artificiale tutto sommato non è qui solo per distruggere posti di lavoro ma anche per crearne di nuovi. Sta poi alle singole persone investire sull’aggiornamento delle proprie competenze professionali per garantire la propria employability. Ma se è vero che i collaboratori con una solida employability sono in grado di adattarsi alle nuove tecnologie, alle metodologie di lavoro e ai cambiamenti organizzativi in modo più rapido ed efficace e che possono contribuire a migliorare la produttività e le performance aziendali guidando l’impresa verso l’innovazione allora questo è un tema che riguarda anche le aziende, non solo in fase di recruiting, per identificare e reclutare i migliori talenti che possano contribuire al successo e alla crescita dell’organizzazione, ma anche nell’accompagnare la crescita professionale dei propri collaboratori attraverso percorsi di formazione continua. Perché in un’epoca in cui le tecnologie guidate dall’Intelligenza Artificiale avanzano così rapidamente trasformando in modo altrettanto rapido le esigenze aziendali, la capacità di governare questo cambiamento risulta vitale per il successo dell’impresa.
Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

WordPress e Tumblr venderanno i dati degli utenti per addestrare modelli di Intelligenza Artificiale
Tumblr e WordPress si stanno preparando a vendere i dati degli utenti ad OpenAi e a Midjourney per addestrare modelli Intelligenza Artificiale (AI). La notizia è stata lanciata da 404media, un sito di notizie tecnologiche, che sarebbe entrato in possesso di documenti interni all’azienda che si riferivano in particolare alla “compilazione di un elenco di tutti i contenuti dei post pubblici di Tumblr tra il 2014 e il 2023“.
La società madre delle piattaforme, Automattic Inc., ha pubblicato a tale proposito un post sul blog assicurando agli utenti della piattaforma che potranno rinunciare agli accordi che verranno stipulati per addestrare l’Intelligenza Artificiale o quantomeno avere un certo controllo sui contenuti.
“Le normative proposte in tutto il mondo, come l’AI Act dell’Unione Europea, darebbero agli individui un maggiore controllo su se e come i loro contenuti possono essere utilizzati da questa tecnologia emergente“, ha spiegato Tumblr in un post. “Supportiamo questo diritto indipendentemente dalla posizione geografica, quindi stiamo rilasciando un bottone per disattivare la condivisione dei contenuti dei tuoi blog pubblici con terze parti, comprese le piattaforme di intelligenza artificiale che utilizzano questi contenuti per la formazione dei modelli.“
È un tema, quello dell’utilizzo dei contenuti, di editori o di piattaforme di condivisione, che continua a riproporsi con sempre maggiore attualità negli ultimi mesi. Da quando i sistemi di Intelligenza Artificiale generativa, Open AI in primis, hanno iniziato ad addestrare i propri modelli linguistici su grandi set di dati, legislatori, politici e aziende, soprattutto editoriali, hanno acceso i riflettori sui cosidetti modelli di fondazione per capire cosa sia legale e cosa invece sia da ritenersi protetto da copyright quando le società di Intelligenza Artificiale setacciano il web per addestrare i loro modelli di AI.
D’altra parte, le aziende di Intelligenza Artificiale hanno un bisogno vitale di fonti dati per addestrare i propri sistemi su un insieme di dati o un argomento specifico e migliori sono i dati che alimentano i modelli – da qui l’interesse per i contenuti editoriali – migliori saranno poi i risultati che il modello riuscirà a restituire una volta addestrato.
Proprio per questo stiamo vedendo sempre più spesso accordi tra società di AI e produttori o distributori di contenuti. E’ di appena qualche giorno fa la notizia che Reddit ha firmato un accordo di licenza di contenuti con Google, così come aveva già fatto OpenAI con l’editore tedesco Axel Springer e con l’Associated Press. Anche se, non sempre si riesce a trovare una quadra sull’argomento e le numerose le cause legali, inclusa quella lanciata dal New York Times alla fine dello scorso anno contro OpenAI, stanno a dimostrare che sul tema dei contenuti e della titolarità dei diritti una volta che questi sono messi in rete e resi disponibili su piattaforme di condivisione, c’è ancora molta strada da percorrere.
Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

Davos 2024: Sam Altman e l’incognita dell’Intelligenza Artificiale. Tra opportunità e timori globali
L’Intelligenza Artificiale, come abbiamo visto, è stato il tema centrale del World Economic Forum appena concluso e il fondatore di Chat-GPT Sam Altman è stato la superstar assoluta tra le centinaia di Ceo accorsi a Davos.
Quattordici mesi fa ha sorpreso il mondo intero con Chat-GPT. Improvvisamente, l’Intelligenza Artificiale era in grado di fare ciò che fino ad allora era stato dominio esclusivo dell’uomo: scrivere testi, dipingere, creare immagini, fare musica, scrivere programmi, generare video da una semplice istruzione di testo e molto altro.

Quando i leader mondiali e i rappresentanti del mondo economico e finanziario sono arrivati a Davos per l’edizione 2024 del World Economic Forum, sono stati accolti da billboard, annunci e vetrine inneggianti all’Intelligenza Artificiale.
Sulla Promenade, la via principale di Davos, i giganti della tecnologia, tra cui Salesforce, IBM e Intel, ma anche società di consulenza con Bain & Company, hanno tappezzato vetrine ed edifici con annunci sull’intelligenza artificiale.

L’Intelligenza Artificiale (AI) avrà un impatto sul 60% dei posti di lavoro nelle economie avanzate e su circa il 40% dei posti di lavoro a livello globale. È quanto emerge da un rapporto, presentato dalla direttrice generale del Fondo Monetario Internazionale, Kristalina Georgieva, poco prima di partire per il World Economic Forum di Davos, che si tiene in questi giorni in Svizzera.
Il rapido progresso dell’Intelligenza Artificiale sottolinea il rapporto, solleva importanti domande sul suo potenziale impatto sull’economia globale con effetti difficili da prevedere, poiché l’Intelligenza Artificiale si diffonderà nelle economie dei vari Paesi in modi diversi.
In particolare i mercati del lavoro nei Paesi emergenti e nelle economie in via di sviluppo vedranno un impatto iniziale minore causato dall’Intelligenza Artificiale, ma avranno anche meno probabilità di beneficiare dell’aumento di produttività che deriverà dalla sua integrazione sul mondo del lavoro. D’altra parte, proprio l’aumento della produttività rappresenta una enorme opportunità offerta dall’AI per alimentare la crescita globale.

E’ indubbio, secondo il FMI, che molti posti di lavoro verranno sostituiti dall’Intelligenza Artificiale. Storicamente, l’automazione e la tecnologia in generale, hanno avuto la tendenza a influenzare le attività di routine, ma una delle cose che distingue e in un certo modo differenzia l’Intelligenza Artificiale dalle rivoluzioni tecnologiche alle quali abbiamo assistito nel passato, anche in quello più recente, è la sua capacità di generare impatto anche sui lavori altamente qualificati.
Di conseguenza, sono proprio le economie avanzate che si troverebbero ad affrontare i rischi maggiori legati all’adozione massiva dei tool di Intelligenza Artificiale nei settori produttivi dell’economia e, paradossalmente, sono le stesse economie avanzate che avrebbero le maggiori opportunità di sfruttarne i benefici, rispetto ai mercati emergenti e ai Paesi in via di sviluppo.
Nelle economie avanzate, circa la metà dei lavori esposti a questa nuova rivoluzione tecnologica potrebbe trarre vantaggio dall’integrazione dell’Intelligenza Artificiale, migliorando la produttività. Per l’altra metà, le applicazioni di IA potrebbero eseguire compiti e mansioni attualmente svolti dagli esseri umani (nelle aree del customer care, dell’amministrazioe, della contabilità, del data entry, ecc.) il che potrebbe ridurre la domanda di impego, generando una possibile contrazione dei salari e, più in generale, ad una riduzione delle assunzioni. Nei casi più estremi, alcuni di questi posti di lavoro potrebbero addirittura scomparire.
Le persone esposte all’AI sono in genere donne e individui con istruzione universitaria, con i lavoratori più anziani potenzialmente meno in grado di adattarsi alla nuova tecnologia.
L’AI potrebbe sostituire alcuni lavori e migliorare altri, influenzando quindi l’occupazione, i redditi e le disuguaglianze. Nella maggior parte degli scenari studiati dal FMI, l’Intelligenza Artificiale probabilmente peggiorerà la disuguaglianza complessiva, aumentando la forbice tra i redditi delle figure professionali, tra chi riuscirà a gestire l’integrazione dell’AI nel proprio lavoro grazie alla formazione e all’aggiornamento delle proprie competenze professionali e chi invece ne rimarrà escluso, come i lavoratori più anziani o quelli le cui mansioni possono essere facilmente sostituite.

Proprio per questo – è la raccomandazione del FMI – è fondamentale che i Paesi prevedano delle reti di sicurezza sociale adeguate e che offrano programmi di riqualificazione per i lavoratori vulnerabili. In questo modo è possibile rendere la transizione verso l’adozione generalizzata dell’Intelligenza Artificiale più inclusiva, minimizzando i rischi di disuguaglianza.
D’altra parte la strada intrapresa sembra irreversibile. Secondo un sondaggio condotto da PwC in vista del World Economic Forum di questa settimana, su un campione di 4.702 capi di aziende sparse in 105 Paesi,un quarto degli amministratori delegati globali prevede che l’implementazione dell’Intelligenza Artificiale generativa porterà a una riduzione dell’organico di almeno il 5% già quest’anno.
I settori guidati da media e intrattenimento, banche, assicurazioni e logistica sono quelli che hanno maggiori probabilità di prevedere perdite di posti di lavoro a causa degli strumenti di intelligenza artificiale all’avanguardia. Le aziende di ingegneria e di costruzione erano meno propense ad anticipare i tagli a causa dell’automazione.
L’analisi del FMI arriva mentre i leader politici e del mondo degli affari si riuniscono al World Economic Forum di Davos, in Svizzera dove, tra gli altri, l’Intelligenza Artificiale è un argomento di discussione.

Lo scorso venerdì Microsoft è diventata la società con la maggiore capitalizzazione di borsa 2,887 trilioni di dollari scalzando da podio Apple, che per più di un decennio ha dominato il mercato azionario, possiamo dire senza rivali (nel 2011 ha superato per la prima volta Exxon Mobil come azienda pubblica di maggior valore al mondo e ha mantenuto la posizione quasi ininterrottamente)
Secondo una interessante analisi del New York Times, il primo posto di Microsoft è una svolta da non sottovalutare. Il cambiamento stabilito nella seduta di venerdì 12 gennaio fa parte di un più ampio meccanismo di riordino del mercato azionario messo in moto dall’avvento dell’Intelligenza Artificiale generativa che riguarda diverse aziende del settore hi-tech.
Questo perché, sebbene il settore tecnologico sia ancora dominante a Wall Street in termini di valori, le aziende che registrano uno slancio maggiore sono proprio quelle che hanno messo l’AI generativa in prima linea nei loro piani aziendali futuri.
Microsoft ha incorporato la tecnologia di OpenAI nella sua suite di software per la produttività, una mossa che ha contribuito a innescare una ripresa nel suo business del cloud computing nel trimestre luglio-settembre.
Apple, nel frattempo, è alle prese con una domanda tiepida, anche per l’iPhone. La domanda in Cina, un mercato importante, è crollata mentre l’economia del paese si riprende lentamente dalla pandemia di Covid-19 e Huawei in forte ripresa sta erodendo la sua quota di mercato.
La leadership dell’azienda guidata da Satya Nadella nell’intelligenza artificiale ha anche creato un’opportunità per sfidare il dominio nella ricerca web di Google, che peraltro ha annunciato di aver programmato un piano, sia pur limitato, di licenziamenti nei comparti dell’assistenza digitale e dell’hardware, oltre che nella sua squadra di ingegneri, proprio a causa della concorrenza di OpenAI.
E’ la dimostrazione di come ormai crescere senza passare dall’IA – che come si è visto dall’ultima edizione del CES di Las Vegas appena concluso, ha investito ogni settore, dalle attività domestiche all’organizzazione professionale, alle relazioni sociali e forme di intrattenimento – sia ormai impossibile.

Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

Il New York Times ha intentato una causa contro Microsoft e OpenAI, accusando entrambe di violazione del copyright e di aver utilizzato abusivamente la proprietà intellettuale del giornale per addestrare modelli linguistici di grandi dimensioni, i LLM che sono alla base di ChatGPT e di Copilot.
Secondo l’editore infatti milioni di suoi articoli sarebbero stati utilizzati per addestrare i chatbot delle due aziende che ora sarebbero potenzialmente in grado di competere direttamente con i contenuti del quotidiano. Sebbene il New York Times abbia affermato in una dichiarazione di riconoscere il potenziale in termini di utilità dell’Intelligenza Artificiale Generativa per il pubblico e per il giornalismo, ha aggiunto che, se utilizzato per scopi commerciali, il materiale giornalistico richiede il permesso del detentore dei diritti di copyright.
Questi strumenti, si afferma nell’articolo del New York Times che riporta la notizia, “sono stati creati e continuano a utilizzare giornalismo indipendente e contenuti che sono disponibili solo perché noi e i nostri colleghi li abbiamo segnalati, modificati e verificati a costi elevati e con notevole esperienza” e quindi “se Microsoft e OpenAI desiderano utilizzare il nostro lavoro per scopi commerciali, la legge [riferendosi alle norme sul copyright] richiede che ottengano prima il nostro permesso. Non l’hanno fatto”.
Il dettaglio non è di poco conto perché, come sappiamo, le società che sviluppano sistemi di AI non dichiarano espressamente su quali contenuti sono stati allenati i propri algoritmi e anche perché lo studio legale Susman Godfrey che assiste il New York Times in questo procedimento è lo stesso che rappresenta anche l’autore Julian Sancton e altri scrittori in una causa separata contro OpenAI e Microsoft che accusa le società di utilizzare materiali protetti da copyright senza autorizzazione per addestrare diverse versioni di ChatGPT.
In un’udienza al Congresso lo scorso mese di maggio, Sam Altman, CEO di OpenAi, si è mantenuto abbastanza vago su questo tema, affermando che i modelli utilizzati da ChatGPT sono addestrati su un’ampia gamma di dati che includono contenuti disponibili al pubblico, contenuti concessi in licenza e contenuti generati da revisori umani.
La causa arriva due settimane dopo che un altro importante editore, Axel Springer, che edita il quotidiano tedesco Bild oltre che Politico e Business Insider, ha invece raggiunto un accordo economico proprio con OpenAi per l’utilizzo dei propri contenuti da parte di ChatGPT, accordo che invece il New York Times dichiara non essere riuscito a siglare.
La denuncia del New York Times è quindi da questo punto di vista importante perché capiremo quali saranno gli orientamenti della Corte sul tema del copyright atteso che le società di Intelligenza Artificiale si sono sempre rifatte alla dottrina del Fair Use che consente a una parte di utilizzare un’opera protetta da copyright senza il permesso del proprietario del copyright per scopi quali critiche, commenti, notizie, insegnamento, borse di studio o ricerca.
Adesso, man mano che gli strumenti di intelligenza artificiale continuano ad avanzare in termini di capacità e portata, la tradizionale applicazione del Fair Use potrebbe essere messa in discussione e un’interpretazione più restrittiva del suo utilizzo potrebbe ridurre drasticamente il modo in cui l’intelligenza artificiale generativa viene addestrata e utilizzata portando addirittura all’obbligo di rimozione del materiale che viola il diritto d’autore sulla base del Digital Millennium Copyright Act (DMCA).

Synthesia è una startup che si occupa di generazione automatica di video con l’ausilio dell’Intelligenza Artificiale. Creare un video non è proprio una passeggiata, bisogna avere a disposizione uno studio, degli attori, le telecamere, fare attenzione alle luci, al suono, lavorare sulla post-produzione: insomma un processo complesso. Almeno fino ad ora. Perché la capacità dei sistemi guidati dall’Intelligenza Artificiale di generare contenuti audiovisivi sta facendo dei progressi enormi grazie al rilascio di sistemi di syntetic media in grado di generare video, immagini, testi e voci direttamente dal computer.
Ed è proprio quello che fa Synthesia, il tool di creazione video AI in grado di combinare Intelligenza Artificiale generativa, avatar, voci fuori campo e montaggio per creare in pochi minuti video di alta qualità, offrendo un’ampia gamma di funzionalità, come avatar, voci, sintesi vocale e un assistente di script per semplificare il processo di creazione dei video.
E’ anche possibile personalizzare il proprio avatar in modo che abbia il nostro aspetto, così come la nostra voce, oppure accedere ad una libreria di 60 template, video, 140 avatar e l’opzione di 120 lingue. Anche se, a proposito delle lingue, forse l’italiano è ancora da perfezionare.
Sotto un breve video di esempio di quello che si può realizzare con Synthesia. La facilità di generazione video è davvero impressionante, così come l’adattabilità nelle sfumature linguistiche, tranne forse che per l’italiano.
Qui sotto la versione in inglese:
Questa la versione in spagnolo:
La versione francese:
E infine, la versione in italiano, forse la meno riuscita:
PS: il tool è a pagamento, da 20,00 euro/mese

ChatGPT potrà accedere e proporre ai propri utenti gli articoli di Bild, Die Welt, Politico e Business Insider. E’ il risultato dell’accordo tra l’editore tedesco Axel Spriger e OpenAI che pagherà per consentire a ChatGPT di riassumere gli articoli nelle risposte generate dal chatbot e di fornire collegamenti agli articoli completi per trasparenza e ulteriori informazioni.
E’ il primo accordo del genere in Europa per il settore dell’editoria e segna un precedente importante per il settore legato al tanto discusso tema del copyright. Precedentemente Associated Press ha dichiarato di avere concesso in licenza parte del proprio archivio a OpenAI, autorizzandone l’utilizzo per l’addestramento di ChatGPT a fronte di una adeguata remunerazione.
Il settore dell’editoria e dei mezzi di informazione ha un forte interesse per lo sviluppo e l’implementazione delle tecnologie di intelligenza artificiale, perché in grado di offrire agli editori digitali la possibilità di innovare e ampliare la propria offerta informativa utilizzando nuovi strumenti (l’ottimizzazione dei processi distributivi, l’analisi dei trend di mercato e delle preferenza dei lettori, lo sviluppo di tool di raccomandazioni personalizzate), ma solleva anche interrogativi sull’idoneità del quadro normativo esistente, soprattutto per quanto riguarda i diritti d’autore e il loro utilizzo non autorizzato e non retribuito per addestrare i sistemi di Intelligenza Artificiale.

Aleph Alpha è una start-up tedesca che fornisce sistemi di intelligenza artificiale generativa ad aziende e governi. Nel suo ultimo round di finanziamento ha raccolto più di 500 milioni di dollari da Innovation Park Artificial Intelligence (Ipai), Bosch Ventures e le società del Gruppo Schwarz, diventando un questo modo una delle start-up di AI in più rapida crescita e più apprezzate in Europa, assieme alla francese Mistral AI.
Il finanziamento farà avanzare la ricerca proprietaria sull’intelligenza artificiale e accelererà lo sviluppo e la commercializzazione dell’intelligenza artificiale generativa.
Aleph Alpha, che è stata fondata nel 2019 da Jonas Andrulis (che aveva maturato una precedente esperienza lavorando sull’intelligenza artificiale in Apple), si concentra sulla costruzione di modelli linguistici di grandi dimensioni (LLM) ma, a differenza della francese Mistral AI, è già attiva a livello commerciale. I clienti dell’azienda, che vanno dalle banche alle agenzie governative, utilizzano i LLM di Aleph Alpha per scrivere nuovi rapporti finanziari, riassumere report di centinaia di pagine e creare chatbot aziendali. Ma gli LLM sono solo una parte dell’attività su cui è concentrata l’azienda che punta allo sviluppo dell’intelligenza artificiale generale e la cui specializzazione è nella protezione e nella sicurezza dei dati regolamentati.
Proprio per questo ha aperto il suo primo data center a Berlino in modo da poter soddisfare meglio settori altamente regolamentati, come quello delle aziende governative o della sicurezza, che ritengono mandatorio il fatto che i propri dati sensibili siano ospitati in Germania o comunque all’interno dell’UE. A tale proposito il modello sviluppato da Aleph Alpha può già comunicare oltre che in tedesco, in francese, spagnolo, italiano e inglese, e i suoi dati di addestramento includono il vasto archivio di documenti pubblici multilingue pubblicati dal Parlamento Europeo.
I cambiamenti recenti e imminenti nella regolamentazione europea dell’IA generativa con l’AI Act potrebbero contribuire a detreminarne il successo nel prossimo futuro, grazie ai suoi collegamenti con enti governativi e con le forze dell’ordine. Nonostante ciò Aleph Alpha deve ancora dimostrare che la sua tecnologia sia sufficientemente avanzata da poter diventare un competitor effettivo delle grandi aziende Usa del settore.

Mistral AI, la start-up francese specializzata in Intelligenza Artificiale Generativa, ha appena completato un round di finanziamento da 385 milioni di euro guidato dai fondi statunitensi Andreessen Horowitz e Lightspeed Venture insieme a una serie di altri investitori tra cui Salesforce Ventures, BNP Paribas, CMA CGM, General Catalyst e, secondo quanto riportato dal quotidiano economico francese Les Echos, Nvidia.
L’azienda è stata fondata lo scorso mese di maggio da Arthur Mensch, ex ricercatore di Google DeepMind e da due soci, Timothée Lacroix e Guillaume Lample che hanno lavorato entrambi a Meta nel team responsabile dei grandi modelli linguistici (LLM), lo stesso tipo di tecnologia alla base di applicazioni come ChatGPT.
L’obiettivo dell’azienda è quello di creare un campione europeo con una vocazione globale nell’intelligenza artificiale generativa, basato su un approccio aperto, responsabile e decentralizzato alla tecnologia.
A settembre, Mistral AI ha rilasciato il suo primo modello chiamato Mistral 7B. Questo modello linguistico di grandi dimensioni non è pensato per competere direttamente con GPT-4 o Claude 2 poiché è stato addestrato su un set di dati “piccolo” di circa 7 miliardi di parametri. Invece di consentire l’accesso al modello Mistral 7B tramite API, l’azienda lo ha reso disponibile come download gratuito in modo che gli sviluppatori potessero eseguirlo sui propri dispositivi e server.
Il modello è stato rilasciato con licenza Apache 2.0, una licenza open source che non prevede restrizioni sull’uso o sulla riproduzione oltre l’attribuzione. Sebbene il modello possa essere gestito da chiunque, è stato sviluppato a porte chiuse con un set di dati proprietario e pesi non divulgati.
Adesso, senza addentrarci troppo su aspetti legati alla tecnologia, quello che mi preme sottolineare è la straordinaria attenzione che quest’azienda ha saputo catalizzare su di se, non solo in casa propria, in quella Francia alla disperata ricerca di un campione nazionale dell’AI da poter ostentare sul piano politico (ricordiamoci che il presidente Emmanuel Macron è uno dei suoi grandi sponsor) ma anche oltreoceano, dove aziende del calibro di Salesforce e Nvidia hanno ritenuto di scommettere su questa startup.
Vale peraltro la pena sottolineare come Mistral AI abbia svolto un ruolo importante nel dare forma alle discussioni sull’AI Act dell’UE, esercitando pressioni per un’esenzione totale per i modelli fondamentali e guidando in qualche modo la posizione della Francia favorevole ad una regolamentazione dell’AI che dovrebbe applicarsi invece a valle, ai casi d’uso e alle aziende che lavorano su prodotti utilizzati direttamente dagli utenti finali.

Dopo un negoziato fiume durato oltre 36 ore i politici e i legislatori dell’Unione europea hanno raggiunto venerdì un accordo sul primo insieme completo di norme al mondo che regolano l’uso dell’Intelligenza Artificiale.
Nelle prossime settimane verranno elaborati i dettagli di quello che di fatto può essere definito un accordo politico, che dovrà poi passare dall’approvazione finale degli Stati membri oltre che dal Parlamento europeo.
I punti chiave su cui si è arrivati ad un accordo riguardano principalmente i cosidetti sistemi ad alto rischio, quelli che si ritiene possano avere una significativa potenzialità potenziale di nuocere alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia, alle elezioni e allo Stato di diritto. Questi sistemi, in particolare, dovranno rispettare una serie di requisiti e sono previsti una serie di obblighi nei confronti dei fornitori e dei sviluppatori di sistemi di IA a seconda dei livelli di rischio identificati.
I sistemi di intelligenza artificiale che si ritiene presentino rischi limitati sarebbero soggetti a obblighi di trasparenza molto leggeri, come etichette informative che dichiarino che il contenuto è stato generato dall’intelligenza artificiale per consentire agli utenti di decidere come utilizzarlo.
Uno dei capitoli più importanti, su cui il negoziato si è incagliato per ore, è quello delle pratiche di AI vietate perché potenzialmente in grado di minare i diritti fondamentali, come il divieto di sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale, il cui uso sarà limitato a casi specifici.
L’uso di sistemi di identificazione biometrica remota in tempo reale negli spazi pubblici da parte delle forze dell’ordine sarà consentito solo per aiutare a identificare le vittime di rapimenti, tratta di esseri umani, sfruttamento sessuale e per prevenire una minaccia terroristica specifica e attuale. Sarà inoltre autorizzato per rintracciare persone sospettate di reati di terrorismo, tratta, sfruttamento sessuale, omicidio, rapimento, stupro, rapina a mano armata, partecipazione a un’organizzazione criminale e crimini ambientali.
Tra i punti controversi, anche quello sui modelli di fondazione come GPT-4, alla base di ChatGPT. L’accordo prevede obblighi più stringenti per i modelli ad alto impatto con rischio sistemico che saranno soggetti a requisiti di trasparenza come la stesura di documentazione tecnica, il rispetto della normativa UE sul copyright e la diffusione di riepiloghi dettagliati sui contenuti utilizzati per la formazione degli algoritmi.
Sono invece espressamente proibite attività come i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili come convinzioni politiche, religiose, filosofiche, orientamento sessuale e razza; il recupero non mirato di immagini facciali da Internet o tramite filmati di video sorveglianza per creare database di riconoscimento facciale; il riconoscimento delle emozioni sul posto di lavoro e nelle scuole; il punteggio sociale basato sul comportamento sociale o sulle caratteristiche personali (come invece avviene in Cina); i sistemi di intelligenza artificiale che manipolano il comportamento umano per aggirare il loro libero arbitrio e, più in generale, tutte quelle applicazioni dell’AI volte a sfruttare le vulnerabilità delle persone a causa della loro età, disabilità, situazione sociale o economica.
“L’UE diventa il primo continente a stabilire regole chiare per l’uso dell’intelligenza artificiale“, ha scritto su X il commissario per il mercato interno Thierry Breton, secondo cui l’AI Act “è molto più di un regolamento: è un trampolino di lancio per startup e ricercatori dell’UE per guidare la corsa globale all’intelligenza artificiale”.
Dello stesso tono anche il commento di uno dei correlatori della legge sull’Intelligenza Artificiale, il deputato Dragoș Tudorache: “Siamo i primi al mondo a mettere in atto una vera regolamentazione per il futuro mondo digitale guidato dall’intelligenza artificiale, guidando lo sviluppo e evoluzione di questa tecnologia in una direzione incentrata sull’uomo.“
Tuttavia non mancano reazioni critiche come quella del deputato del Ppe Axel Voss che si è detto “non convintoche questo sia il modo giusto per garantire che l’Europa rimanga competitiva nell’IA. L’innovazione si farà comunque altrove“.
E il punto forse è proprio questo. L’Europa ha sicuramente vinto la gara per legiferare in materia di Intelligenza Artificiale, ma l’innovazione su questo campo si sta facendo altrove, negli Stati Uniti e in Cina. Bene guardare ad uno sviluppo responsabile dell’Intelligenza Artificiale che, come tutte le tecnologie va prima o poi regolamentata. Ma occorre anche che non si mettano troppi vincoli alle aziende europee che già sono destinate a rincorrere, perché il Vecchio Continente su questo tema non è competitivo. Non si parla poi di investimenti, di una cornice unica europea in grado di favorire la ricerca e lo sviluppo in questo ambito, con finanziamenti e interventi nel capitale di rischio di start up e piccole imprese. Perché altrimenti, ancora una volta, l’Europa rischia di perdere il treno dell’innovazione, così come è già stato per Internet e per i Social.

Esattamente un anno fa, il 30 novembre 2022, OpenAI rilasciava ChatGPT che nel giro di pochi mesi è diventata l’applicazione con la crescita più rapida di tutti i tempi. È raro che un singolo prodotto crei un impatto così forte sull’industria tecnologica in un solo anno eppure, grazie al fatto di aver reso disponibili i modelli linguistici di grandi dimensioni (LLM) ad un vasto pubblico, ha creato un nuovo filone nel mondo della tecnologia.
Durante questi 365 giorni, ChatGPT ha ampliato la percezione pubblica dell’Intelligenza Artificiale, ha catturato l’immaginazione, attirato i critici e alimentato in alcuni una sorta di angoscia esistenziale per il timore che macchine e algoritmi potessero conquistare a breve il mondo.
Ha rilanciato Microsoft (che ha investito in OpenAI 10 miliardi di dollari), ha messo sotto pressione Google, ha dettato l’agenda dei leader mondiali spingendo vari tentativi di regolamentazione governativa, ha contribuito ad aggiungere parole al nostro dizionario quotidiano, ispirando conferenze e dando il via ad una serie di altre applicazioni basate sull’intelligenza generativa per realizzare immagini, foto, musica e persino video, allarmando anche il mondo di Holliwood.
ChatGPT ha contributo ad accelerare le attività di programmazione degli sviluppatori di software, ha assistito editor, scrittori e marketing manager nelle proprie attività, ha fatto intravedere le opportunità infinite di questa tecnologia connesse alla ricerca scientifica, all’educazione e a tanti altri campi della società, anche se, da un punto di vista tecnologico, inizialmente ChatGPT non è sembrato particolarmente nuovo agli esperti del settore. I chatbot esistevano già da tempo e GPT-3, il modello di AI che ha portato a ChatGPT, era in circolazione dal 2020.
Tuttavia OpenAI non si è fermata, ha continuato a testare nuove funzionalità, aggiungendo anche un livello a pagamento per l’accesso prioritario e con il lancio di GPT-4 nel marzo 2023, ChatGPT ha ricevuto un notevole aggiornamento, diventando un assistente sempre più affidabile e ampiamente considerato il leader tra i modelli linguistici di Intelligenza Artificiale.

È disponibile da oggi su RaiPlay ‘Cassandra‘, un cortometraggio realizzato grazie alla collaborazione tra intelligenze umane e artificiali, prodotto da Scuola Holden con Rai Cinema.
Protagoniste della storia sono Agatha, una giovane studentessa della Scuola Holden, e Cassandra, una app di intelligenza artificiale predittiva. Cassandra è stata progettata per analizzare i dati raccolti sulle abitudini degli utenti e, in base a un semplice calcolo delle probabilità, può prevedere con una certa esattezza quel che accadrà nelle loro vite.
Agatha insegna a Cassandra a somigliare il più possibile a un essere umano e a parlare alle persone con una voce viva. Con il passare dei giorni, però, la ragazza capisce che le previsioni di Cassandra si spingono ben oltre i calcoli matematici, rischiando di influenzare attivamente le scelte personali di chi si affida alle sue predizioni.
Cassandra – spiega una nota di produzione – segna un nuovo modello produttivo: è il primo cortometraggio concepito e realizzato insieme all’Ai potenziando la creatività umana. I pensieri di Cassandra sono stati ispirati da un dialogo tra gli autori e un’applicazione di AI, Google Bard.
Il cortometraggio è stato poi girato in parte facendo recitare gli attori in carne e ossa, e in parte utilizzando Runway, un tool di editing video basato su intelligenza artificiale generativa che ha creato alcune scene del corto trasformandole nei pensieri di Cassandra, mentre il personaggio stesso di Cassandra è stato interamente generato con l’AI grazie alla combinazione tra Midjourney e HeyGen per l’animazione.
Infine anche il logo di Cassandra è stato sviluppato grazie a Looka, anche questa una piattaforma basata sull’intelligenza artificiale.
Di seguito il trailer:
Clicca qui per guardare il corto su Rai Play.

Il presidente russo Vladimir Putin ha annunciato venerdì (23 novembre 2023) un piano per sostenere una strategia nazionale per lo sviluppo dell’intelligenza artificiale, sottolineando che è essenziale prevenire il monopolio occidentale.
Intervenendo a una conferenza sull’intelligenza artificiale a Mosca, Putin ha osservato che “è imperativo utilizzare soluzioni russe nel campo della creazione di sistemi di intelligenza artificiale affidabili e trasparenti che siano sicuri anche per l’uomo”.
“Il dominio monopolistico di tale tecnologia straniera in Russia è inaccettabile, pericoloso e inammissibile”, ha affermato Putin, sottolineando come, a suo avviso, “molti sistemi moderni, basati su dati occidentali, sono destinati al mercato occidentale” riflettendo per questo “quella parte dell’etica occidentale, delle norme di comportamento e della politica pubblica a cui ci opponiamo”.
Si è impegnato a investire risorse aggiuntive nello sviluppo di supercomputer e altre tecnologie per contribuire a intensificare la ricerca nazionale sull’intelligenza artificiale.
Il governo russo da parte sua ha annunciato l’intenzione di rilasciare una tabella di marcia ufficiale per lo sviluppo dell’IA, che mira a identificare e rimuovere gli ostacoli allo sviluppo di soluzioni di IA e a stimolare la domanda di mercato interna in Russia promuovendo la cooperazione pubblico-privato e coinvolgendo l’industria privata nello sviluppo dell’IA.
Il Paese d’altra parte può contare un significativo background accademico in ambito scientifico, tecnologico, ingegneristico e matematico (STEM) assieme ad un importante bacino di talenti in all’interno delle forze armate che, attraverso la Advanced Research Foundation (ARF), svolgono un ruolo significativo nello sviluppo dell’IA, in particolare
La strategia enfatizza anche l’educazione all’IA e lo sviluppo di hardware e software per l’IA da parte delle industrie del Paese. Il settore privato russo sta vivendo una rinascita nello sviluppo dell’IA, con progetti di rilievo nelle tecnologie di riconoscimento delle immagini e del parlato. Tuttavia, il settore privato deve affrontare sfide come la limitatezza dei finanziamenti e del supporto. Anche l’esercito russo sta investendo nello sviluppo dell’IA, in particolare nei sistemi di armamento e nell’elaborazione delle informazioni per le guerre informatiche per incorporare l’IA in vari sistemi d’arma e hanno identificato i principi di sviluppo dell’IA, tra cui il riconoscimento delle immagini, il riconoscimento vocale, il controllo di sistemi militari autonomi e il supporto al ciclo di vita delle armi. Il governo sta inoltre istituendo una “tecnopoli” dell’innovazione militare chiamata “ERA” per creare un laboratorio di IA e facilitare la collaborazione tra l’esercito e il settore privato il cui sviluppo in quest’ambito è relativamente ridotto rispetto ad altri Paesi a causa della mancanza di disponibilità di capitale di rischio (come quello che guida gli investimenti nella Silicon Valley), sebbene vi siano aziende come Yandex.ru, ABBYY e VisionLabs che stanno sviluppando e utilizzando le tecnologie AI soprattutto nei settori del riconoscimento dei dati di testo e del riconoscimento facciale.

È stato inaugurato in Francia il primo laboratorio europeo dedicato alla ricerca sull’Intelligenza Artificiale. Il progetto si chiama Kyutai e poggia sui principi dell’open source e del no-profit, un modello simile a quello con cui è nata OpenAI a San Francisco qualche tempo fa.
Tra i promotori del progetto, che ha a disposizione un finanziamento iniziale di circa 300 milioni di euro, Xavier Niel, CEO e fondatore del gruppo Iliad, Rodolphe Saadé, presidente del gruppo logistico CMA CGM e Eric Schmidt, ex CEO di Google. All’evento di lancio, tenutosi nei locali di Station F, un campus per startup da 34mila metri quadri nella Halle Freyssinet, a Parigi, è intervenuto anche Jensen Huang, CEO di Nvidia, i cui processori H100 garantiscono la potenza di calcolo necessaria al nuovo progetto.
Il laboratorio punta a diventare un polo di attrazione per i talenti del settore e un centro di eccellenza nel campo dell’AI per quell’Europa che su questo tema si trova a dover inseguire Stati Uniti e Cina.

Mettiamo che abbiate aperto ChatGPT con in testa un’idea di ciò che volete chiedergli, ma che abbiate difficoltà a tradurre i vostri pensieri in istruzioni precise affinché ChatGPT capisca effettivamente cosa volete che faccia.
In questo caso è possibile usare i cosidetti Prompt framework che servono per dare una struttura precisa per fornire le informazioni giuste al vostro chatbot AI che state utilizzando.

YouTube ha svelato un nuovo esperimento di applicazione dell’Intelligenza Artificiale alla musica in collaborazione con il laboratorio DeepMind di Google. Uno di questi in particolare, offre agli utenti la possibilità di generare frammenti di canzoni originali, con una durata massima di 30 secondi, utilizzando l’Intelligenza Artificiale per clonare la voce dell’artista prescelto.
Dream Track, questo il nome dell’esperimento di cui parliamo, che si trova su YouTube Shorts, è realizzato in collaborazione con 9 artisti, tra cui Demi Lovato, John Legend, Alec Benjamin, Charlie Puth, Sia, Charli XCX, Papoose, T-Pain e Troye Sivan, che hanno accettato di partecipare a questo innovativo esperimento.
Dream Track è alimentato da Lyria, il modello di generazione musicale più avanzato di Google DeepMind, e al momento è accessibile solo a un piccolo gruppo di artisti e creatori.
Il funzionamento è semplice: gli utenti inseriscono un’idea nel prompt di creazione, selezionano un artista partecipante, et voilà, ottengono un frammento di canzone unico generato dall’intelligenza artificiale con la voce e lo stile di quell’artista.
Secondo Lyor Cohen, responsabile di YouTube per la musica, e Toni Reid, vicepresidente delle esperienze emergenti e dei prodotti per la comunità, l’obiettivo di questo esperimento è esplorare come la tecnologia può creare connessioni più profonde tra gli artisti, i creatori e i loro fan. I dirigenti hanno paragonato il progresso dell’intelligenza artificiale nella musica all’impacto del sintetizzatore, che ha trasformato la musica elettronica e rock.
YouTube ha condiviso esempi di tracce generate, come una frase melodica di “Charlie Puth” basata sulla richiesta di “Una ballata sugli opposti che si attraggono“.
Allo stesso modo, è stata creata un’anteprima di Dream Track per T-Pain, ispirata dalla descrizione “Una mattina soleggiata in Florida, R&B“.
Tuttavia, l’uso dell’intelligenza artificiale per imitare voci e stili artistici ha sollevato e continua a sollevare dubbi e perplessità, per i possibili abusi.
Uno degli esempi più noti è Heart on My Sleeve, una canzone con voci create dall’intelligenza artificiale che si spacciavano per Drake e The Weeknd. La canzone è stata ritirata dai servizi di streaming dopo che Universal Music Group, la casa discografica di entrambi gli artisti, l’ha criticata per “contenuti illeciti creati con l’IA generativa“. Tuttavia, la canzone è ancora accessibile agli ascoltatori su YouTube.
In risposta, YouTube ha adottato nuove politiche che non solo richiedono ai creator di indicare quando caricano contenuti generati dall’intelligenza artificiale, ma anche la possibilità per le case discografiche di richiedere la rimozione dei brani che utilizzano versioni generate dall’intelligenza artificiale delle voci degli artisti senza autorizzazione.
L’entusiasmo degli artisti coinvolti è palpabile. “Lo sviluppo della tecnologia AI sta cambiando rapidamente il modo in cui ci muoviamo nel mondo, e credo che come artisti dobbiamo essere parte del futuro“, ha dichiarato Demi Lovato in un comunicato. “La mia carriera è stata incentrata sul superamento dei confini… e sulla creazione della musica più interessante per i miei fan. Sono aperta e spero che questo esperimento con Google e YouTube sia un’esperienza positiva e illuminante“.
Charlie Puth ha dichiarato: “Sono estremamente emozionato e ispirato… YouTube è stato un grande partner nel delineare il proprio approccio all’IA e comprende la necessità di lavorare insieme per sviluppare questa tecnologia in modo responsabile, assicurandosi che acceleri la creatività invece di sostituirla“.
Da parte sua, T-Pain ha dichiarato: “Ho sempre voluto spingermi oltre i confini della tecnologia e sfruttarla per creare la musica più interessante per i miei fan. Chissà cosa ci riserva il futuro, ma unire le mani con YouTube e Google per contribuire a plasmare quel futuro mi sembra un ottimo primo passo“.
YouTube sottolinea l’importanza di affrontare responsabilmente l’intelligenza artificiale, riconoscendo che si tratta di una tecnologia destinata ad amplificare la creatività umana, non a sostituirla. Quel che è certo è che quando innovazione tecnologica, creatività umana e musica si incontrano, possono accadere cose straordinarie.

Scrivere un articolo Seo con l’aiuto di Chat GPT è abbastanza semplice, basta utilizzare il giusto Prompt. Vediamolo di seguito nel dettaglio come impostarlo al meglio.

Provate ad immaginate un futuro in cui l’Intelligenza Artificiale applicata alla medicina sarà così normale da far si che ci si possa trovare davanti non un medico vero e proprio, in carne ed ossa intendo, ma un avatar, un chat bot virtuale. Ebbene non c’è bisogno di immaginarlo perché il futuro è già qui. Bastava essere presenti all’ultimo convegno dedicato alle malattie cardiovascolari e alla cura del cuore organizzato dall’ospedale Molinette di Torino per rendersene conto.
La guest star dell’evento, se così possiamo definirla, è stata infatti proprio un algoritmo, sviluppato da Chat GPT che, assumendo le sembianze di un’avatar, ha presentato le potenzialità dell’AI in ambito medico, rispondendo alle domande di una squadra internazionale di professori e medici: Gaetano Maria De Ferrari, direttore della Cardiologia universitaria delle Molinette, Amedeo Chiribiri di Londra, Amir Lerman della Mayo Clinic di Rochester USA ed il dottor Maurizio Roberto direttore della Cardiochirurgia di Cuneo.
L’avatar cardiologa ha accettato la proposta di De Ferrari di farsi chiamare Susan per la durata della sessione scientifica e ha chiarito che il suo ruolo e la sua capacità erano quelle di fornire risposte sulla base della consultazione di una smisurata banca dati mondiale aggiornata ad aprile 2023.
Ha altresì chiarito di non provare emozioni o sentimenti in prima persona, ma di capire le emozioni dell’uomo e di poter fornire informazioni su emozioni ed esperienze umane.
Rispondendo a domande più specifiche, l’avatar cardiologa ha detto che l’Intelligenza Artificiale sta rapidamente rivoluzionando la medicina, indicando moltissimi campi di applicazione. Per quanto riguarda la cardiologia, Susan-Gpt-4 ha indicato settori specifici per i quali entro 5 anni nulla sarà come prima. Tra questi l’analisi dell’elettrocardiogramma, dove l’AI si è già dimostrata molto superiore all’uomo, l’analisi delle immagini diagnostiche come Tac, risonanza magnetica ed ecocardiogramma, l’ottimizzazione delle procedure interventistiche, quali l’ablazione della aritmie e l’impianto della valvola aortica ed anche la predizione del rischio nel singolo paziente.
Proprio in questo ultimo ambito peraltro, la Cardiologia dell’Ospedale Molinette di Torino ha, prima al mondo, sviluppato un punteggio per il rischio dopo infarto, proprio utilizzando la IA.
Susan ha anche sostenuto con forza la necessità che l’AI venga rapidamente inserita tra gli insegnamenti che si impartiscono agli studenti di Medicina ed ai neo-laureati che frequentano una scuola di specializzazione, segnalando come questi medici si troveranno ad operare in un sistema dove gli algoritmi di AI saranno utilizzati in ogni processo diagnostico ed operativo, ma con il rischio di non aver ricevuto alcuna educazione per capire le potenzialità e i limiti di questo approccio rivoluzionario, se non adeguatamente formati.
Nel corso del suo intervento Susan-Gpt-4 ha chiarito che in ogni ambito medico non potremo mai più fare a meno dell’AI, vigilando sulla correttezza del suo utilizzo e che l’uomo, in particolare il dottore empatico, che prova emozioni e le comunica al paziente ed allo studente, sarà sempre necessario sia per curare i malati che per insegnare ai giovani.
Seguiamo l’intervento:

Il Giappone ha passato l’8 novembre all’Italia la Presidenza del G7 (che ha durata annuale e ruota tra i paesi membri in base alla sequenza Stati Uniti, Regno Unito, Germania, Giappone, Italia, Canada, Francia): tra le attività già annunciate dall’Italia ci sarà una conferenza sul rapporto tra Intelligenza Artificiale e lavoro.
Una materia, quella dell’AI “sulla quale dobbiamo coinvolgere gli attori privati, perché costruire una governance dell’intelligenza artificiale non vuol dire lavorare contro le aziende, ma dialogare col mondo privato in un mondo in cui gli interessi pubblici e privati, entrambi legittimi, non sono sempre sovrapponibili e a volte sono in contrasto” il commento del presidente del Consiglio Giorgia Meloni al Comitato per la Transizione digitale a Palazzo Chigi.
“Noi dobbiamo evitare” continua la Meloni “che aumenti il divario tra i ricchi e i poveri, che scompaia la classe media e che in definitiva l’impatto dell’intelligenza artificiale sia più negativo che positivo sulle nostre vite e sulle nostre società”.
Tra le priorità indicate dal presidente del Consiglio, quella di fare in modo che l’IA sia incentrata sull’uomo e controllata dall’uomo, lavorando “per garantire delle barriere etiche all’Intelligenza artificiale e dare applicazione pratica al concetto di algoretica, ovvero dare un’etica agli algoritmi” che ha chiuso ringraziando su questo punto Padre Paolo Benanti, docente all’Università Gregoriana, che è stato recentemente nominato dal Segretario Generale delle Nazioni Unite, unico italiano, come membro del Comitato di esperti sull’Intelligenza Artificiale.
Il G7 2024 si svolgerà dal 13 al 15 giugno in Puglia, nella Valle d’Itria, a Borgo Egnazia.