Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Tag: intelligenza artificiale Pagina 5 di 8

Impara a programmare in Python gratis: 15 corsi essenziali per avvicinarti all’Intelligenza Artificiale

L’interesse per l’Intelligenza Artificiale e le sue applicazioni pratiche sta crescendo sempre di più. Se sei un appassionato di questo campo in continua evoluzione e desideri imparare a programmare in Python, sei nel posto giusto.

Python è diventato il linguaggio di programmazione preferito per molti sviluppatori di AI grazie alla sua sintassi semplice, alla flessibilità e alla vasta gamma di librerie specializzate. Se sei nuovo nel mondo della programmazione o se hai già esperienza e desideri approfondire le tue conoscenze, esistono numerosi corsi online gratuiti che possono aiutarti a padroneggiare Python e avviarti nel campo dell’AI.

In questo articolo, ti presenteremo una lista di 15 corsi online gratuiti di Python che coprono una vasta gamma di argomenti, dal linguaggio di base alle applicazioni pratiche nell’ambito dell’intelligenza artificiale. Che tu sia uno studente, un professionista o semplicemente un appassionato, c’è un corso adatto a te.

Continua a leggere per scoprire i migliori corsi gratuiti disponibili online.

1 .𝗣𝘆𝘁𝗵𝗼𝗻 𝗳𝗼𝗿 𝗗𝗮𝘁𝗮 𝗦𝗰𝗶𝗲𝗻𝗰𝗲 con 𝗜𝗕𝗠 https://cognitiveclass.ai/courses/python-for-data-science…

2. 𝗜𝗻𝘁𝗿𝗼𝗱𝘂𝗰𝘁𝗶𝗼𝗻 𝘁𝗼 𝗣𝘆𝘁𝗵𝗼𝗻 𝗣𝗿𝗼𝗴𝗿𝗮𝗺𝗺𝗶𝗻𝗴 con 𝗨𝗱𝗮𝗰𝗶𝘁𝘆 https://imp.i115008.net/MmW5nY

3. 𝗟𝗲𝗮𝗿𝗻 𝗣𝘆𝘁𝗵𝗼𝗻 𝗯𝗮𝘀𝗶𝗰𝘀 con Data Camp https://learnpython.org

4. 𝗟𝗲𝗮𝗿𝗻 𝗣𝘆𝘁𝗵𝗼𝗻 – 𝗙𝘂𝗹𝗹 𝗖𝗼𝘂𝗿𝘀𝗲 𝗳𝗼𝗿 𝗕𝗲𝗴𝗶𝗻𝗻𝗲𝗿𝘀 con 𝗲𝗖𝗼𝗱𝗲𝗖𝗮𝗺𝗽 https://youtube.com/playlist?list=PLWKjhJtqVAbnqBxcdjVGgT3uVR10bzTEB…

5. Machine Learning with Python con IBM by Coursera https://imp.i384100.net/eKJOOZ

6. Python for Beginners con Udemy https://udemy.com/course/python-for-complete-beginners-1/…

7. Learn Python for Total Beginners con Udemy https://udemy.com/course/python-3-for-total-beginners/v…

8. Python for Data Science, AI & Development con IBM by Coursera https://imp.i384100.net/5gmXXo

9. Python for Everybody con University of Michigan by Coursera https://imp.i384100.net/oqWMgY

10. Crash Course on Python con Google by Coursera https://imp.i384100.net/QyzVe6

11. Google IT Automation with Python con Google by Coursera https://imp.i384100.net/Gmorq2

12. Python 3 Programming Specialization con University of Michigan by Coursera https://imp.i384100.net/m53qey

13. Get Started with Python con Google by Coursera https://imp.i384100.net/q4391q

14. Programming in Python con Meta con University of Michigan by Courserahttps://imp.i384100.net/DKgG5G

15. Data Analysis with Python con IBM by Coursera https://imp.i384100.net/jrDMMb


Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta! ✉

[newsletter_form type=”minimal”]

Il Dipartimento di Giustizia Usa nomina l’ex consigliere di Kamala Harris come nuovo capo dell’Intelligenza Artificiale

Il Dipartimento di Giustizia degli Stati Uniti ha nominato il suo primo funzionario in assoluto dedicato all’Intelligenza Artificiale (AI), in previsione dell’impatto che questa tecnologia in rapida evoluzione avrà sul sistema della giustizia penale. 

La scelta è caduta su Jonathan Mayer, assistant professior all’Università di Princeton, dove ricopre incarichi presso il Dipartimento di Informatica e la Princeton School of Public and International Affairs. Prima di entrare a far parte della facoltà di Princeton, ha ricoperto il ruolo di consigliere tecnologico della senatrice Kamala Harris e Chief Technology Officer presso la FCC, la Commissione Federale delle Comunicazioni.

Il Dipartimento di Giustizia deve tenere il passo con la rapida evoluzione degli sviluppi scientifici e tecnologici al fine di compiere la nostra missione di sostenere lo stato di diritto, mantenere il nostro Paese sicuro e proteggere i diritti civili“, ha affermato in una nota il procuratore generale degli Stati Uniti Merrick Garland a valle della nomina.

Nel suo nuovo ruolo, che è quello di Capo consulente scientifico e tecnologico del Dipartimento di Giustizia e il Capo dell’Intelligenza Artificiale dovrebbe consigliare Garland e gli altri direttori del Dipartimento di Giustizia su questioni relative alle tecnologie emergenti, compreso il tema su come integrare responsabilmente l’Intelligenza Artificiale nelle indagini e nei procedimenti penali del dipartimento. 

Secondo l’agenzia di stampa Reuters, Mayer guiderà un comitato appena formato di forze dell’ordine e funzionari per i diritti civili che consiglierà Garland e altri al Dipartimento di Giustizia sull’etica e l’efficacia dei sistemi di intelligenza artificiale, cercando anche di reclutare più esperti tecnologici nel dipartimento.

I funzionari statunitensi hanno valutato come bilanciare al meglio i benefici dell’intelligenza artificiale, minimizzando al tempo stesso i pericoli di una tecnologia poco regolamentata e in rapida espansione. 

Secondo il vice procuratore generale degli Stati Uniti, Lisa Monaco, il Dipartimento di Giustizia ha già utilizzato l’intelligenza artificiale per il contrasto ad alcune attività illecite, nello specifico legate al commercio di sostanza stupefacenti, ma occorre ponderarne bene l’uso perché sebbene abbia “il potenziale per essere uno strumento indispensabile per aiutare a identificare, contrastare e scoraggiare criminali e terroristi”, il suo uso comporta anche dei rischi tra cui quello di “amplificare i pregiudizi esistenti e le pratiche discriminatorie“.

Lasciata senza guardrail” continua Monaco, “l’intelligenza artificiale pone sfide immense alle democrazie di tutto il mondo. Quindi, siamo a un punto di svolta con l’intelligenza artificiale. Dobbiamo muoverci rapidamente per identificare, sfruttare e governare i suoi usi positivi, adottando misure per minimizzarne i rischi”, commentando così l’istituzione del nuovo ufficio dedicato all’AI all’interno del Dipartimento di Giustizia.


Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta! 

[newsletter_form type=”minimal”]

GPT non è un marchio ma solo un termine descrittivo secondo l’Ufficio Marchi e Brevetti degli Stati Uniti

L’Ufficio Marchi e Brevetti degli Stati Uniti (USPTO) ha respinto la domanda di OpenAI di registrare il marchio “GPT”. Il rifiuto si basa sul fatto che GPT descrive semplicemente le caratteristiche, le funzioni e le peculiarità dei prodotti e dei servizi di OpenAI.

Secondo l’USPTO, GPT è semplicemente l’abbreviazione di “Generative Pre-trained Transformer“, che sono modelli di rete neurale che forniscono applicazioni con la capacità i creare testo e contenuti simili a quelli umani e rispondere alle domande in modo colloquiale.

Una brutta notizia per OpenAI che da quando ha lanciato il suo chatbot ChatGPT nel novembre 2022 – suscitando l’interesse del mondo per la tecnologia e dando il via a una vera e propria corsa all’Intelligenza Artificiale generativa – ha sempre tentato di impedire alle altre aziende di poter utilizzare l’acronimo “GPT”. I legali di OpenAI infatti nel portare avanti la richiesta hanno più volte affermato che se si chiedesse a un campione di persone cosa significa GPT, è altamente improbabile che molti saprebbero rispondere dicendo che sta per ‘Generative Pre-trained Transformer’.

Tuttavia l’Ufficio Marchi e Brevetti ha respinto tale tesi ribadendo, nella sua decisione, che invece molti consumatori hanno chiaramente associato “GPT” a determinati prodotti e tecnologie. “Il fatto che i consumatori possano non conoscere le parole che stanno alla base dell’acronimo non altera il fatto che gli acquirenti siano abituati a riconoscere che il termine “GPT” è comunemente usato in relazione al software per identificare un particolare tipo di software dotato di questa tecnologia di domanda e risposta dell’intelligenza artificiale“, ha scritto l’USPTO nelle sue note di commento a valle della decisione, precisando di aver respinto la petizione di OpenAI per evitare che l’azienda soffochi la concorrenza nel suo settore e che possa intentare costose cause per violazione del marchio.

Le aziende e i concorrenti devono essere liberi di usare un linguaggio descrittivo quando descrivono i propri beni e/o servizi al pubblico nella pubblicità e nei materiali di marketing“, ha concluso l’Ufficio Marchi e Brevetti in merito alla faccenda.

Per la cronaca, questa di febbraio 2024 é la seconda volta che l’agenzia nega la richiesta di OpenAI, inviata nel dicembre 2022, di registrare un marchio per “GPT”. In precedenza, l’USPTO aveva respinto la richiesta dell’azienda nel maggio 2023.


Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta! 

[newsletter_form type=”minimal”]

Assistenti virtuali e Chatbot: la nuova frontiera dell’interazione online

L’affermarsi sempre più prepotente del digitale nei primi anni dieci del duemila, ha inaugurato una nuova era della comunicazione, all’interno della quale, l’interazione online è diventata parte integrante della nostra vita quotidiana. Questo cambiamento nei modelli di comunicazione ha dato origine allo sviluppo di tecnologie avanzate progettate per facilitare e migliorare l’esperienza degli utenti come i chatbot e gli assistenti virtuali.

I chatbot e gli assistenti virtuali sono applicazioni software avanzate progettate per interagire con gli utenti in modo conversazionale. Mentre i chatbot operano tipicamente all’interno di un’applicazione o di una piattaforma specifica, come può essere il sito di un’azienda, gli assistenti virtuali possono essere integrati in vari dispositivi, tra cui smartphone, smart speaker e personal computer, come lo sono Alexa, Siri e Cortana ad esempio.

Entrambe le tecnologie sfruttano l’elaborazione del linguaggio naturale (NLP) e gli algoritmi di apprendimento automatico per comprendere le richieste degli utenti, consentendo loro di fornire risposte personalizzate e pertinenti al contesto.

I chatbot sono utilizzati principalmente per automatizzare attività di routine, come rispondere alle domande più frequenti, guidare gli utenti attraverso un sito web o completare transazioni. Possono essere programmati per gestire un’ampia gamma di richieste, dall’assistenza clienti di base a quelle più complesse, come la prenotazione di una camera d’albergo o l’ordinazione di cibo. Gli assistenti virtuali, invece, offrono una serie di funzioni più complete, tra cui la possibilità di gestire calendari, impostare promemoria, inviare messaggi ed effettuare telefonate. Possono anche controllare dispositivi domestici intelligenti, riprodurre musica e fornire informazioni in tempo reale, come aggiornamenti sulle notizie e previsioni meteo.

Vantaggi e benefici

L’implementazione di chatbot e assistenti virtuali offre un certo numero di vantaggi sia per le aziende che per gli utenti. Per le aziende, queste tecnologie possono contribuire a ridurre i costi dell’assistenza clienti, ad aumentare l’efficienza operativa e a fornire una disponibilità 24 ore su 24, 7 giorni su 7, con un impatto incredibile in termini di gestione e ottimizzazione delle risorse umane. Possono, inoltre, raccogliere dati sugli utenti, consentendo alle aziende di conoscere le preferenze e i comportamenti non solo dei clienti acquisiti ma anche degli eventuali prospect, che possono essere utilizzati per strutturare e ottimizzare sia le strategie di marketing che lo sviluppo dei prodotti.

Per i clienti finali, i chatbot e gli assistenti virtuali possono rappresentare una comodità, ad esempio facendo risparmiare tempo e fatica nella gestione automatizzata di compiti ripetitivi, fornendo risposte rapide e accurate e offrendo suggerimenti contestualmente pertinenti a quanto richiesto, ad esempio il suggerimento di un percorso con meno traffico. Inoltre, possono aiutare gli utenti a navigare in siti web e applicazioni complesse, rendendo più facile trovare le informazioni o i servizi di cui hanno bisogno.

Potenziali svantaggi e sfide

Sebbene, come abbiamo visto, i chatbot e gli assistenti virtuali possano offrire dei vantaggi dal loro utilizzo, vi è anche il caso che possibili interpretazioni errate dei task possano generare insoddisfazione negli utenti creando quindi da un punto di vista della curtomer relation uno svantaggio anziché un vantaggio. La dipendenza dagli algoritmi di NLP e di apprendimento automatico inoltre, fa sì che queste tecnologie possano, in alcuni casi, faticare a comprendere richieste complesse, in particolare quando si ha a che fare con un linguaggio colloquiale o con dialetti regionali. C’è poi un problema legato alla privacy: poiché i chatbot e gli assistenti virtuali spesso richiedono l’accesso a informazioni sensibili degli utenti, c’è il rischio che questi dati possano essere compromessi o utilizzati in modo improprio.

È indubbio comunque che chatbot e gli assistenti virtuali abbiano già rivoluzionato il modo in cui interagiamo online: automatizzando le attività di routine, fornendo esperienze personalizzate agli utenti e offrendo suggerimenti contestualmente rilevanti, queste tecnologie hanno trasformato la cosidetta customer journey. Anche se, come abbiamo visto, le sfide rimangono, il continuo sviluppo e il perfezionamento delle tecniche di elaborazione del linguaggio naturale (NLP) e di apprendimento automatico promettono di risolvere molti di questi problemi, aprendo la strada a esperienze di chatbot e assistenti virtuali ancora più sofisticate e intuitive in futuro.


Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Stability AI annuncia l’arrivo di Stable Diffusion 3, una nuova generazione di AI per la creazione di immagini

Stability AI ha annunciato il lancio di  Stable Diffusion 3, l’ultima versione del suo modello AI per la generazione di immagini.

Stability AI ha affermato che il nuovo modello, che non è ancora ampiamente disponibile, migliora la qualità dell’immagine, funziona meglio con istruzioni contenenti più argomenti e può inserire testo più accurato come parte dell’immagine generata. L’aspetto tipografico è sempre stato il tallone d’achille non solo dei precedenti modelli di Stable Diffusion ma anche dei rivali come DALL-E 3  e Midjourney che hanno lavorato proprio su questo aspetto nelle loro versioni più recenti.

L’annuncio arriva pochi giorni dopo che il più grande rivale di Stability AI, OpenAI, ha presentato Sora , un nuovissimo modello di intelligenza artificiale in grado di generare video quasi realistici e ad alta definizione da semplici istruzioni di testo.

Non è chiaro quando Stable Diffusion 3 verrà rilasciato al pubblico, ma fino ad allora chiunque sia interessato può iscriversi a una lista d’attesa 

Prompt: “Night photo of a sports car with the text “SD3” on the side, the car is on a race track at high speed, a huge road sign with the text “faster”. Made with SD3. Credits: @andrekerygma
Prompt: “A horse balancing on top of a colorful ball in a field with green grass and a mountain in the background”. Made with SD3. Credits: @andrekerygma
Prompt: “Studio photograph closeup of a chameleon over a black background”. Made with SD3: Credits: @StabilityAI

Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Adobe lancia CAVA per rivoluzionare il video editing e l’animazione dopo il debutto di Sora di OpenAI

Adobe risponde ad OpenAI. Subito dopo il lancio di Sora, il nuovo modello AI per il video editing della società guidata da Sam Altman, la software house di San José ha creato una nuova organizzazione di ricerca sull’Intelligenza Artificiale composta da 50 persone, chiamata CAVA (Co-Creation for Audio, Video, & Animation).

L’obiettivo è quello di accelerare gli sforzi nella creazione di video e animazioni che fino ad ora sono stati un po’ trascurati rispetto allo sviluppo di strumenti di AI generativa per la creazione di immagini (Firefly, Photoshop Generative Fill ecc.). D’altra parte l’area DI o Digital Imaging di Adobe, responsabile del colosso Photoshop e di strumenti come Lightroom, è quella che contribuisce per la maggior parte alle entrate della società.

Adesso invece il gruppo DVA o Digital Video & Audio, che sviluppa strumenti come Premiere, After Effects e Audition, dovrebbe ricevere più attenzione e risorse, stando almeno alle dichiarazioni di Gautham Mysore, Head of Audio e Video AI Research di Adobe.


Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Nvidia: ricavi record in crescita del 265% grazie al boom dell’Intelligenza Artificiale

Nvidia ha comunicato i risultati del quarto trimestre fiscale battendo di gran lunga le previsioni di Wall Street per quanto riguarda utili e vendite: 22,10 miliardi di dollari di ricavi contro i 20,62 miliardi di dollari previsti dagli analisti e un utile per azione di 5,16 dollari rispetto ai 4,64 dollari attesi.

Nvidia, che ha beneficiato del recente boom del settore tecnologico per i grandi modelli di Intelligenza Artificiale che vengono sviluppati sui costosi processori grafici per server dell’azienda e che l’ha portata a superare Alphabet e Amazon in termini di capitalizzazione di borsa, ha messo a tacere anche i timori degli investitori sulla sua capacità di continuare a mantenere questi livelli di crescita anche per il prossimo anno, dichiarando, per bocca del suo amministratore delegato, Jensen Huang, che la domanda di GPU dell’azienda rimarrà elevata grazie all’Intelligenza Artificiale generativa e al passaggio, in tutto il settore, dai processori tradizionali a quelli ad alte prestazioni prodotti da Nvidia.

Nel complesso, il fatturato totale di Nvidia è aumentato del 265% rispetto a un anno fa, grazie alle forti vendite di chip AI per server, in particolare i chip “Hopper” dell’azienda, come l’H100, con la domanda trainata dal software aziendale e dalle applicazioni Internet per i consumatori, oltre che da diversi settori verticali, tra cui l’automotive, i servizi finanziari e la sanità.

Nonostante il rallentamento delle vendite in Cina dovuto alle restrizioni all’export imposte dal governo degli Stati Uniti per paura che i chip AI di Nvidia possano essere utilizzati per scopi militari, la società ha dichiarato di prevedere un fatturato per il trimestre in corso di 24,0 miliardi di dollari, superiore ai 22,17 miliardi di dollari attesi dagli analisti.

Il contenuto del presente articolo deve intendersi solo a scopo informativo e non costituisce una consulenza professionale. Le informazioni fornite sono ritenute accurate, ma possono contenere errori o imprecisioni e non possono essere prese in considerazione per eventuali investimenti personali.

Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Air Canada: quando il chatbot combina un guaio

Ad Air Canada è stato ordinato di rimborsare un passeggero a cui era stata erroneamente promessa una tariffa più economica dal chatbot AI della compagnia aerea. Siamo davanti ad una possibile decisione storica perché sempre più aziende si rivolgono all’Intelligenza Artificiale per la gestione del servizio clienti.

La storia è questa: Jack Moffat, residente a Vancouver, aveva chiesto al chatbot di supporto della compagnia aerea se offriva tariffe per il lutto per un viaggio che avrebbe dovuto fare a seguito alla morte di sua nonna nel novembre 2022. Il chatbot ha risposto dicendo che avrebbe potuto richiedere una tariffa scontata per lutto fino a 90 giorni dopo il volo presentando una semplice richiesta.

L’effettiva politica della compagnia aerea in casi come questo invece prevede che si, vi sia una tariffa scontata, ma che questa debba essere accordata e approvata prima del viaggio e dell’emissione del biglietto, non dopo. Così quando mr. Moffat inoltrò richiesta di rimborso ad Air Canada per il volo Vancouver-Toronto per il funerale della nonna la compagnia rispose che non era possibile e che il chatbot si era sbagliato.

Il passeggero irritato ha quindi intentato una causa contro la compagnia aerea, allegando peraltro anche gli screenshot della sua conversazione con il chatbot, mentre Air Canada, da parte sua, ha risposto che il chatbot era da considerarsi una “entità giuridica separata” dalla compagnia e che quindi responsabile delle sue azioni.

La settimana scorsa l’epilogo della vicenda: un tribunale canadese si è schierato con il passeggero e ha ordinato ad Air Canada di emettere un rimborso di circa 600 dollari. “Sebbene un chatbot abbia una componente interattiva, è comunque solo una parte del sito web di Air Canada. Dovrebbe essere ovvio per Air Canada che è responsabile di tutte le informazioni presenti sul suo sito web“, si legge nelle note del giudizio del tribunale che conclude affermando che per il tema in questione “non fa differenza se le informazioni provengono da una pagina statica o da un chatbot”.

Un portavoce della compagnia ha commentato la vicenda affermando che la compagnia aerea si atterrà alla decisione del tribunale. In ogni caso, al momento in cui scriviamo, il chatbot non è disponibile sul sito di Air Canada.

Reddit firma un accordo di licenza dei contenuti con una società di AI in vista dell’IPO

Se avete pubblicato un post su Reddit, probabilmente state alimentando il futuro dell’Intelligenza Artificiale. Secondo quanto riportato da Bloomberg infatti, Reddit – la piattaforma di social news, intrattenimento e forum – avrebbe firmato un contratto che consente ad una società di AI della quale non è ancora noto il nome (ma che si pensa possa essere OpenAI o anche Google), di addestrare i suoi modelli sui contenuti del sito. La notizia arriva mentre la piattaforma di social media si avvicina al lancio della sua offerta pubblica iniziale (IPO), che potrebbe avvenire già il mese prossimo.

L’accordo dovrebbe avere un valore di 60 milioni di dollari all’anno e potrebbe in teoria servire da modello per futuri accordi con altre società di Intelligenza Artificiale.

Va osservato che, dopo un periodo in cui le aziende di Intelligenza Artificiale utilizzavano i dati di addestramento senza chiedere espressamente l’autorizzazione del titolare dei diritti – un tema che peraltro è ancora aperto con il dibattito tra diritto d’autore e fair use – alcune aziende tecnologiche hanno recentemente iniziato a stipulare accordi in base ai quali acquisiscono l’accesso ai contenuti utilizzati per l’addestramento di modelli di intelligenza artificiale simili a GPT.

Lo scorso mese di dicembre, ad esempio, OpenAI ha firmato un accordo con l’editore tedesco Axel Springer (l’editore di Politico e Business Insider) per l’accesso ai suoi articoli. Sempre OpenAI, che peraltro ha stretto accordi anche con altre organizzazioni, inclusa l’Associated Press, non è riuscita invece a ad accordarsi con il New York Times che ha promosso una causa nei suoi confronti per violazione del diritto d’autore.


Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta! ✉

[newsletter_form type=”minimal”]

Softbank: 100 miliardi di dollari per costruire chip per l’AI e fare concorrenza a Nvidia

Masayoshi Son, il fondatore di SoftBank Group Corp. una delle holding giapponesi più importanti al mondo e specializzata nell’investimento in capitale di rischio, ha intenzione di raccogliere fino a 100 miliardi di dollari per finanziare un’impresa di chip in grado di competere con Nvidia Corp. e fornire semiconduttori essenziali per l’Intelligenza Artificiale.

Lo riporta Bloomberg, secondo cui il progetto, con il nome in codice di Izanagi – il dio giapponese della creazione e della vita – mira a creare una società che possa integrare al suo interno l’unità di progettazione di chip Arm Holdings (società controllata sempre da SoftBank e specializzata nel settore dei semiconduttori) e nel quale SoftBank investirebbe 30 miliardi di dollari, mentre 70 miliardi di dollari arriverebbero da investitori istituzioni del Medio Oriente.

Se avrà successo, questo progetto rappresenterà uno dei maggiori investimenti nell’ambito dell’intelligenza artificiale dall’avvento di ChatGPT, superando di gran lunga l’investimento di oltre 10 miliardi di dollari di Microsoft Corp. in OpenAI.

I dettagli su come il progetto sarà finanziato o le modalità con le quali verranno investiti i finanziamenti non sono ancora stati definiti. Quello che è noto al momento è che Son sta valutando diverse idee e strategie di investimento per rafforzare la presenza di Arm nel mercato dei chip dell’Intelligenza Artificiale, al momento dominata da Nvidia, ed esplorando la possibilità di realizzare processori di prossima generazione.

Sora vs DALL-E: generatore di video e di immagini a confronto

Uno degli argomenti mainstream in queste ore è indubbiamente il nuovo modello di AI generativa Sora, appena lanciato da OpenAI. Siccome il suo funzionamento è molto simile allo strumento AI di generazione di immagini DALL-E sempre realizzato da OpenAI, qualcuno ha voluto mettere a confronto i due sistemi per vedere che tipo di output restituissero.

La sfida è semplice: lo stesso prompt di testo utilizzato per creare uno dei video ad alta definizione prodotti da Sora in questa fase di test viene utilizzato per capire quale risultato mostrerà DALL-E.

Di seguito alcune simulazioni:

Scopri di più sulla nostra politica di embedding.

Alla scoperta di Sora, il nuovo generatore di video di OpenAI

Sora è il nuovo generatore di text-to-video di OpenAI. Lo strumento, presentato giovedì scorso dall’azienda con sede a San Francisco, utilizza l’intelligenza artificiale generativa per creare istantaneamente brevi video basati su comandi scritti.

Sora non è il primo a lanciare questo tipo di tecnologia, dove sono già presenti realtà come Runway, Stable Video Diffusion, Pika e più recentemente Google con Lumiere. Tuttavia se andiamo ad analizzare i commenti dei vari esperti del settore rileviamo che sono tutti unanimi nel sottolineare l’alta qualità dei video realizzati finora e che l’introduzione di questa nuova App segni un passo avanti significativo sia per OpenAI che per il futuro della generazione di testo in video in generale.

Nel dettaglio Sora è un generatore di testo in video che crea video lunghi fino a 60 secondi in base a istruzioni scritte utilizzando l’Intelligenza Artificiale generativa. Il modello può anche generare video da un’immagine fissa esistente, tuttavia non è ancora disponibile per l’uso pubblico (OpenAI afferma che sta collaborando con politici e artisti prima di rilasciare ufficialmente lo strumento) e ci sono ancora molte cose che non sappiamo. Ma dall’annuncio di giovedì, la società ha condiviso una serie di esempi di video generati da Sora per mostrare cosa può fare e i risultati sembrano davvero impressionanti.

Prompt: “A stylish woman walks down a Tokyo street filled with warm glowing neon and animated city signage. She wears a black leather jacket, a long red dress, and black boots, and carries a black purse. She wears sunglasses and red lipstick. She walks confidently and casually. The street is damp and reflective, creating a mirror effect of the colorful lights. Many pedestrians walk about”.
Prompt: “several giant wooly mammoths approach treading through a snowy meadow, their long wooly fur lightly blows in the wind as they walk, snow covered trees and dramatic snow capped mountains in the distance, mid afternoon light with wispy clouds and a sun high in the distance creates a warm glow, the low camera view is stunning capturing the large furry mammal with beautiful photography, depth of field.”
Prompt: “animated scene features a close-up of a short fluffy monster kneeling beside a melting red candle. the art style is 3d and realistic, with a focus on lighting and texture. the mood of the painting is one of wonder and curiosity, as the monster gazes at the flame with wide eyes and open mouth. its pose and expression convey a sense of innocence and playfulness, as if it is exploring the world around it for the first time. the use of warm colors and dramatic lighting further enhances the cozy atmosphere of the image”.
Prompt: “historical footage of California during the gold rush”.
Prompt: “the camera directly faces colorful buildings in burano italy. An adorable dalmation looks through a window on a building on the ground floor. Many people are walking and cycling along the canal streets in front of the buildings”.
Prompt: “an extreme close-up of an gray-haired man with a beard in his 60s, he is deep in thought pondering the history of the universe as he sits at a cafe in Paris, his eyes focus on people offscreen as they walk as he sits mostly motionless, he is dressed in a wool coat suit coat with a button-down shirt , he wears a brown beret and glasses and has a very professorial appearance, and the end he offers a subtle closed-mouth smile as if he found the answer to the mystery of life, the lighting is very cinematic with the golden light and the Parisian streets and city in the background, depth of field, cinematic 35mm film”.

Contestualmente al rilascio, OpenAI ha dichiarato di essere consapevole che Sora potrebbe essere usata per produrre deepfake e disinformazione, specificando che l’azienda sta lavorando con i cosidetti “red teamer” esperti in aree come disinformazione, contenuti che incitano all’odio e pregiudizi, che testeranno il modello in modo contraddittorio, al fine di rilevare eventuali possibilità di rilevare contenuti fuorvianti. Immaginiamo quindi che non sarà possibile creare contenuti violenti o pornografici, né tantomeno riprodurre le fattezze di persone reali o lo stile di artisti famosi, come peraltro già succede per il suo generatore di immagini, Dall-E.

In ogni caso questo ulteriore passaggio evolutivo dell’AI generativa pone in capo a OpenAI una ulteriore responsabilità, non solo sul più vasto tema delle fake news che è possibile generare grazie a questi modelli ma anche dal punto di vista di eventuali problemi legati al diritto d’autore dei dati di addestramento per i quali OpenAI è già stata citata in giudizio da attori come il New York Times.

Nvidia vale più di Alphabet e di Amazon grazie al boom dei chip AI

Nvidia continua la sua irresistibile ascesa in Borsa. L’azienda californiana di semiconduttori, protagonista indiscussa dei processori di intelligenza artificiale, ha raggiunto un nuovo traguardo ieri, 14 febbraio, superando Alphabet in termini di capitalizzazione di mercato, appena un giorno dopo aver superato Amazon. 

Bloomberg riporta che le azioni del produttore di chip valgono ora 1,83 trilioni di dollari , battendo, anche se di poco, la capitalizzazione di mercato di 1,82 dollari della holding a cui fa capo Google. Tutto ciò rende Nvidia la quarta azienda con maggiore capitalizzazione al mondo dopo Microsoft (3,04 trilioni di dollari), Apple (2,84 trilioni di dollari) e Saudi Aramco.

La quotazione di Nvidia è il segno di quanto sia forte la domanda di chip in grado di gestire l’intelligenza artificiale all’avanguardia, nonché dell’interesse degli investitori per le aziende che producono semiconduttori.

fabio ricceri

Le azioni di Nvidia sono aumentate di oltre il 246% negli ultimi 12 mesi a causa della forte domanda per i suoi chip AI per server che possono costare più di 20 mila dollari ciascuno, che aziende come Microsoft, OpenAI e Meta acquistano a migliaia per prodotti come ChatGPT e Copilot. Motivo per cui l’azienda si sta affermando come attore chiave nella rivoluzione dell’Intelligenza Artificiale generativa, anche se progetta semplicemente i suoi chip che poi vengono prodotti da realtà come TSMC a Taiwan e Samsung in Corea del Sud.

Più in generale, si prevede che il mercato dei chip AI esploderà nei prossimi dieci anni, passando da 29 miliardi di dollari nel 2023 a quasi 260 miliardi di dollari nel 2033, con un aumento di quasi nove volte il valore dello scorso anno.

Regole e rischi dell’Intelligenza Artificiale: ratificato in Commissione il progetto di legge EU AI Act

Questa mattina, le Commissioni per le libertà civili (LIBE) e il mercato interno (IMCO) del Parlamento Europeo hanno votato a favore del progetto di legge che definisce un quadro basato sul rischio per regolare le applicazioni dell’Intelligenza Artificiale, noto come EU AI Act.

Nella votazione di questa mattina le Commissioni hanno votato con 71 voti favorevoli, 8 contrari e 7 astensioni a favore del compromesso negoziato con gli Stati membri dell’UE a dicembre 2023.  

L’EU AI Act, che stabilisce regole per gli sviluppatori di IA in base alla potenza dei loro modelli e allo scopo per il quale intendono applicare i sistemi di AI, comprende un elenco di usi vietati dell’Intelligenza Artificiale e regole per usi ad alto rischio come istruzione, sanità, lavoro oltre ad imporre requisiti di trasparenza e a definire regole chiare per l’utilizzo di strumenti come deepfake e chatbot basati sull’AI.

Questo importante passo verso la regolamentazione dell’AI in Europa mira a garantire che la tecnologia rispetti i diritti fondamentali e promuova l’innovazione, posizionando il vecchio continente come leader nel settore.

D’altra parte, la legislazione europea è vista come un punto di riferimento globale e si concentra sulla protezione dei diritti fondamentali, sulla promozione dell’innovazione e sulla gestione dei rischi associati all’utilizzo dell’AI. Una volta adottata, la legge avrà un impatto significativo su diversi settori, inclusi banche, automobili, prodotti elettronici, compagnie aeree, sicurezza e polizia, contribuendo a mitigare rischi come la disinformazione, la discriminazione e l’utilizzo non concordato e trasparente dei dati personali dei cittadini europei con algoritmi di profilazione e scoring sociale.

Il prossimo passaggio, come commentato da Eva Maydell, eurodeputata membro della Commissione per l’industria, la ricerca e l’energia, è il voto in plenaria da parte del Parlamento UE, dove ai deputati verrà chiesto di adottarlo formalmente, prima dell’approvazione finale da parte del Consiglio.

Da Google 25 milioni di euro per colmare lo skill shortage sull’AI in Europa

Google ha annunciato l’intenzione di lanciare un fondo di sostegno di 25 milioni di euro per aiutare a sostenere la formazione dei cittadini europei nel campo dell’Intelligenza Artificiale (AI).

L’iniziativa AI Opportunity Initiative for Europe ha l’obiettivo di contribuire a fornire formazione affinché le persone possano cogliere le opportunità offerte da questo settore in un momento in cui l’area economica europea sarà l’apripista nello sfruttamento dell’Intelligenza Artificiale per motivi commerciali.

L’azienda di Mountain View ha dichiarato che sta lavorando a questa iniziativa insieme ai governi dell’Unione Europea, alla società civile, al mondo accademico e alle imprese per fornire una formazione avanzata sull’intelligenza artificiale alle startup locali, con particolare attenzione alle comunità vulnerabili.

Circa 10 milioni di euro saranno destinati a fornire ai lavoratori le competenze necessarie per evitare di rimanere indietro e nelle intenzioni del gigante della tecnologia c’è la volontà di bissare un’analoga iniziativa di successo lanciata nel 2015, denominata Grow with Google, che offriva formazione gratuita per contribuire a colmare il divario di competenze digitali nell’UE.

Sorveglianza AI nella metropolitana di Londra: cosa rivela il nuovo studio di Wired

Migliaia di persone che utilizzano la metropolitana di Londra sono state sorvegliate da un software di Intelligenza Artificiale (AI) progettato per individuare comportamenti criminali o situazioni pericolose. È quanto riportato da una inchiesta di Wired secondo cui il software di riconoscimento automatico è stato combinato con le immagini delle telecamere a circuito chiuso per poter rilevare comportamenti aggressivi, l’eventuale presenza di persone armate all’interno della metro, passeggeri che saltano i tornelli per non pagare il biglietto o, in casi più estremi, eventuali cadute sui binari.

Dal 2022 fino alla fine del 2023, il Transport for London (TfL), la società che gestisce la metropolitana e i bus della città, ha testato 11 algoritmi per monitorare le persone che passano dalla stazione della metropolitana di Willesden Green, nel nord-ovest della città. Si tratta del primo test in cui sono state combinate le immagini video in tempo reale con tool di Intelligenza Artificiale per generare avvisi inviati al personale delle metropolitana addetto ai controlli. Durante la fase di test sono stati emessi più di 44.000 avvisi, di cui 19.000 consegnati al personale della stazione in tempo reale.

I documenti di cui Wired riferisce di essere in possesso dettagliano come TfL abbia utilizzato una vasta gamma di algoritmi di visione artificiale per monitorare il comportamento delle persone nella stazione, concentrandosi non solo su temi legati alla sicurezza, ma anche su possibili comportamenti criminali e antisociali.

Gli stessi documenti evidenzierebbero poi anche errori del sistema durante il test, come l’errata segnalazione dei bambini accompagnati dai genitori come evasori del biglietto.

Sempre secondo Wired, gli esperti in materia di privacy che hanno esaminato i documenti avrebbero messo in dubbio l’accuratezza degli algoritmi di riconoscimento degli oggetti e avvertito che sistemi di sorveglianza simili potrebbero facilmente essere ampliati in futuro per includere sistemi di riconoscimento facciale.

Anche se TfL non ha finora risposto alla richiesta di commenti da parte di Wired, sembrerebbe che il test abbia generato preoccupazioni riguardo alla governance e alla trasparenza nell’uso delle tecnologie di controllo, sorveglianza e di riconoscimento facciale supportate dall’AI, per le quali sarebbe necessario comunque un adeguato supporto normativo che sia in grado di stabilire i limiti entro i quali questi tool possono essere utilizzati.

Da questo punto di vista infatti è fondamentale bilanciare attentamente i rischi e i benefici dell’impiego dei tool di Intelligenza Artificiale nei sistemi di controllo e sorveglianza perché, se da un lato possono contribuire alla sicurezza dei cittadini prevenendo atti criminali o terroristici, dall’altro è imprescindibile garantire la tutela della privacy individuale e un uso etico dei dati dei cittadini.

Illegali negli Usa le chiamate robotizzate con voci generate dall’AI

La FCC americana, la Commissione federale per le comunicazioni ha appena messo fuori legge le robocall, ovvero le chiamate robotizzate che contengono voci generate dall’Intelligenza Artificiale,  ai sensi del Telephone Consumer Protection Act, una legge del 1991 che limita limita l’uso di messaggi vocali artificiali o preregistrati a meno che non abbiano il consenso del destinatario della telefonata. La legge è stata approvata 30 anni fa per cercare di limitare i robocall, ma non si applica alle chiamate che non sono fatte per scopi commerciali. Nella decisione di oggi la FCC ha stabilito che rientra nel divieto anche l’uso delle attuali tecnologie di AI che generano voci umane.

L’annuncio arriva a poche settimane di distanza da una serie di telefonate automatizzate che hanno preso di mira gli elettori del New Hampshire, nelle quali una voce che simulava quella del Presidente degli Stati Uniti Joe Biden li invitava a non votare, potendo in questo modo interferire con le elezioni primarie e presidenziali del 2024.

Il regolamento approvato oggi autorizza la FCC a multare con effetto immediato le aziende che utilizzano le voci generate dall’AI nelle loro chiamate e anche a bloccare i fornitori di servizi che le inoltrano. Secondo la FCC, inoltre, questa decisione consentirebbe ai destinatari della chiamata di avere uno strumento per avviare azioni legali e potenzialmente recuperare fino a 1.500 dollari di danni per ogni chiamata indesiderata, e fornirebbe ai Procuratori Generali dei singoli Stati stato un meccanismo legale per intervenire e comminare multe che possono arrivare fino a 23 mila dollari per chiamata.

La presidente dell’agenzia, Jessica Rosenworcel, ha affermato che in questo modo la FCC vuole limitare la minaccia concreta dell’utilizzo di voci generate dall’Intelligenza Artificiale nelle chiamate robotizzate non solo per disinformare gli elettori, ma anche per impersonare celebrità e o di membri della famiglia con lo scopo di truffare o carpire la buona fede dei cittadini.

L’Intelligenza Artificiale legge Epicuro. Decifrati i papiri carbonizzati di Ercolano

Nel 79 d.C. un boato improvviso interruppe lo scorrere quotidiano della vita alle falde del Vesuvio. Una colonna di materiale vulcanico si elevò fino a raggiungere i 14 km di altezza rilasciando una pioggia di lapilli e pomici che, mossa dal vento, iniziò a depositarsi su Pompei e sui vicini centri abitati. Ercolano fu investita dapprima da nubi ardenti con una temperatura di circa 400° che viaggiavano ad una velocità di oltre 80 km orari e poi da colate di fango che seppellirono la città sotto una coltre di circa 20 metri di materiale vulcanico.

A rimanere sepolta fu anche una villa che ospitava al suo interno una grande biblioteca di rotoli di papiro che, grazie alle altissime temperature raggiunte, combinate poi con l’assenza di ossigeno, sono rimasti carbonizzati ma anche preservati dal deterioramento. Scoperti negli scavi del 1752 sono però rimasti illegibili fino ad ora proprio perché impossibili da srotolare senza distruggerli.

Ora invece un team internazionale di ricercatori, grazie all’Intelligenza Artificiale, è riuscito a rivelare parte del contenuto di uno dei papiri un software per srotolare virtualmente i papiri, utilizzando immagini tridimensionali di tomografia computerizzata. Si tratta di Youssef Nader, Luke Farritor e Julian Schilliger, che hanno sfruttato uno strumento chiamato ThaumatoAnakalyptor che permette di rilevare gli strati accartocciati presenti nella scansione 3D del rotolo fatta coi raggi X, permettendo così di srotolarli.

I brani decifrati sono 11 colonne di testo, per un totale di oltre 2mila caratteri che parlano di musica, cibo e, in generale, di piacere, che farebbero pensare a parole del filosofo greco Filodemo, un seguace di Epicuro che visse nella villa di Ercolano che ospitava i rotoli di papiro.

Si tratta di un fatto entusiasmante, non tanto per il testo in se, quanto per le possibilità che questa nuova tecnica apre agli studiosi per decifrare le centinaia di rotoli di papiro di Ercolano sigillati ancora da leggere e che potrebbero celare opere considerate perdute.

L’intelligenza artificiale nel settore pubblicitario: le strategie di WPP e Publicis

Wpp ha dichiarato di voler spendere circa 250 milioni di sterline (318 milioni di dollari) all’anno per investire in nuove tecnologie per la messa a punto di tecnologie proprietarie nell’ambito dell’intelligenza artificiale e dell’analisi dei dati.

“L’intelligenza artificiale sta trasformando il nostro settore e noi la vediamo come un’opportunità e non come una minaccia. Crediamo fermamente che rafforzerà e non sostituirà la creatività umana», ha affermato il Ceo Mark Read in relazione al piano di investimenti pianificato nel settore. 

Stiamo già fornendo ai nostri dipendenti strumenti basati sull’intelligenza artificiale per aumentare le loro competenze, produrre lavoro in modo più efficiente e migliorare le prestazioni dei media” continua Read riferendosi a WPP Open, la piattaforma tecnologica di intelligenza artificiale proprietaria, già oggi utilizzata da oltre 28.000 persone nel gruppo e adottata anche da alcune importanti clienti come L’Oréal e Nestlé.

La notizia segue un annuncio simile da parte del gruppo Publicis che ha dichiarato che investirà 300 milioni di euro (327 milioni di dollari) nei prossimi tre anni sull’intelligenza artificiale, di cui 100 milioni di euro nel 2024, poiché la nuova tecnologia sarà sempre più utilizzata nel settore pubblicitario.

Gli investimenti saranno suddivisi equamente per potenziare l’area tecnologia, licenze, software e infrastruttura cloud, e l’area risorse umane, attraverso il miglioramento delle competenze dei dipendenti e con nuove assunzioni mirate. Publicis ha dichiarato a tale proposito che trarrà vantaggio dai 2,3 miliardi di profili di dati individuali di sua proprietà per addestrare la sua piattaforma tecnologica Core AI, per personalizzare le campagne, prevederne l’impatto e adattare il pubblico target in tempo reale, soprattutto in vista del passaggio ad un approccio cookieless e in favore di un modello basato su dati proprietari di prima parte.

Meloni a Tokyo: l’Intelligenza Artificiale al centro dell’agenda italiana del G7

La presidente del Consiglio si trova nel paese nipponico per il passaggio di consegne tra la presidenza giapponese del G7 e quella italiana. L’incontro bilaterale è stato anche l’occasione per approfondire non solo le questioni legate alla cooperazione internazionale ma anche temi come l’Intelligenza artificiale e le sue applicazioni.

Un tema quello dell’Intelligenza Artificiale lanciato dal G7 di Hiroshima sul quale la premier ha rilasciato un’ampia intervista al quotidiano Yomiuri Shimbun durante la quale ha spiegato come la Presidenza giapponese del G7 abbia fatto “un lavoro straordinario per attirare l’attenzione su una tecnologia che può generare grandi opportunità ma può anche nascondere enormi rischi per le nostre società. I sistemi di IA generativa possono avere un impatto decisivo sul mondo del lavoro, dell’informazione, sugli equilibri globali e sulla nostra sicurezza. La Dichiarazione di Hiroshima sull’AI è di importanza cruciale in questo contesto, in quanto afferma la necessità di adottare principi guida e un codice di condotta per le aziende che sviluppano intelligenza artificiale”.

Da parte italiana, continua la premier, “svilupperemo ulteriormente questo lavoro per garantire che l’IA sia incentrata sull’uomo e controllata dall’uomo, tenendo conto dei principi etici fondamentali dell’umanità. Siamo anche di fronte alla possibilità concreta che molte professioni, anche altamente qualificate, vengano rapidamente sostituite dagli algoritmi, causando crisi sociali e contribuendo all’aumento del divario tra ricchi e poveri, potenzialmente cancellando la classe media”.

Per questo motivo, spiega Meloni, è intenzione dell’Italia di focalizzare l’attenzione dei Paesi partner sull’impatto dell’AI sul mondo del lavoro, coinvolgendo non solo le aziende ma anche la società civile e i sindacati per dare risposte a quello che è un rischio molto concreto per i lavoratori.

Per quanto riguarda l’impatto politico dell’Intelligenza Artificiale e le fake news che questa tecnologia è in grado di generare, Meloni sostiene che “si tratta di un problema molto attuale che si sta diffondendo ovunque a grande velocità, con impatti che vanno dalla polarizzazione interna delle nostre società all’interferenza nelle elezioni e nei processi democratici. Le false informazioni sono una parte importante della guerra ibrida, che mette a rischio la coesione delle nostre democrazie. Dobbiamo trovare il giusto equilibrio, contrastando gli attacchi e le interferenze esterne e garantendo allo stesso tempo la libertà di espressione, che è un pilastro fondamentale delle nostre democrazie” auspicando poi che la politica, grazie al lavoro congiunto in sedi come il G7, possa essere in grado di  combinare soluzioni tecniche e strumenti normativi adeguati alla portata della sfida.

Parlando poi in termini più ampi in qualità di Presidente del G7, oltre al Vertice che si terrà nella Regione Puglia il 13-15 giugno, Meloni ha sottolineato come la Presidenza italiana intenda affrontare, oltre all’AI anche temi come la situazione in Ucraina, il conflitto in Medio Oriente e le relazioni con i Paesi in via di sviluppo e le economie emergenti.

L’Italia ha concluso poi la Premier concentrerà i propri sforzi anche su temi chiave come le migrazioni, il clima, la salute globale, la sicurezza energetica, la sicurezza alimentare e le sfide derivanti dall’invecchiamento della popolazione.

Podcast: videogiochi e Intelligenza Artificiale

Negli ultimi anni, l’industria dei videogiochi ha subito una notevole trasformazione, alimentata dai progressi della tecnologia. Una delle innovazioni più significative che hanno rimodellato le esperienze di gioco è l’Intelligenza Artificiale (AI). Dal miglioramento dell’esperienza di gioco alla rivoluzione del comportamento e dell’interazione dei personaggi, migliorando il realismo e la complessità dei mondi virtuali.

Ma come si evolverà il rapporto tra videogioco e AI?

Ne parla Emilio Cozzi su Radio24 nel suo podcast “Videogame” assieme a Enrico Pagliarini, conduttore di “2024” la trasmissione dedicata alla tecnologia di Radio 24e a Lorenzo “LRNZ” Ceccotti, fumettista, videogiocatore e cofondatore di EGAIR – European Guild for Artificial Intelligence Regulation, l’associazione europea per la regolamentazione dell’Intelligenza Artificiale.

Buon ascolto!

Per saperne di più sul rapporto tra Gaming e AI: Il futuro del gaming: come l’intelligenza artificiale sta rivoluzionando le esperienze di gioco

AI Act: via libera dai Paesi UE alla regolamentazione dell’Intelligenza Artificiale

Il Comitato dei rappresentanti permanenti (Coreper) degli Stati membri del Consiglio dell’Unione Europea ha dato il via libera all’unanimità all’AI Act, il pacchetto di norme, proposte dalla Commissione europea che mirano a regolamentare l’utilizzo di questa tecnologia.

I prossimi passaggi prevedono il voto in sede di commissione legislativa UE il prossimo 13 febbraio per poi arrivare al voto del Parlamento Europeo, fissato per il 24 aprile.

L’entrata in vigore delle nuove norme sarà a scaglioni. I primi divieti scatteranno dopo 6 mesi e riguarderanno gli utilizzi non autorizzati. Poi, entro 1 anno, toccherà ai modelli fondativi, che prevedono per le AI ad alto impatto (parliamo di sistemi con potere di calcolo pari a 10^25 FLOPs come GPT-4 di OpenAI) la trasparenza dei processi di addestramento, la condivisione della documentazione tecnica prima del rilascio sul mercato e di conseguenza l’adozione di tutte le regole in tema di sicurezza dei dati e gestione della privacy. A seguire poi le altre disposizioni che entreranno in vigore dopo 2 anni.

Che cos’è la RAG, la nuova frontiera dell’Intelligenza Artificiale generativa

L’Intelligenza Artificiale (AI) è la disciplina che si occupa di creare sistemi in grado di eseguire compiti che richiedono intelligenza umana, come apprendimento, il ragionamento e la risoluzione di problemi. Uno dei campi più promettenti e sfidanti di questo settore è quello della generazione di linguaggio naturale (NLG), che consiste nel produrre testi coerenti e informativi a partire da dati strutturati o non strutturati.

Per realizzare questo obiettivo, negli ultimi anni si sono sviluppati dei modelli di AI chiamati Large Language Models (LLM), che sono algoritmi in grado di comprendere e generare testi in linguaggio naturale basandosi su vasti set di dati linguistici. I modelli come GPT hanno dimostrato una sorprendente capacità di generare testi su vari argomenti e domini, rispondendo a domande, completando frasi e creando contenuti creativi.

I LLM presentano però anche dei limiti e, in alcuni casi, delle criticità, legati alla loro dipendenza dai dati di addestramento, che possono essere incompleti, obsoleti o non pertinenti al contesto specifico. Inoltre, i LLM richiedono una significativa potenza di calcolo per essere riaddestrati, il che rende difficile aggiornare continuamente i modelli con nuove informazioni.

Per superare questi problemi e migliorare la qualità dell’IA generativa, emerge una nuova tecnica chiamata Retrieval-Augmented Generation (RAG), che significa generazione aumentata con recupero. La RAG è una tecnica che consente ai LLM di sfruttare risorse di dati aggiuntive senza bisogno di retraining, integrando le abilità generative dei LLM con la capacità di reperire informazioni da fonti esterne di conoscenza.

La RAG è stata proposta per la prima volta da Patrick Lewis e un team di Facebook AI Research in questo articolo del 2020 e da allora ha suscitato l’interesse e l’attenzione di molti ricercatori accademici e del settore, che la vedono come un modo per spingere i confini della NLG.

Come funziona la RAG

La RAG funziona combinando due componenti principali: un LLM pre-addestrato e un indice di documenti di conoscenza. Il LLM pre-addestrato è un modello di IA generativa, come GPT-3, BERT o T5, che è stato addestrato su un grande dataset di testi generici. L’indice di documenti di conoscenza è una collezione di testi specifici e aggiornati, provenienti da fonti diverse, come Wikipedia, database, data warehouse, documenti aziendali o feed di notizie.

Quando la RAG riceve un input, come una domanda o una frase da completare, il LLM pre-addestrato genera una prima risposta basandosi sui dati di addestramento. Allo stesso tempo, il LLM pre-addestrato invia una query all’indice di documenti di conoscenza, che restituisce i documenti più rilevanti per l’input. Questi documenti vengono poi utilizzati dal LLM pre-addestrato per raffinare e migliorare la risposta iniziale, integrandola con informazioni più precise e aggiornate.

In questo modo, la RAG riesce a produrre non solo testi coerenti, ma anche corretti e pertinenti, sfruttando dati specifici e aggiornati provenienti da fonti esterne. La RAG non modifica il LLM pre-addestrato alla sua base, ma lo arricchisce con informazioni mirate senza bisogno di retraining.

Esempi di applicazioni della RAG

La RAG può essere applicata a diversi compiti e domini che richiedono la generazione di testi in linguaggio naturale, come la risposta a domande, il riassunto di testi, la generazione di contenuti creativi o la creazione di chatbot.

Per esempio, immagina di voler creare un chatbot per un campionato sportivo, che possa rispondere alle domande dei fan e dei media su giocatori, squadre, storia e regole dello sport, statistiche e classifiche attuali. Un LLM generico potrebbe rispondere a domande sulla storia e sulle regole, ma non sarebbe in grado di parlare della partita della sera precedente o di fornire informazioni aggiornate su un particolare infortunio di un atleta, perché non avrebbe tali informazioni.

Utilizzando la RAG, invece, diventa possibile integrare il LLM generico con un indice di documenti di conoscenza specifici per lo sport, come database, data warehouse, documenti sui giocatori e feed di notizie, che contengono informazioni dettagliate e aggiornate su ogni partita. In questo modo, il chatbot potrebbe fornire risposte più appropriate e accurate alle domande, basandosi su dati estremamente attuali.

Un altro esempio di applicazione della RAG è la generazione di contenuti creativi, come poesie, storie, canzoni o parodie di celebrità. Un LLM generico potrebbe generare contenuti creativi basandosi su dati generici, ma potrebbe non essere in grado di catturare lo stile, il tono, il vocabolario o le sfumature di un determinato autore, genere o personaggio.

Utilizzando la RAG, invece, si potrebbe invece integrare il LLM generico con un indice di documenti di conoscenza specifici per il contenuto creativo che si vuole generare, come testi di poesie, storie, canzoni o parodie di celebrità, che contengono esempi e modelli di riferimento. In questo modo, il contenuto creativo generato sarebbe più originale, interessante e divertente, riflettendo lo stile, il tono, il vocabolario e le sfumature del contenuto desiderato.

Vantaggi e svantaggi della RAG

La RAG presenta una serie di vantaggi e di svantaggi che delineano da un lato la sua complessità e dall’altro le sfide ad esso associate.

Vantaggi:

  • Maggiore completezza: la capacità della RAG di attingere informazioni da fonti esterne contribuisce a generare risposte più complete e dettagliate;
  • Maggiore correttezza: la capacità della RAG di integrare informazioni aggiornate e specifiche contribuisce a generare risposte più corrette e accurate;
  • Maggiore pertinenza: la capacità della RAG di adattare le informazioni al contesto contribuisce a generare risposte più pertinenti e rilevanti;
  • Maggiore flessibilità: la capacità della RAG di sfruttare diverse fonti di conoscenza contribuisce a generare risposte più flessibili e personalizzabili;
  • Maggiore efficienza: la capacità della RAG di ottimizzare i LLM pre-addestrati senza retraining contribuisce a generare risposte più efficienti e veloci.

Svantaggi:

  • Maggiore complessità: la RAG richiede una maggiore complessità nella progettazione e nell’integrazione dei componenti, come il LLM pre-addestrato, l’indice di documenti di conoscenza e il meccanismo di recupero e fusione delle informazioni;
  • Maggiore incertezza: la RAG introduce una maggiore incertezza nella generazione delle risposte, in quanto dipende dalla qualità e dalla rilevanza dei documenti di conoscenza recuperati, che potrebbero essere incompleti, errati o non pertinenti;
  • Maggiore difficoltà di valutazione: la RAG rende più difficile la valutazione delle risposte generate, in quanto richiede criteri e metriche più sofisticati e multidimensionali, che tengano conto non solo della coerenza, ma anche della correttezza, della pertinenza, della completezza e della flessibilità delle risposte.

In definitiva quindi la RAG è vista come la nuova frontiera dell’intelligenza artificiale generativa, per la sua promessa di migliorare la qualità e la pertinenza dei testi prodotti dai modelli di AI, combinando le abilità generative dei LLM pre-addestrati con la capacità di reperire informazioni da fonti esterne di conoscenza, senza bisogno di retraining e aprendo, in questo modo, nuove possibilità e nuovi scenari per la creazione di testi in linguaggio naturale.

Trimestrali: come l’Intelligenza Artificiale sta ridefinendo il mercato e le prospettive delle Big Tech

L’intelligenza artificiale sta diventando più di un semplice argomento di discussione per le Big Tech e le reazioni alla presentazione degli ultimi dati trimestrali hanno evidenziato le crescenti aspettative sul tema da parte degli investitori che hanno puntato sulla diffusa integrazione della tecnologia AI nei settori aziendali, alimentando il rally del mercato azionario che ha spinto le azioni di queste società a livelli record e contribuendo, per la maggior parte, all’incremento del 24% registrato dall’indice S&P 500 lo scorso anno.

Microsoft e Alphabet sono state le prime a presentare i propri dati lo scorso martedì e anche a scoprire che quando si tratta di intelligenza artificiale analisti e investitori hanno grandi aspettative. Infatti, nonostante risultati finanziari particolarmente buoni per entrambe le aziende, le azioni sono scivolate nelle contrattazioni dell’after market dopo la pubblicazione dei risultati. 

Per quanto riguarda Microsoft, Wall Street si aspettava una maggiore chiarezza su quanto l’intelligenza artificiale può effettivamente contribuire alle performance finanziarie in futuro, considerato che l’azienda è stata finora in prima linea grazie agli accordi con OpenAI.

Nel caso di Google invece, oltre alla debolezza del suo business principale, quello della pubblicità, quello che ha sollevato preoccupazioni è stata l’incisività delle attività dell’azienda nel campo dell’intelligenza artificiale e il rischio che possa rimanere indietro rispetto a Microsoft.

Stessa sorte toccata giovedì ad Apple che nonostante le buone performance finanziarie ha registrato un calo delle azioni principalmente per i timori legati al rallentamento delle vendite in Cina, il suo mercato principale, ma anche per le poche indicazioni su come l’azienda si stia muovendo nel campo dell’intelligenza artificiale generativa, atteso che, le cuffie Vision Pro appena lanciate gli analisti non prevedono possano portare entrate significative per diversi anni.

Le azioni di Meta e Amazon invece hanno registrato entrambe un forte rialzo nelle negoziazioni post chiusura. Meta, oltre ai buoni risultati e ad aver lanciato il suo primo dividendo, ha fornito una prospettiva chiara sui progressi del suo programma di sviluppo dell’intelligenza artificiale affermando che quest’anno sarà la più grande area di investimento dell’azienda, facendo ritenere agli analisti che la tecnologia AI di Meta sarà in grado da fare da driver per la crescita della spesa pubblicitaria sulle sue piattaforme.

Gli utili di Amazon hanno superato le stime, facendo salire le quotazioni delle azioni negli scambi dopo la chiusura del mercato perché le nuove funzionalità di intelligenza artificiale generativa nelle sue attività di cloud ed e-commerce hanno stimolato una crescita robusta durante il periodo critico delle festività.

Amazon prevede che quest’anno le sue spese in conto capitale aumenteranno per supportare la crescita di AWS, compresi ulteriori investimenti nell’intelligenza artificiale generativa e in modelli linguistici di grandi dimensioni, tenuto conto che per rafforzare il proprio business nel cloud e in risposta all’investimento di 10 miliardi di dollari di Microsoft in OpenAI, l’azienda guidata da Jeff Bezos sta a sua volta investendo fino a 4 miliardi di dollari nel produttore di chatbot Anthropic.

C’è da ritenere quindi che nei prossimi appuntamenti con i dati trimestrali delle big tech gli occhi di investitori e analisti saranno puntati sulla ricerca dei segnali che gli investimenti multimiliardari effettuati nello sviluppo dell’intelligenza artificiale si stiano effettivamente traducendo in guadagni finanziari.

Sotto esame saranno soprattutto quelle realtà costrette ad inseguire per cogliere maggiori opportunità di crescita nel settore dell’intelligenza artificiale ed è prevedibile che l’ondata di investimenti registrata nel 2023 sarà seguita dall’integrazione della tecnologia in più applicazioni, che potrebbero cambiare in modo significativo  il panorama dei prodotti di intelligenza artificiale di successo.

Il contenuto del presente articolo deve intendersi solo a scopo informativo e non costituisce una consulenza professionale. Le informazioni fornite sono ritenute accurate, ma possono contenere errori o imprecisioni e non possono essere prese in considerazione per eventuali investimenti personali.

Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

È di 760 milioni di euro il valore del mercato dell’Intelligenza Artificiale in Italia

Il mercato dell’Intelligenza Artificiale in Italia è cresciuto del 52% nel 2023 raggiungendo un valore di 760 milioni di euro. La maggior parte degli investimenti riguarda soluzioni di analisi e interpretazione testi per ricerca semantica, di classificazione, sintesi e spiegazione di documenti o agenti conversazionali tradizionali, mentre sono ancora limitati i progetti di Generative AI. 6 imprese italiane su 10 hanno già avviato un progetto di Intelligenza Artificiale, almeno a livello di sperimentazione, e 2 su 3 hanno approfondito a livello interno le possibili applicazioni dell’AI generativa.

Sono alcuni dei risultati della ricerca dell’Osservatorio Artificial Intelligence del Politecnico di Milano presentati oggi nell’ambito del convegno “AI al centro: novità, applicazioni e regole“.

Nel 2023 la quasi totalità degli italiani (parliamo del 98%) ha sentito parlare di Intelligenza Artificiale e più di un italiano su quattro (il 29%) dichiara di averne una conoscenza medio-alta. Abbiamo usato il termine dichiara perché poi, a ben vedere, sembra ci sia una certa confusione sul tema, tan’è che se è vero che 3 italiani su quattro hanno sentito parlare di ChatGPT , solo il 57% conosce il termine Intelligenza Artificiale Generativa.

Un dato interessante che emerge dai dati della ricerca è che sebbene solo il 17% degli intervistati si dichiari fermamente contrario all’ingresso dell’AI nelle attività professionali, ben il 77% degli italiani guarda con timore al possibile impatto dell’Intelligenza Artificiale nel mondo del lavoro.

A tale proposito, rileva l’indagine, che già oggi, in Italia, l’Intelligenza Artificiale ha un potenziale di automazione per il 50% di “posti di lavoro equivalenti”, ma da qui a 10 anni, il suo impatto potrebbe coinvolgere il lavoro di 3,8 milioni di persone in Italia anche se, come sottolinea Giovanni Miragliotta, Direttore dell’Osservatorio Artificial Intelligence “nel valutare il reale impatto sul lavoro, però, bisogna tenere in considerazione le previsioni demografiche che, a causa dell’invecchiamento della popolazione, prospettano un gap di 5,6 milioni di posti di lavoro equivalenti entro il 2033″.

In questa prospettiva, quindi, la possibile automazione di 3,8 milioni di posti di lavoro equivalenti secondo Miragliotta “appare quasi una necessità per ribilanciare un enorme problema che si sta creando, più che un rischio“.

Il mercato

Il 90% del mercato dell’Intelligenza Artificiale in Italia è dovuto alle grandi imprese. Il resto è suddiviso in modo equilibrato tra PMI e Pubblica Amministrazione. La quota più significativa del mercato dell’Intelligenza Artificiale italiano (29%) è legata a soluzioni per analizzare ed estrarre informazioni dai dati (data exploration & prediction, decision support & optimization systems). Il 27% è per progetti di interpretazione del linguaggio, scritto o parlato (text analysis, classification & conversation systems). Il 22% per algoritmi che suggeriscono ai clienti contenuti in linea con le singole preferenze (recommendation systems). Il 10% analisi di video ed immagini, 7% process orchestration systems, il 5% Generative AI. Guardando alla spesa media in Intelligenza Artificiale per azienda, ai primi posti telco, media e assicurazioni, seguiti da energia, utility, banche e finanza.

La diffusione nelle aziende

Il 61% delle grandi imprese ha all’attivo, almeno al livello di sperimentazione, un progetto di Intelligenza Artificiale, mentre si scende al 18% tra le piccole e medie imprese. L’adozione nelle imprese è sostanzialmente stabile rispetto al 2022. Le aziende che avevano già avviato almeno una sperimentazione proseguono e accelerano. Nelle aziende in ritardo, sono invece rari i casi in cui l’avvento della Generative AI ha già dato vita ad una sperimentazione. Il 37% delle grandi realtà che non hanno progetti all’attivo ha intenzione di attivarli nei prossimi 12 mesi e si moltiplicano le iniziative di workshop ispirazionali/formativi sul tema. Circa 2 grandi aziende su 3 hanno discusso internamente delle applicazioni delle Generative AI, tra queste una su quattro ha avviato una sperimentazione (il 17% del totale, dunque). D’altro canto, soltanto il 7% delle piccole e medie imprese sta riflettendo su potenziali applicazioni e solo il 2% ha concretamente attivato almeno una sperimentazione. 

La maturità delle aziende

L’Osservatorio ha analizzato anche la maturità delle grandi organizzazioni nel percorso di adozione dell’AI, arrivando ad individuare cinque diversi profili. L’11% è definito avanguardista e sono aziende che hanno raggiunto la piena maturità a livello tecnologico, organizzativo e gestionale nell’adozione di soluzioni di Intelligenza Artificiale. Il 23% è definito apprendista e sono aziende che hanno diversi progetti avviati ma difficilmente impiegano metodologie strutturate nel gestirli e tendono a far ricorso a soluzioni standard o pronte all’uso. Nel restante 66% dei casi, permangono situazioni eterogenee: ci sono organizzazioni cosidette in cammino, il 29%), dotate degli elementi abilitanti ma con pochi progetti, e aziende che non percepiscono il tema come rilevante e non dispongono di un’infrastruttura IT adeguata alla gestione di grandi quantità di dati.

La FTC indaga sui legami tra le big tech e le start-up dell’Intelligenza Artificiale

La Federal Trade Commission, l’antitrust americana ha aperto un’indagine sui rapporti tra le principali startup di Intelligenza Artificiale e i big del settore tech. L’obiettivo è quello di valutare se dietro le partnership e gli investimenti ci siano accordi potenzialmente in grado di minare la concorrenza o consentire un accesso privilegiato alle applicazioni di AI a scapito del mercato.

La stessa FTC ha dichiarato di aver emesso degli ordini obbligatori nei confronti di cinque aziende – Amazon, Google, Microsoft, OpenAI e Anthropic – chiedendo di fornire informazioni dettagliate su investimenti e partnership.

Il rapporto tra Microsoft con OpenAI è abbastanza noto e anche se l’azienda di Redmond non ha mai rivelato pubblicamente l’importo totale dell’investimento in OpenAI, si parla di una grandezza di circa 10 miliardi di dollari. Nell’ambito di questo accordo, Microsoft si sarebbe impegnata ad offrire la potenza di calcolo necessaria per addestrare i modelli di AI su enormi quantità di dati e avrebbe avuto in cambio i diritti esclusivi di sfruttamento di ciò che OpenAI avrebbe realizzato, consentendo alla tecnologia di essere inserita nei prodotti Microsoft.

Peraltro, anche Google e Amazon hanno recentemente concluso accordi multimiliardari con Anthropic, un’altra startup di Intelligenza Artificiale con sede a San Francisco e formata da ex dirigenti di OpenAI.

Anche l’Autorità britannica per la concorrenza e i mercati sta esaminando gli accordi e la stessa Commissione Europea ha avviato una verifica sull’investimento di Microsoft e OpenAI ai sensi del regolamento Ue sulle concentrazioni. La vicepresidente della Commissione Ue, Margrethe Vestager, che ha la delega alla concorrenza, ha dichiarato in proposito che è fondamentale che i nuovi mercati rappresentati dall’Intelligenza Artificiale generativa e il virtuale rimangano competitivi e che nulla possa ostacolare l’accesso alle risorse da parte di tutte le aziende garantendo che le nuove tecnologie vadano a beneficio dei cittadini e non di singole aziende.

Va detto, peraltro, che l’indagine aperta dalla Commissione Europea non riguarda solo Microsoft e OpenAI quanto, più in generale, eventuali accordi chiusi dalle big tech con i fornitori di AI generativa, con l’obiettivo di valutare se e come queste partnesrship possano impattare sulle dinamiche di mercato.

L’UE è stata la prima nel mondo a cercare di legiferare l’Intelligenza Artificiale con l’AI Act in attesa di approvazione definitiva da parte del Parlamento Europeo. Del resto, questa nuova tecnologia ha la potenzialità di rivoluzionare l’economia e il mondo del lavoro, presentando anche delle sfide di tipo etico per l’umanità sulle quali si è pronunciato anche recentemente Papa Francesco, sottolineando la necessità di adottare dei modelli di regolamentazione etica per arginare eventuali risvolti dannosi e discriminatori, socialmente ingiusti, dei sistemi di Intelligenza Artificiale.

Come l’Intelligenza Artificiale ha sostituito il metaverso come priorità assoluta di Mark Zuckerberg

Siamo a fine novembre 2022. OpenAI ha appena lanciato ChatGPT, dando il via a quella che si sarebbe poi trasformata in una vera e propria mania per l’Intelligenza Artificiale. Le startup che si occupano del settore raccolgono miliardi di dollari.

Le aziende con business collegati come Nvidia Corp. – che produce i chip che alimentano ChatGPT – veleggiano in borsa raggiungendo quotazioni sempre più alte. Microsoft, che sotto la guida di Satya Nadella ha investito in OpenAI riceve il plauso degli analisti. Tik Tok cresce ogni giorno di più in termini di popolarità.

Google presenta Lumiere, l’AI generativa che crea video realistici partendo dalle singole immagini

Google ha sviluppato, insieme al Weizmann Institute of Science e all’Università di Tel Aviv, un nuovo modello di intelligenza artificiale per la creazione di video a partire da foto e istruzioni testuali: si chiama Lumiere, omaggio ai fratelli inventori della macchina da presa e del proiettore cinematografico.

La novità di Lumiere IA, dal punto di vista tecnologico, sta nella qualità con cui il software riesce a ricreare lo spostamento dei soggetti all’interno del filmato grazie ad un’architettura chiamata “Space-Ti-me U-Net”, una rete spazio-temporale, che genera tutto il video in un unico passaggio, senza passare da sequenze intermedie, che presentano il rischio di possibili
incoerenze con le immagini precedenti e le successive.

Il grosso del lavoro, ça va sans dire, è svolto dall’Intelligenza Artificiale generativa che sceglie il movimento migliore dopo averne analizzati diversi, basandosi sul vasto database a cui hanno accesso i modelli di Big G, in modo tale da restituire un video plausibile.

Il modello di Lumiere è stato addestrato su un set di dati di 30 milioni di video, insieme alle relative didascalie di testo. Va precisato però che non si tratta di un software aperto al pubblico, almeno per il momento, ma solo di un progetto sperimentale di ricerca.

Papa Francesco: regolare l’uso dell’Intelligenza Artificiale o rischiamo il pensiero unico

Occorre una regolamentazione a livello internazionale dell’Intelligenza Artificiale per evitare un suo uso distorto. Lo dice il Papa nel Messaggio per la Giornata delle comunicazioni sociali che si celebrerà il 12 maggio e che ha come tema proprio l’AI.

Della prima ondata di intelligenza artificiale, quella dei social media, abbiamo già compreso l’ambivalenza toccandone con mano, accanto alle opportunità, anche i rischi e le patologie. Il secondo livello di intelligenze artificiali generative segna un indiscutibile salto qualitativo. È importante quindi” sottolinea Papa Francesco “avere la possibilità di comprendere, capire e regolamentare strumenti che nelle mani sbagliate potrebbero aprire scenari negativi. Come ogni altra cosa uscita dalla mente e dalle mani dell’uomo, anche gli algoritmi non sono neutri. Perciò è necessario agire preventivamente, proponendo modelli di regolamentazione etica per arginare i risvolti dannosi e discriminatori, socialmente ingiusti, dei sistemi di intelligenza artificiale e per contrastare il loro utilizzo nella riduzione del pluralismo, nella polarizzazione dell’opinione pubblica o nella costruzione di un pensiero unico“.

Come ogni altra cosa uscita dalla mente e dalle mani dell’uomo” continua il Pontefice “anche gli algoritmi non sono neutri. Perciò è necessario agire preventivamente, proponendo modelli di regolamentazione etica per arginare i risvolti dannosi e discriminatori, socialmente ingiusti, dei sistemi di intelligenza artificiale e per contrastare il loro utilizzo nella riduzione del pluralismo, nella polarizzazione dell’opinione pubblica o nella costruzione di un pensiero unico“.

A seconda dell’orientamento del cuore, ogni cosa nelle mani dell’uomo diventa opportunità o pericolo“, ammonisce il Santo Padre parlando del pericolo di “inquinamento cognitivo“, di “alterazione della realtà tramite narrazioni parzialmente o totalmente false eppure credute, e condivise, come se fossero vere” in riferimento al problema della disinformazione e al tema delle fake news e che oggi si avvale del deep fake, ovvero la creazione e diffusione di immagini che sembrano perfettamente verosimili ma sono false, a proposito del quale Papa Francesco ha chiosato “è capitato anche a me di esserne oggetto” in riferimento ad una serie di immagini generate con tool di Intelligenza Artificiale che lo ritraevano in pose pop, con look street-style o intento a scatenarsi in discoteca.

Come usare l’intelligenza artificiale dipende dall’uomo e dall’utilizzo che intende farne continua il Pontefiche aggiungendo che “la risposta non è scritta, dipende da noi. Spetta all’uomo decidere se diventare cibo per gli algoritmi oppure nutrire di libertà il proprio cuore, senza il quale non si cresce nella sapienza“.

E da qui gli interrogativi ai quali il tema ci pone davanti:

  • come far sì che le aziende che sviluppano piattaforme digitali si assumano le proprie responsabilità rispetto a ciò che diffondono e da cui traggono profitto, analogamente a quanto avviene per gli editori dei media tradizionali;
  • come rendere più trasparenti i criteri alla base degli algoritmi di indicizzazione e de-indicizzazione e dei motori di ricerca, capaci di esaltare o cancellare persone e opinioni, storie e culture;
  • come garantire la trasparenza dei processi informativi

Secondo la visione di Papa Francesco, non è accettabile che l’uso dell’Intelligenza Artificiale conduca a un pensiero anonimo, a un assemblaggio di dati non certificati, a una deresponsabilizzazione editoriale collettiva. La rappresentazione della realtà in big data, per quanto funzionale alla gestione delle macchine, implica infatti una perdita sostanziale della verità delle cose, che ostacola la comunicazione interpersonale e rischia di danneggiare la nostra stessa umanità. L’informazione non può essere separata dalla relazione esistenziale: implica il corpo, lo stare nella realtà; chiede di mettere in relazione non solo dati, ma esperienze; esige il volto, lo sguardo, la compassione oltre che la condivisione.

L’obiettivo a cui tendere, secondo il Pontefice, è quello di evitare che l’Intelligenza Artificiale finisca per costruire nuove caste basate sul dominio informativo, generando nuove forme di sfruttamento e di diseguaglianza, perché se usata bene questa tecnologia può portare invece più eguaglianza, promuovere una corretta informazione e una maggiore consapevolezza del passaggio epocale che stiamo attraversando, favorendo l’ascolto dei molteplici bisogni delle persone e dei popoli, in un sistema di informazione articolato e pluralista.

Da questo punto vi sta quindi “l’uso dell’Antelligenza Artificiale potrà contribuire positivamente nel campo della comunicazione, se non annullerà il ruolo del giornalismo sul campo, ma al contrario lo affiancherà; se valorizzerà le professionalità della comunicazione, responsabilizzando ogni comunicatore; se restituirà ad ogni essere umano il ruolo di soggetto, con capacità critica, della comunicazione stessa“. Così Papa Francesco nel messaggio per la 58ma Giornata Mondiale delle Comunicazioni Sociali che quest’anno si celebra il 12 maggio 2024 sul tema ‘Intelligenza artificiale e sapienza del cuore: per una comunicazione pienamente umana’.

Commissione Europea: pacchetto di sostegno a startup e Pmi nell’AI. Dall’EU AI Act a GenAI4EU

La Commissione Europea ha lanciato un pacchetto di misure per sostenere le startup e le Pmi europee nello sviluppo di un’Intelligenza Artificiale affidabile che rispetti i valori e le regole dell’UE. Tutto ciò a seguito dell’accordo politico raggiunto nel dicembre 2023 sull’EU AI Act – la prima legge globale al mondo sull’intelligenza artificiale – che sosterrà lo sviluppo, la diffusione e l’adozione di un’Intelligenza Artificiale affidabile nell’Unione Europea.

L’annuncio è stato dato dalla Presidente Ursula von der Leyen nel suo discorso sullo stato dell’Unione del 2023, nel quale ha presentato l’iniziativa per mettere i supercomputer europei a disposizione delle startup innovative europee che si occupano di Intelligenza Artificiale per addestrare i loro modelli in modo affidabile.

Come primo passo, nel novembre 2023 la Commissione ha lanciato la Large AI Grand Challenge, un premio che offre alle startup nel settore dell’AI sostegno finanziario e accesso ai supercalcoli.

Il pacchetto appena annunciato mette in pratica questo impegno attraverso un’ampia gamma di misure a sostegno delle startup e dell’innovazione nel campo dell’Intelligenza Artificiale, inclusa una proposta per fornire un accesso privilegiato ai supercomputer alle startup e alla più ampia comunità dell’innovazione.

L’obiettivo è quello di istituire delle AI Factories, che dovrebbero essere un nuovo pilastro per le attività dell’impresa comune sui supercomputer dell’UE attraverso l’acquisizione, l’aggiornamento e il funzionamento di supercomputer dedicati all’Intelligenza Artificiale per consentire l’apprendimento automatico rapido e l’addestramento di grandi modelli per scopi generali (GPAI), facilitando l’accesso ai supercomputer a un gran numero di utenti pubblici e privati, comprese startup e Pmi. All’interno di questo sistema è prevista anche la realizzazione di uno sportello unico per startup e innovatori, supportando le startup e l’ecosistema di ricerca sull’AI nello sviluppo algoritmico, testando la valutazione e la convalida di modelli su larga scala, fornendo strutture di programmazione compatibili con i supercomputer e altri servizi di abilitazione dell’Intelligenza Artificiale.

L’istituzione di un ufficio sull’AI all’interno della Commissione servirà poi a garantire lo sviluppo e il coordinamento della politica sul tema a livello europeo, oltre a supervisionare l’attuazione e l’applicazione dell’EU AI Act.

Secondo le previsioni il pacchetto genererà un ulteriore investimento pubblico e privato complessivo pari a circa 4 miliardi di euro fino al 2027 e viene annunciata di pari passo l’iniziativa GenAI4EU per sostenere lo sviluppo verticale dell’Intelligenza Artificiale nei differenti ecosistemi industriali europei (robotica, salute, biotecnologia, produzione, mobilità, clima e mondi virtuali) e nel settore pubblico.

Pagina 5 di 8

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie