Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Tag: ai Pagina 3 di 7

La Corea Sud investe 7 miliardi di dollari nell’Intelligenza Artificiale

La Corea del Sud investirà quasi 7 miliardi di dollari nell’Intelligenza Artificiale entro il 2027, nel tentativo di diventare un leader globale nei semiconduttori all’avanguardia. Ad annunciarlo il Presidente Yoon Suk-Yeol durante un incontro con i rappresentanti di Samsung, SK Hynix, il gigante tecnologico Naver e la startup di chip Ai Sapeon.

Il futuro dell’industria dei semiconduttori dipende dall’intelligenza artificiale“, ha dichiarato il Presidente Yoon, precisando che Seul investirà 9.400 miliardi di won (pari a 6,94 miliardi di dollari) nell’Intelligenza Artificiale e nei semiconduttori AI entro il 2027 e istituirà un fondo separato con una dotazione di 1.400 miliardi di won (circa 1 miliardo di dollari) per aiutare la crescita delle aziende innovative di semiconduttori AI.

La Corea del Sud ospita Samsung e SK Hynix, i due principali produttori al mondo di chip, inclusi quelli premium a larghezza di banda elevata (Hbm) utilizzati nell’hardware che alimenta l’Intelligenza Artificiale.

L’industria dei semiconduttori è un pilastro importante dell’economia della Corea del Sud che è focalizzata sulle esportazioni e Seul punta a diventare leader mondiale nella tecnologia AI e a conquistare il futuro mercato dei chip di Intelligenza Artificiale per il quale ha commentato Yoon “la competizione dei semiconduttori che si sta verificando oggi è una guerra industriale e una guerra totale tra le nazioni” in riferimento alla rivalità tra Stati Uniti e Cina, alimentata anche dalle recenti tensioni per Taiwan.

Microsoft investirà 2,9 miliardi sull’Intelligenza Artificiale in Giappone

Microsoft investirà 2,9 miliardi di dollari in Giappone nei prossimi due anni, con l’obiettivo di potenziare i centri dati considerati essenziali per l’elaborazione dell’Intelligenza Artificiale generativa.

Lo anticipa l’agenzia Kyodo che cita fonti a conoscenza del dossier.

La società guidata da Satya Nadella prevede anche di aprire un centro di ricerca a Tokyo, il primo di questo tipo in Giappone, hanno detto le fonti, aggiungendo che l’annuncio sarà fatto a breve, in concomitanza con la visita del premier giapponese Fumio Kishida a Washington.

Per Microsoft sarebbe il maggior investimento nel Paese del Sol Levante mai realizzato fino ad oggi.

L’investimento, infatti, è parte del più ampio coinvolgimento di Microsoft nel programma governativo giapponese Generative AI Accelerator Challenge, coordinato dal ministero dell’Economia, del commercio e dell’industria.

Un aspetto importante sarà la collaborazione con l’ufficio di gabinetto giapponese, mirata a “rafforzare la resilienza di cybersicurezza del governo, delle aziende e della società”, come previsto dalla strategia di sicurezza nazionale approvata nel 2022.

Inoltre, Microsoft Research Asia sta estendendo la propria leadership nella ricerca nella regione Asia-Pacifico con l’apertura di un laboratorio a Tokyo.

Il nuovo laboratorio si concentrerà su aree quali l’intelligenza artificiale incorporata, la robotica, l’intelligenza artificiale sociale e la scoperta scientifica, in linea con le priorità socioeconomiche del Giappone.

Microsoft fornirà 10 milioni di dollari in sovvenzioni in risorse nei prossimi cinque anni all’Università di Tokyo e alla partnership sulla ricerca sull’intelligenza artificiale tra la Keio University e la Carnegie Mellon University per promuovere una migliore collaborazione nella ricerca.

Immagine da sinistra a destra: Fumio Kishida, Primo Ministro del Giappone; Brad Smith, vicepresidente e presidente di Microsoft; Suzanne P. Clark, Presidente e CEO, Camera di Commercio degli Stati Uniti; Rahm Emanuel, ambasciatore degli Stati Uniti in Giappone; Miki Tsusaka, Presidente, Microsoft Giappone.

Italia: arriva la bozza del disegno di legge sull’Intelligenza Artificiale

Annunciato per la fine di marzo, arriva finalmente la bozza del disegno di legge sull’Intelligenza Artificiale promessa dal Governo italiano che “reca principi in materia di ricerca, sperimentazione, sviluppo, adozione e applicazione di sistemi e modelli di intelligenza artificiale”, “promuove un utilizzo corretto, trasparente e responsabile, in una dimensione antropocentrica, dell’intelligenza artificiale, volto a coglierne le opportunità” e “garantisce la vigilanza sui rischi economici e sociali e sull’impatto sui diritti fondamentali dell’intelligenza artificiale”.

Il disegno di legge è composto da 25 articoli, divisi in cinque capitoli: stabilisce la creazione di una fondazione, introduce un “tag” anti-deep fake per certificare il falso e un’aggravante per l’AI nel codice penale, fissa i fondi dedicati alla causa (150 milioni) e prevede un controllo a due dell’Agenzia per l’Italia digitale e dell’Agenzia per la cybersicurezza nazionale.

All’art.17 del testo si legge che la “strategia nazionale per l’intelligenza artificiale è predisposta e aggiornata dalla struttura della Presidenza del Consiglio dei ministri competente in materia di innovazione tecnologica e transizione digitale ed è approvata con cadenza almeno biennale dal Comitato interministeriale per la transizione digitale (Citd)”.

L’applicazione e l’attuazione della normativa nazionale e dell’Unione europea in materia di Intelligenza Artificiale sono stabilite in capo all’Agenzia per l’Italia digitale (AgID) e all’Agenzia per la cybersicurezza nazionale (ACN) definite “Autorità nazionali per l’Intelligenza Artificiale”.

Nello specifico, l’Agenzia per l’Italia digitale (AgID) “è responsabile di promuovere l’innovazione e lo sviluppo dell’intelligenza artificiale” e “provvede altresì a definire le procedure e ad esercitare le funzioni e i compiti in materia di valutazione, accreditamento e monitoraggio dei soggetti incaricati di verificare la conformità dei sistemi di intelligenza artificiale, secondo quanto previsto dalla normativa nazionale e dell’Unione europea”.

L’Agenzia per la cybersicurezza nazionale (ACN), invece, “ai fini di assicurare la tutela della cybersicurezza nazionale, è responsabile per la vigilanza, ivi incluse le attività ispettive e sanzionatorie, dei sistemi di intelligenza artificiale, secondo quanto previsto dalla normativa nazionale e dell’Unione europea. L’ ACN è, altresì, responsabile per la promozione e lo sviluppo dell’intelligenza artificiale relativamente ai profili di cybersicurezza”.

Nel ddl è anche prevista l’istituzione di una Fondazione per la ricerca, la sperimentazione, lo sviluppo e l’adozione di sistemi di intelligenza artificiale.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

CDP Venture Capital: 1 miliardo di euro per sviluppare l’Intelligenza Artificiale in Italia

Focus su Intelligenza Artificiale e Cybersecurity, con investimenti complessivi di 8 miliardi di euro, di cui 1 dedicato all’AI, per supportare lo sviluppo dell’economia e dell’innovazione italiana: queste le principali novità del Piano Industriale 2024-2028 di CDP Venture Capital appena presentato a Milano dalla Presidente Anna Lambiase e dall’Amministratore Delegato e Direttore Generale Agostino Scornajenchi.

Il focus è concentrato su 7 settori industriali ritenuti strategici per il futuro del Paese:

  1. Industry Tech;
  2. Infra Tech & Mobility;
  3. Agrifood Tech;
  4. Clean Tech;
  5. Aerospazio;
  6. Lifescience;
  7. Intelligenza Artificiale.

All’Intelligenza Artificiale, come aveva anticipato lo scorso mese di marzo la Presidente del Consiglio Giorgia Meloni, sono dedicate risorse per 1 miliardo di euro su 3 ambiti specifici:

  • 120 milioni di euro dedicati al trasferimento tecnologico, anello di congiunzione tra ricerca universitaria e mercato;
  • 580 milioni di euro di investimenti in startup con applicazioni settoriali per rafforzare gli attori già esistenti;
  • 300 milioni di euro di investimenti in aziende mature pronte a scalare all’estero e diventare i futuri campioni nazionali.

In merito a quest’ultimo punto Agostino Scornajenchi, amministratore delegato di Cdp Venture Capital ha commentato “abbiamo un silver bullet da 300 milioni di euro per una, due o tre operazioni di concentrazione. Dobbiamo supportare il nostro sistema in modo tale che faccia nascere un campione nazionale dell’Intelligenza Artificiale, dobbiamo fare massa critica su questo ambito e questa fase specifica di investimento sul nostro comparto large venture sarà dedicata a questo“.

Adesso il tema vero è il seguente: 1 miliardo di euro come investimento Paese è sufficiente per far si che l’Italia possa giocare un ruolo significativo nel panorama dell’Intelligenza Artificiale?

Il panorama delle startup italiane continua a essere dinamico e promettente, con alcune aziende che si distinguono per la loro resilienza e capacità di adattamento

Gli investimenti nelle startup italiane hanno subito un duro colpo nel 2023, con una drastica diminuzione del 50% rispetto all’anno precedente. Secondo i dati elaborati da Italian Tech, gli investimenti in venture capital si sono attestati a 1,15 miliardi di euro. Questo rappresenta un calo significativo rispetto ai 2,39 miliardi del 2022 e ai 1,3 miliardi del 2021.

Ecco alcuni punti chiave riguardanti gli investimenti nelle startup italiane nel 2023:

Ammontare degli investimenti: a dicembre 2023, sono stati investiti 87,4 milioni di euro in startup, distribuiti in 9 aumenti di capitale, portando il totale annuale a 1,15 miliardi;

Numero di deal: nel 2023, sono stati conclusi 173 deal, rispetto ai 202 del 2022 e ai 165 del 2021;

Settori in crescita: i settori che hanno ricevuto maggiori investimenti includono medtech, cleantech, biotech e tecnologie applicate al lavoro HR.
Distribuzione territoriale: La Lombardia ha mantenuto il ruolo di leader con il 39,3% degli investimenti totali, seguita dal Piemonte al secondo posto con il 12%.

Ulteriori dettagli sugli investimenti nelle startup italiane nel 2023:

  1. Investimenti per fase di sviluppo:
    • Seed stage: gli investimenti in questa fase sono stati di circa 200 milioni di euro, con 41 deal conclusi;
    • Early stage: in questa fase, gli investimenti hanno raggiunto circa 600 milioni di euro, con 80 deal;
    • Growth stage: gli investimenti in startup in questa fase sono stati di circa 350 milioni di euro, con 52 deal;
  2. Settori specifici:
    • Medtech: le startup medtech hanno ricevuto circa 150 milioni di euro di investimenti;
    • Cleantech: questo settore ha ottenuto circa 100 milioni di euro;
    • Biotech: le startup biotech hanno ricevuto circa 80 milioni di euro;
    • Tecnologie applicate al lavoro HR: questo settore ha ricevuto circa 70 milioni di euro;
  3. Investimenti esteri:
    • Nonostante la diminuzione complessiva degli investimenti, alcune startup italiane hanno attirato l’attenzione di investitori stranieri. Ad esempio, D-Orbit ha ricevuto un investimento di 100 milioni di euro da SpaceX;
  4. Sfide e opportunità:
    • La riduzione degli investimenti rappresenta una sfida per le startup italiane, ma ci sono ancora opportunità per l’innovazione e la crescita;
    • Le aziende italiane dovrebbero concentrarsi sulla diversificazione delle fonti di finanziamento, cercando anche investitori internazionali;
    • La collaborazione tra startup, università e istituzioni può favorire lo sviluppo di nuove tecnologie e soluzioni.

Ci sono piaciute: Hiro Robotics, SunCubes , Nutriafrica, Cap_able, Displaid, Soundsafe Care, Foreverland, Newtwen, Levelquantum, Aindo.

Ecco alcune informazioni sulle startup italiane menzionate:

  1. Hiro Robotics: si occupa del riciclaggio di rifiuti elettronici utilizzando robotica e intelligenza artificialeIl loro sistema robotico modulare consente di trattare oltre 60 monitor e TV all’ora, garantendo il 99% di recupero di materiali preziosi dai rifiuti elettronici;
  2. Soundsafe Care: questa startup combina ultrasuoni e robotica per disrupt i metodi convenzionali di chirurgiaLa loro tecnologia permette un trattamento chirurgico preciso grazie alla robotica e completamente non invasivo grazie agli ultrasuoni;
  3. Aindo: fondata nel 2018 e con sede nell’Area Science Park a Trieste, Aindo propone una soluzione che analizza i dati aziendali per creare dati sinteticiQuesti dati sintetici sono considerati una delle migliori soluzioni per affrontare la carenza di dati su cui addestrare l’intelligenza artificiale.

Queste startup stanno contribuendo all’innovazione nel campo dell’Intelligenza Artificiale e della robotica in Italia

In sintesi, nonostante le difficoltà, il panorama delle startup italiane continua a essere dinamico e promettente, con alcune aziende che si distinguono per la loro resilienza e capacità di adattamento.

In sintesi, la riduzione degli investimenti di venture capital rappresenta una sfida per le startup italiane, ma alcune aziende continuano a ottenere finanziamenti e a innovare nel panorama imprenditoriale.

Reuters : Alibaba Taglia i Prezzi in vista dell’ AI war

Quando Alibaba Group si è quotato in borsa alla Borsa di New York il 18 settembre 2014, il CEO Jack Ma ha detto dell’IPO da 25 miliardi di dollari da record: “Quello che abbiamo raccolto oggi non è denaro, è fiducia”.

Alibaba sta tagliando i prezzi per i suoi clienti cloud a livello globale fino al 59%, in un contesto di crescente concorrenza per respingere i rivali e attirare sviluppatori di software AI, ha riferito Reuters.

Il colosso tecnologico cinese ha affermato che i prodotti relativi all’informatica, allo storage, alla rete, ai database e ai big data vedranno in media una riduzione dei prezzi del 23%, aggiunge il rapporto di Reuters .

Queste riduzioni di prezzo riguardano circa 500 specifiche di prodotti cloud e gli sconti sono ora disponibili per i clienti in 13 regioni, tra cui Giappone, Indonesia, Emirati Arabi Uniti e Germania, ha riferito Bloomberg News .

Questa è la terza volta che l’azienda riduce i prezzi nell’ultimo anno.

A febbraio, Alibaba ha dichiarato che avrebbe effettuato una forte riduzione dei prezzi per i suoi servizi cloud, con l’obiettivo di recuperare utenti da concorrenti come Tencent , che competono per fornire gli strumenti necessari per addestrare l’intelligenza artificiale .

I giganti della tecnologia cinese Alibaba Group Holding e Tencent Holdings hanno investito congiuntamente 2,5 miliardi di yuan (342 milioni di dollari) in Zhipu, una startup di intelligenza artificiale con sede a Pechino .

Alibaba e Tencent, insieme ad altre importanti aziende cinesi come Ant Group, Xiaomi e Meituan, stanno supportando Zhipu nella sua missione di sviluppare alternative nazionali al ChatGPT di OpenAI .

Zhipu è tra le numerose startup cinesi che stanno lavorando attivamente su tecnologie di intelligenza artificiale generativa, con l’obiettivo di competere con attori riconosciuti a livello globale come OpenAI e Google.

Zhipu ha ottenuto l’approvazione iniziale del governo per un lancio pubblico in agosto e da allora ha rilasciato un modello open source e un chatbot chiamato Qingyan .

Pochi giorni dopo l’annuncio di Alibaba, anche JD.com  ha dichiarato che avrebbe tagliato i prezzi del cloud computing.

JD.com ha recentemente annunciato il lancio della sua iniziativa Spring Dawn migliorata, una solida suite di soluzioni per i commercianti di terze parti per aumentare i ricavi, inclusi nuovi servizi di intelligenza artificiale progettati per ridurre i costi operativi dei commercianti fino al 50%.

Dal suo lancio iniziale nel gennaio 2023, l’ iniziativa Spring Dawn è stata un catalizzatore di crescita, aumentando di 4,3 volte il numero di commercianti terzi sulla nostra piattaforma. Mentre ci avviciniamo all’accoglienza del nostro milionesimo partner commerciale, siamo entusiasti di lanciare la fase successiva dell’iniziativa.

Le riduzioni dei prezzi segnano le mosse aggressive di Alibaba per stare al passo con i rivali, tra cui Tencent e Baidu, nel business del cloud, e rischiano di iniziare una guerra dei prezzi in un settore già fortemente competitivo.

Secondo il rapporto di Reuters, gli attuali tagli dei prezzi rappresentano l’ultimo sforzo di Alibaba per attirare gli sviluppatori a creare modelli e applicazioni di intelligenza artificiale ad alta intensità di dati utilizzando i servizi cloud dell’azienda.

Lo scorso novembre, Alibaba ha annullato il progetto di spin-off del suo Cloud Intelligence Group, noto anche come Aliyun. La società ha affermato che l’espansione delle restrizioni statunitensi sull’esportazione di chip informatici avanzati ha creato incertezze sulle prospettive del business del cloud. Successivamente, Alibaba ha avviato un rinnovamento del business del cloud computing, coinvolgendo, tra le altre cose, veterani in nuove posizioni di leadership.

L’intelligenza artificiale ha il potenziale per trasformare vari settori, dai trasporti ai media e alla finanza, e potrebbe guidare una nuova fase di crescita economica.

Tuttavia, la tecnologia ha anche applicazioni militari e governative, il che potrebbe complicare ulteriormente il già teso rapporto tra Washington e Pechino.

Intelligenza Artificiale: dati e statistiche

In questo articolo condivideremo statistiche sulle dimensioni del mercato e su come le aziende utilizzano l’Intelligenza Artificiale per migliorare l’esperienza del cliente e risparmiare denaro, oltre a fornire uno sguardo su ciò che il futuro potrebbe riservarci in un mondo di AI.

Statistiche sulla strategia di intelligenza artificiale del governo #
Nel marzo 2017, il Canada ha lanciato la prima strategia nazionale sull’Intelligenza Artificiale al mondo. 5 anni dopo, a dicembre 2022, quasi un terzo dei governi globali (62 paesi) aveva implementato un approccio simile.

In base all’analisi delle strategie governative di Intelligenza Artificiale per Paese emerge che, tra il 2019 e il 2023, il governo degli Stati Uniti ha investito di più nell’AI, rispetto ad altri paesi, con quasi 328 miliardi di dollari. Si tratta di circa 195 miliardi di dollari in più di quanto investito nello stesso periodo dalla Cina, che si posiziona al secondo posto al mondo in termini di investimenti nel settore.

Gli investimenti di entrambi i Paesi fanno impallidire il valore di 25,5 miliardi di dollari investiti nello stesso periodo dal Regno Unito, terzo classificato nella classifica, con quasi 13 volte meno il volume totale degli investimenti fatto dagli Stati Uniti. 

Una ripartizione delle statistiche sugli investimenti pubblici nell’AI per Paese #

PaeseSomma degli investimenti negli ultimi 5 anni (milioni di dollari)Investimenti negli ultimi 5 anni (per mille dollari di PIL)Investimenti negli ultimi 5 anni, come percentuale degli investimenti negli Stati Uniti (per mille dollari di PIL)
Singapore7.00515.01116,30
Svezia8.28114.13109,53
Stati Uniti328.54812.90100,00
Estonia41510.8984.44
UK25.5418.3264.46
Cina132.6657.3957.24
Corea del Sud10.3486.2148.16
Canada12.4575.8245.12
India16.1474.7736,97
Svizzera3.2394.0131.08

(Fonte: AIPRM tramite OCSE e Banca Mondiale)

Quando le statistiche sugli investimenti nell’Intelligenza Artificiale vengono giudicate rispetto al PIL del Paese, Singapore risulta essere la migliore. Nonostante abbiano investito una modesta cifra di 7 miliardi di dollari rispetto ad altre nazioni, ciò rappresenta più del 15% della loro ricchezza relativa per mille dollari di Pil.

Singapore è seguita dalla Svezia, con investimenti che rappresentano il 14,13% del suo Pil speso nello sviluppo dell’Intelligenza Artificiale.

Al contrario, gli Stati Uniti investono un valore pari a circa il 12,9% del Pil nello sviluppo della propria infrastruttura di Intelligenza Artificiale, rispetto all’8,32% del Regno Unito

In termini di confronto tra gli investimenti nell’Intelligenza Artificiale tra Paesi e gli Stati Uniti, Singapore è ancora una volta all’avanguardia. Con il 116,3%, ciò significa che il tasso di investimenti nell’AI da parte del governo di Singapore è di circa il 16% in più rispetto alle controparti statunitensi (in termini relativi per miliardo di Pil). Allo stesso modo, la Svezia si attesta al 109,53%, essendo l’unica altra nazione che investe più degli Stati Uniti nell’Intelligenza Artificiale, in termini di ricchezza relativa.

In confronto, il livello di investimenti nell’Intelligenza Artificiale del Regno Unito tra il 2019 e il 2023 è pari al 64,46% (rispetto al Pil degli Stati Uniti), il che significa che durante questo periodo è stata effettuata quasi un terzo in meno della spesa per l’Intelligenza Artificiale in relazione finanziaria agli Stati Uniti.

Quanto dovrebbe investire ciascun paese nell’intelligenza artificiale per raggiungere gli Stati Uniti?

Sulla base degli attuali livelli di spesa, è molto probabile che la Cina raggiunga gli Stati Uniti in termini di investimenti nell’Intelligenza Artificiale. Per raggiungere questo obiettivo entro il 2030, la Cina dovrebbe spendere oltre 94 miliardi di dollari nella sua infrastruttura di Intelligenza Artificiale entro la fine del decennio per raggiungere lo stesso livello di investimenti degli Stati Uniti. 

Una ripartizione delle statistiche sugli investimenti nell’intelligenza artificiale e quanto ogni Paese dovrebbe spendere nell’Intelligenza Artificiale per raggiungere gli Stati Uniti entro il 2030, 2040 e 2050#

PaeseRecuperare il ritardo entro il 2030 (milioni di dollari)Recuperare il ritardo entro il 2040 (milioni di dollari)Recuperare il ritardo entro il 2050 (milioni di dollari)
Cina94.23799.242117.915
Regno Unito157.923157.408182.527
India162.589161.996187.814
Israele163.436163.180189.369
Germania163.821163.483189.676
Canada164.441164.243190.634
Corea165.430165.066191.502
Francia165.637165.342191.858
Svezia166.289165.715192.143
Singapore167.118166.934193.766

(Fonte: AIPRM tramite OCSE e Banca Mondiale)

Il Regno Unito è il secondo Paese più propenso a raggiungere gli Stati Uniti in termini di investimenti nell’Intelligenza Artificiale. Tuttavia, per raggiungere questo obiettivo dovrebbero spendere altri 157,9 miliardi di dollari entro il 2030.  

Sulla base dei livelli di investimenti nell’Intelligenza Artificiale nel 2023, quanto tempo occorrerebbe ai Paesi per raggiungere gli Stati Uniti? #

PaeseRaggiungere gli Stati Uniti nel 2030 (anni)Al passo con gli Stati Uniti nel 2040 (anni)Raggiungere gli Stati Uniti nel 2050 (anni)
Cina143872
Regno Unito79195361
India119291538
Israele141344636
Germania145355656
Canada164400740
Corea183447825
Francia193472872
Svezia200486897
Singapore2746661.231

(Fonte: AIPRM tramite OCSE e Banca Mondiale)

A partire dal 2023, la Cina è il paese che con maggiori probabilità raggiungerà gli Stati Uniti in termini percentuale di spesa in base al Pil per l’Intelligenza Artificiale.

Supponendo che la Cina mantenga lo stesso livello di investimenti nell’AI a partire dal 2023, ci vorrebbero 14 anni (fino al 2037) per raggiungere lo stesso livello di investimenti degli Stati Uniti nel settore. Se la Cina riuscisse a mantenere questo livello di spesa nel futuro, impiegherebbe 38 anni (fino al 2061) per raggiungere il livello a sua volta raggiunto dagli Stati Uniti nel 2040, e altri 34 anni (fino al 2095) per raggiungere il livello raggiunto dagli Stati Uniti nel 2050.

Analizzando i dati da questo punto di vista, ciò significa che, entro la fine del secolo, la Cina potrebbe essere 45 anni indietro rispetto all’America in termini di investimenti nell’Intelligenza Artificiale (se continuerà a investire la stessa quantità di denaro anno dopo anno come nel 2023).

Il Regno Unito è il secondo Paese meglio posizionato per raggiungere gli Stati Uniti in termini di investimenti nell’Intelligenza Artificiale. Tuttavia, se il Regno Unito dovesse mantenere lo stesso livello di spesa per l’intelligenza artificiale del 2023, ci vorrebbe fino al 2102 per raggiungere il livello in cui si troveranno gli Stati Uniti nel 2030 (72 anni indietro in termini di sviluppo dell’AI).   

Una ripartizione della conoscenza pubblica dell’AI tra diversi Paesi#

Grafico a barre che mostra la conoscenza pubblica dell'IA tra diversi paesi

Nel complesso, i Paesi asiatici tendono a mostrare una maggiore conoscenza soggettiva dell’Intelligenza Artificiale, con Corea del Sud e Cina in testa (rispettivamente 85% e 82%). Nonostante ciò, solo un quarto (25%) della popolazione giapponese ha una conoscenza elevata o moderata della tecnologia: il dato più basso riportato in tutti i paesi inclusi nello studio di KPMG.

In confronto, le statistiche sull’Intelligenza Artificiale rivelano che meno della metà (45%) degli americani ritiene di avere un livello alto o moderato di conoscenza dell’AI, con quasi tre quarti (73%) che desiderano saperne di più sul tema.

I Paesi in cui le persone desiderano maggiormente ampliare le proprie conoscenze sull’Intelligenza Artificiale sono Cina (96%) e Israele (94%). Al contrario, poco più della metà (55%) della popolazione giapponese vuole saperne di più sull’Intelligenza Artificiale, il dato più basso riportato nello studio. 

Una ripartizione della conoscenza pubblica dell’AI tra diversi gruppi demografici#

Grafico a farfalla che mostra la conoscenza pubblica dell'IA tra diversi gruppi demografici

Analizzando poi i dati sulla base dell’età della popolazione, scopriamo che la generazione Z e i Millennials mostrano un livello maggiore di conoscenza soggettiva dell’Intelligenza Artificiale rispetto alle loro controparti più anziane. Quasi tre intervistati su cinque, il 57% di tutti coloro che hanno un’età compresa tra 18 e 39 anni ritengono di avere un livello elevato o moderato di conoscenza dell’AI, rispetto al 50% delle persone tra i 40 e i 55 anni e al 39% degli over 56.

La Gen Z e i Millenial sono anche i più desiderosi di saperne di più sull’Intelligenza Artificiale (86%), rispetto al 79% della Gen X e al 76% della generazione dei Boomers.

Tra tutti, le persone con un’istruzione universitaria mostrano una conoscenza dell’Intelligenza Artificiale maggiore di un terzo rispetto a coloro che non hanno frequentato l’università (62% contro 40%) e hanno un maggiore livello di entusiasmo nell’apprendere di più di questa tecnologia (86% contro 77%).

Gli uomini mostrano un livello più elevato di conoscenza soggettiva dell’AI rispetto alle donne (60% contro 40%) e un maggiore desiderio di saperne di più sul tema (84% contro 79%).

La conoscenza percepita dell’AI tende ad aumentare man mano che i lavoratori diventano più qualificati. Ad esempio, due lavoratori manuali su cinque (40%) ritengono di avere una conoscenza dell’Intelligenza Artificiale da moderata a elevata rispetto a circa due terzi (67%) dei manager. Anche il desiderio di espandere la conoscenza dei temi legati all’Intelligenza Artificiale segue un modello simile, ma con cifre molto più vicine tra i gruppi (77% per gli operai rispetto all’88% per i manager).

Interessante anche il tema legato alla Diversity, che rileva come la maggior parte degli iscritti a PhD sull’AI negli Usa siano bianchi, con le componenti ispaniche e di colore della popolazione americana largamente sottorappresentate.

Secondo un sondaggio McKinsey, nonostante le crescenti richieste di attenzione verso i temi etici associati all’uso dell’Intelligenza Artificiale, le aziende mostrano un’attenzione limitata all’equità nell’AI.

L’evoluzione della strategia globale sull’Intelligenza Artificiale è, come abbiamo visto, un fenomeno degno di nota che rivela la crescente consapevolezza e l’importanza attribuita a questa tecnologia a livello internazionale, con gli Stati Uniti che ricoprono un ruolo preminente nel settore rispetto ad altre nazioni, anche se l’analisi demografica della conoscenza della tematica solleva la necessità di promuovere la diversità e l’inclusione nel settore. Affrontare queste disparità non solo migliorerà la rappresentatività e la competenza dell’Intelligenza Artificiale, ma contribuirà anche a garantire un approccio più ampio e inclusivo alla risoluzione dei problemi e all’innovazione tecnologica.

Le decisioni di Sundar Pichai (GOOGLE) sull’AI

Sundar Pichai, l’Amministratore Delegato di Google , sta apparentemente adottando un approccio diretto nell’incorporare l’intelligenza artificiale generativa nei prodotti dell’azienda, secondo quanto riportato dal Financial Times. Da quando ha preso il posto del co-fondatore di Google, Larry Page, nel mese di agosto 2015, Pichai è essenzialmente diventato il capo del prodotto AI dell’azienda.

Prima di diventare CEO, Pichai ha ricoperto il ruolo di Chief Product Officer di Google. Sia lui che Google hanno affrontato richieste di essere più assertivi e innovativi nel loro processo decisionale.

Il prodotto AI generativo dell’azienda, Gemini, è stato criticato per aver prodotto risultati di immagini prevenute e per la sua lenta integrazione nel prodotto di ricerca di Google, soprattutto di fronte alla concorrenza di OpenAI supportato da Microsoft e altri.

Google sta attualmente testando la sua esperienza generativa di ricerca nel Regno Unito, come riportato dalla BBC.

Ci sono anche rapporti che Google sta considerando di introdurre un paywall per alcune funzionalità di ricerca AI generative, mentre le funzionalità di ricerca tradizionali rimarrebbero gratuite.

La Bank of America ha recentemente suggerito che l’introduzione di un paywall per le funzionalità AI generative potrebbe dare a Google un po’ di respiro per affinare la sua narrazione AI e compensare alcuni dei costi associati alla tecnologia.

Il business di ricerca tradizionale di Google ha generato 175 miliardi di dollari di entrate l’anno scorso, rappresentando oltre la metà del fatturato totale dell’azienda.

Meta Platforms ha annunciato che sta apportando cambiamenti nel suo approccio nei confronti dei contenuti generati dall’AI

“Prevediamo di iniziare a etichettare i contenuti generati da IA a partire da maggio 2024 e smetteremo di rimuovere i contenuti esclusivamente sulla base della nostra politica sui video manipolati a luglio”, ha dichiarato Meta in un post sul blog. “Questa tempistica dà alle persone il tempo di comprendere il processo di auto-rivelazione prima che smettiamo di rimuovere la piccola sottoinsieme di media manipolati.”

La politica ora si applica a immagini, video o audio che sono stati “creati o alterati digitalmente”.

In precedenza, Meta rimuoveva i video che erano stati modificati o cambiati secondo la sua “politica sui media manipolati”.

“Siamo d’accordo con la raccomandazione del Consiglio di Supervisione che fornire trasparenza e contesto aggiuntivo è ora il modo migliore per affrontare i media manipolati e evitare il rischio di limitare inutilmente la libertà di parola, quindi manterremo questo contenuto sulle nostre piattaforme in modo da poter aggiungere etichette e contesto”, ha aggiunto Meta nel post sul blog.

Il cambiamento della politica arriva dopo che il suo Consiglio di Supervisione indipendente ha detto a febbraio che la sua politica sui media manipolati era “incoerente”.

Aggiungendo ulteriori informazioni, Meta ha annunciato che inizierà a etichettare un’ampia gamma di contenuti video, audio e immagini come “Made with AI” quando rileva indicatori di immagini AI standard del settore o quando le persone rivelano che stanno caricando contenuti generati da IA.

Questo cambiamento è stato influenzato dalle raccomandazioni del Consiglio di Supervisione e da un processo di revisione delle politiche che includeva sondaggi di opinione pubblica e consultazioni con accademici e organizzazioni della società civile.

L’impronta di carbonio dell’Intelligenza Artificiale è più grande di quanto pensi, affermano le scienziate del MIT

Non sono io a dirlo ma alcune studiose del MIT. Sasha Luccioni, con Emma Strubell e Yacine Jernite, hanno testato 88 modelli su 30 set di dati da 10 attività diverse con modalità diverse e hanno trovato cose davvero interessanti:

  • I compiti generativi e quelli che coinvolgono le immagini consumano più energia e carbonio rispetto ai compiti discriminativi e a quelli che coinvolgono il testo. Abbiamo scoperto che Stable Diffusion XL utilizza quasi 1 carica telefonica di energia per generazione.
  • La formazione continua ad essere molto più ad alta intensità di energia e di carbonio rispetto all’inferenza. Sono necessari dai 200 ai 500 milioni di deduzioni da un modello della famiglia BLOOM per raggiungere la quantità di energia utilizzata durante l’allenamento. Ma questo può essere raggiunto abbastanza velocemente per un modello popolare utilizzato da milioni di utenti, come ChatGPT.

L’utilizzo di modelli multiuso per compiti discriminativi richiede un maggiore dispendio energetico rispetto ai modelli specifici per compiti per gli stessi compiti. Ciò è particolarmente vero per l’analisi del sentiment e la risposta alle domande. La differenza può essere un fattore di 30 volte a seconda del set di dati.

Ma c’è una cosa di cui la gente non parla abbastanza, ed è l’impronta di carbonio dell’Intelligenza Artificiale. Uno dei motivi è che le grandi aziende tecnologiche non condividono l’impronta di carbonio della formazione e dell’utilizzo dei loro enormi modelli, e non disponiamo di  metodi standardizzati per misurare  le emissioni di cui è responsabile l’intelligenza artificiale. E anche se sappiamo che  addestrare modelli di Intelligenza Artificiale è altamente inquinante , le emissioni attribuibili all’utilizzo  dell’Intelligenza  Artificiale finora sono state un tassello mancante. Cioè, fino ad ora. 

In un nuovo studio condotto dai ricercatori della startup AI Hugging Face e della Carnegie Mellon University, generare un’immagine utilizzando un potente modello di Intelligenza Artificiale richiede la stessa quantità di energia necessaria per caricare completamente uno smartphone. Tuttavia, hanno scoperto che l’utilizzo di un modello di Intelligenza Artificiale per generare testo richiede molta meno energia. La creazione di testo 1.000 volte consuma solo il 16% della carica completa di uno smartphone.

Il loro lavoro, che deve ancora essere sottoposto a revisione paritaria, mostra che, sebbene l’addestramento di enormi modelli di Intelligenza Artificiale richieda un’enorme quantità di energia, è solo una parte del quadro. La maggior parte della loro impronta di carbonio deriva dal loro utilizzo effettivo.

Lo studio segna la prima volta che i ricercatori calcolano le emissioni di carbonio causate dall’utilizzo di un modello di Intelligenza Artificiale per vari compiti, secondo Sasha Luccioni, ricercatrice di intelligenza artificiale presso Hugging Face che ha guidato il lavoro. Spera che la comprensione di queste emissioni possa aiutarci a prendere decisioni informate su come utilizzare l’intelligenza artificiale in un modo più rispettoso del pianeta.

Il consumo di energia e l’impronta di carbonio dell’intelligenza artificiale sono un argomento sempre più importante con la crescita dell’uso dei sistemi di intelligenza artificiale.

Il consumo energetico dei sistemi di Intelligenza Artificiale può essere suddiviso in due fasi principali: addestramento e inferenza.

La fase di formazione, che prevede l’insegnamento del modello di Intelligenza Artificiale utilizzando grandi quantità di dati, è in genere più dispendiosa in termini di energia.

La fase di inferenza, che prevede l’utilizzo del modello addestrato per effettuare previsioni o decisioni, generalmente consuma meno energia ma può comunque accumularsi nel tempo, soprattutto per i sistemi che effettuano previsioni frequenti.

Il consumo energetico dei sistemi di Intelligenza Artificiale è in gran parte determinato dall’hardware e dall’infrastruttura che utilizzano. Ciò include i computer e i server utilizzati per l’addestramento e l’inferenza, nonché i data center che ospitano questi sistemi. Hardware e infrastrutture più efficienti dal punto di vista energetico possono ridurre significativamente il consumo di energia e l’impronta di carbonio dei sistemi di intelligenza artificiale.

La generazione di immagini è di gran lunga l’attività basata sull’Intelligenza Artificiale più dispendiosa in termini di energia e carbonio.

La generazione di 1.000 immagini con un potente modello di intelligenza artificiale, come Stable Diffusion XL, è responsabile della produzione di una quantità di anidride carbonica pari a quella di guidare l’equivalente di 4,1 miglia in un’auto media a benzina.

L’impronta di carbonio dei sistemi di Intelligenza Artificiale dipende anche dalle fonti energetiche utilizzate per alimentarli. I sistemi di Intelligenza Artificiale alimentati da fonti di energia rinnovabile, come l’energia eolica o solare, hanno un’impronta di carbonio inferiore rispetto a quelli alimentati da combustibili fossili.

ESG – La ricerca di Luccioni evidenzia anche come le emissioni legate all’uso dell’intelligenza artificiale dipenderanno da dove verrà utilizzata, afferma Jesse Dodge, ricercatore presso l’Allen Institute for AI, che non ha preso parte allo studio. L’impronta di carbonio dell’intelligenza artificiale in luoghi in cui la  rete elettrica è relativamente pulita, come la Francia , sarà molto inferiore rispetto a luoghi con una rete fortemente dipendente dai combustibili fossili, come alcune parti degli Stati Uniti.

Esistono varie strategie per rendere i sistemi di AI più efficienti dal punto di vista energetico, come l’utilizzo di modelli più piccoli, l’ottimizzazione di algoritmi per l’efficienza energetica o l’utilizzo di tecniche come la potatura o la quantizzazione per ridurre i requisiti computazionali dei modelli di AI.

Politiche e normative: le politiche e le normative possono svolgere un ruolo chiave nel ridurre il consumo di energia e l’impronta di carbonio dell’AI. Ciò potrebbe comportare la definizione di standard di efficienza energetica per i sistemi di intelligenza artificiale, l’incentivazione dell’uso di energie rinnovabili o la richiesta alle aziende di segnalare e ridurre le proprie emissioni di carbonio.

Ecco alcuni numeri che evidenziano il consumo energetico e l’impronta di carbonio dell’AI:

Uno studio pubblicato su Nature Climate Change nel 2019 ha stimato che l’addestramento di un singolo modello di intelligenza artificiale può emettere tanto carbonio quanto cinque automobili nel corso della loro vita. Ciò equivale a circa 284.000 libbre (129.000 chilogrammi) di anidride carbonica.
Secondo un rapporto del 2020 dell’Agenzia internazionale per l’energia (IEA), i data center, che ospitano molti sistemi di intelligenza artificiale, rappresentano circa l’1% del consumo globale di elettricità. Ciò equivale all’incirca al consumo di elettricità dell’intero paese dell’Australia.

Uno studio del 2020 condotto da ricercatori dell’Università del Massachusetts, Amherst, ha stimato che l’energia utilizzata per l’inferenza dell’intelligenza artificiale nei data center potrebbe rappresentare il 2,5% del consumo globale di elettricità entro il 2030.


Un rapporto del 2020 di OpenAI ha rilevato che la quantità di potenza di calcolo utilizzata nelle più grandi sessioni di formazione sull’intelligenza artificiale è raddoppiata ogni 3,4 mesi dal 2012. Tuttavia, il rapporto ha anche osservato che i miglioramenti nell’efficienza dell’hardware hanno aiutato per compensare parte di questo aumento del consumo di energia.

Alcune aziende di intelligenza artificiale stanno compensando le proprie emissioni di carbonio. Ad esempio, Google è a zero emissioni di carbonio dal 2007 e mira a operare con energia priva di emissioni di carbonio 24 ore su 24, 7 giorni su 7 in tutti i suoi data center e campus in tutto il mondo entro il 2030.

L’Unione Europea ha fissato l’obiettivo di ridurre le proprie emissioni di gas serra di almeno il 55% entro il 2030 rispetto ai livelli del 1990, e di raggiungere l’azzeramento delle emissioni nette entro il 2050. Questi obiettivi potrebbero portare a riduzioni il consumo energetico e l’impronta di carbonio dell’intelligenza artificiale nell’UE.

L’Industria dell’Intelligenza Artificiale: un investimento costoso ma necessario

Nel 2000 scoppiò la bolla delle dot-com, ponendo fine a un periodo di cinque anni di valutazioni in rialzo e di crescente entusiasmo degli investitori per le numerose applicazioni del World Wide Web. 

A partire dal 2018 si è assistito alla creazione di un boom stranamente simile, questa volta incentrato sull’Intelligenza Artificiale (AI).

L’ Organizzazione per la cooperazione e lo sviluppo economico (OCSE), stima che gli investimenti in capitale di rischio nell’Intelligenza Artificiale abbiano registrato una crescita costante dal 2012, raggiungendo i 42 miliardi di dollari (una quota del 57% del totale globale) nel 2020. 

L’industria dell’Intelligenza Artificiale sta crescendo ad un ritmo senza precedenti, alimentando l’innovazione in settori che vanno dalla sanità alla finanza.

Le stime di Dan Nystedt, riportate su X, svelano che al momento gli ordini di NVIDIA ammontano all’11% del fatturato di TSMC: nel 2023 NVIDIA avrebbe pagato 7,73 miliardi di Dollari a TSMC per i suoi chip.

Le valutazioni, sia per Nvdia produttore di chip statunitense che per i colossi tecnologici che ne fanno uso per addestrare i loro modelli di AI (un gruppo conosciuto come i Magnifici Sette) sono salite alle stelle, generando preoccupazioni tra gli investitori che temono la formazione di una bolla.

Tuttavia, dietro questa crescita c’è un costo significativo. Secondo una presentazione recente della società di venture capital Sequoia, l’industria dell’AI ha speso 50 miliardi di dollari in chip Nvidia utilizzati per addestrare modelli di AI avanzati solo l’anno scorso, ma ha generato solo 3 miliardi di dollari di entrate (dati: WSJ).

QUANTO STIAMO SPENDENDO E QUAL È L’INCIDENZA DEI COSTI INFORMATICI SULLE VARIABILI DI BUSINESS ?

L’addestramento dei modelli di AI richiede una grande quantità di potenza di calcolo. I chip Nvidia, noti per le loro capacità di elaborazione parallela, sono ampiamente utilizzati in questo campo. Tuttavia, l’acquisto di questi chip rappresenta un investimento significativo. Con 50 miliardi di dollari spesi in un anno, è chiaro che l’industria dell’Intelligenza Artificiale sta investendo pesantemente in questa tecnologia.

Il ROI Ritorno sull’Investimento

Nonostante l’ingente investimento, l’industria dell’AI ha generato solo 3 miliardi di dollari di entrate. Questo potrebbe sollevare interrogativi sulla sostenibilità di tali investimenti. Tuttavia, è importante notare che l’Intelligenza Artificiale è un campo in rapida evoluzione e gli investimenti di oggi possono portare a scoperte rivoluzionarie in futuro.

Guardando al Futuro

Lo scienziato cognitivo Guy Marcus ha affermato in un post recente che il settore dell’Intelligenza Artificiale sta attualmente affrontando tre problemi fondamentali: uno, un software che costa molto da sviluppare ma non genera rendimenti adeguati; due, il software ha profondi difetti di sicurezza; tre, le allucinazioni non scompariranno, rendendo quel software inaffidabile per una serie di casi d’uso. 

Nonostante l’apparente squilibrio tra costi e ricavi, l’industria dell’AI continua a crescere. L’investimento in tecnologia è visto come un passo necessario verso il progresso. Mentre l’Intelligenza Artificiale continua a svilupparsi, è probabile che vedremo un aumento dell’efficienza e, sperabilmente, un ritorno sull’investimento più elevato.

In conclusione, l’industria dell’AI sta facendo scommesse audaci sul futuro. Solo il tempo dirà se questi investimenti porteranno i frutti sperati. Ma una cosa è certa: l’Intelligenza Artificiale sta cambiando il mondo come lo conosciamo, e questo è un viaggio che vale la pena di fare, nonostante il costo.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Google DeepMind ha recentemente presentato Mixture-of-Depths (MoD), un metodo che aumenta la velocità di elaborazione fino al 50%

Google DeepMind ha recentemente presentato Mixture-of-Depths (MoD), un metodo che aumenta la velocità di elaborazione fino al 50% in compiti come l’elaborazione del linguaggio naturale e la previsione di sequenze complesse.

La maggior parte della potenza di calcolo viene sprecata perché non tutti i token sono ugualmente difficili da prevedere. Questo nuovo metodo assegna dinamicamente il calcolo nei modelli transformer, ottimizzando l’uso delle risorse pur garantendo l’accuratezza. Elabora selettivamente i token complessi e salta quelli più semplici, riducendo significativamente il sovraccarico computazionale.

All’interno dei computer, i testi come quelli prodotti da ChatGPT sono rappresentati in forma numerica, e ogni operazione eseguita su di essi è un’enorme sequenza di semplici operazioni matematiche.

Dato che i numeri decimali sono rappresentati in formato “floating point” (“a virgola mobile”), è naturale contare quante operazioni elementari (per esempio addizioni) su tali numeri possono essere eseguite in un certo tempo: floating point operations, ovvero FLOPs

transformers sono modelli di apprendimento automatico basati sull’attenzione (attention-based) per elaborare sequenze di input, come le sequenze di parole in un testo. L’attenzione permette al modello di dare maggiore peso a determinate parti dell’input, in modo da prestare maggiore attenzione a informazioni rilevanti e ignorare informazioni meno importanti.

Questa capacità di prestare attenzione a parti specifiche dell’input rende i transformers particolarmente adatti all’elaborazione del linguaggio naturale, dove l’informazione rilevante può essere dispersa all’interno di una sequenza di parole.

I modelli di linguaggio basati su transformer distribuiscono uniformemente i FLOP attraverso le sequenze di input.

In questo lavoro, i ricercatori dimostrano che i transformer possono invece imparare a assegnare dinamicamente i FLOP (o calcoli) a posizioni specifiche in una sequenza, ottimizzando l’allocazione lungo la sequenza per diversi strati attraverso la profondità del modello. Il nostro metodo impone un budget totale di calcolo limitando il numero di token (k) che possono partecipare ai calcoli di self-attention e MLP in un dato strato.

I token da elaborare sono determinati dalla rete utilizzando un meccanismo di instradamento top-k. Poiché k è definito a priori, questa semplice procedura utilizza un grafo di calcolo statico con dimensioni di tensori note, a differenza di altre tecniche di calcolo condizionale. Tuttavia, poiché le identità dei token k sono fluide, questo metodo può sprecare i FLOP in modo non uniforme attraverso le dimensioni del tempo e della profondità del modello.

Quindi, la spesa di calcolo è completamente prevedibile nel totale complessivo, ma dinamica e sensibile al contesto a livello di token. Non solo i modelli addestrati in questo modo imparano a assegnare dinamicamente il calcolo, ma lo fanno in modo efficiente. Questi modelli corrispondono alle prestazioni di base per FLOP equivalenti e tempi di addestramento, ma richiedono una frazione dei FLOP per passaggio in avanti e possono essere più veloci del 50% durante il campionamento post-addestramento.

Questo documento è un altro promemoria che i Modelli di Linguaggio a Lungo Termine (LLM) sono ancora nelle loro prime fasi: lenti, ampi e inefficienti. Creare modelli economici e veloci aprirà un mondo di possibilità, come la capacità di eseguire modelli localmente sui nostri telefoni e GPU. Potrebbe anche ridurre drasticamente i costi di addestramento e esecuzione degli LLM.

Google DeepMind published a paper outlining SELF-DISCOVER, a somewhat of a novel take on LLM reasoning.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Economia dei dati nell’Intelligenza Artificiale: strategie per l’indipendenza tecnologica. Convegno Seeweb il 16 Aprile 2024

Come promuovere una filiera italiana nell’Intelligenza Artificiale?

E’ un tema di straordinaria attualità che richiede non solo un’attenta analisi e un’accurata pianificazione ma una vera e propria strategia a livello Paese. Occorre investire in ricerca e sviluppo e creare un ambiente favorevole per la crescita di soluzioni AI italiane valorizzando la nostra filiera industriale, le imprese ad alto valore tecnologico e le competenze acquisite. Tutto ciò per salvaguardare l’indipendenza tecnologica requisito fondamentale per tutelare la sovranità nazionale e uno sviluppo concreto dell’industria italiana dell’Intelligenza Artificiale. Serve poi anche una struttura di finanziamenti che sia in grado di supportare questo sviluppo con adeguati investimenti.

Di questo e altro si parlerà il prossimo 16 aprile 2024 nel convegno L’economia dei dati nell’Intelligenza Artificialeorganizzato da Seeweb, nel corso del quale verrà presentato uno studio sugli impatti economici dell’Intelligenza Artificiale nel nostro Paese e si discuteranno le migliori strategie per incentivare modelli italiani di intelligenza artificiale, che possano assicurare il progresso tecnologico e la sostenibilità del nostro ecosistema, in modo da raggiungere l’indipendenza tecnologica e garantire una governance etica al settore.

Tra i temi che verranno affrontati la necessità di garantire l’accesso e la trasparenza ai dati che si usano per allenare sistemi di intelligenza artificiale; riconoscere maggiori poteri alle Autorità Antitrust per prevenire fenomeni distorsivi ricorrenti; prevenire la concentrazione del mercato dall’AI attraverso l’applicazione di misure che ostacolino l’estensione della dominanza sui mercati ancillari; il divieto di utilizzo di “crediti cloud” in forma di voucher da scontare nell’acquisto di servizi cloud dalle piattaforme dominanti; favorire una commessa pubblica che sia indirizzata a sviluppare aziende italiane della filiera dell’intelligenza artificiale.

Interverranno al convegno figure del mondo della formazione scientifica, delle istituzioni e del mondo dell’industria. Tra queste, il il Ceo di Seeweb Antonio Baldassarra , il prof. Ranieri Razzante, Comitato per la strategia dell’IA presso la Presidenza del Consiglio, Massimo Chiriatti, Chief Technology e Innovation Officer Lenovo assieme ad un panel scientifico composto dalla professoressa Simonetta Vezzoso, Università di Trento, dal prof. Giovanni Maria Riccio, E-Lex, dal prof. Daniele Nardi, CINI e dalla professoressa Giusella Finocchiaro, Ordinaria di Diritto di Internet e di Diritto Privato presso l’Università di Bologna.

L’evento si svolgerà a Roma martedì 16 aprile, a partire dalle ore 9:30, nella sede dell’Istituto Don Luigi Sturzo, Palazzo Baldassini, in Via delle Coppelle 25.

Per le iscrizioni si può utilizzare il seguente link: https://eventi.seewebcloud.com/


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Il terremoto a Taiwan ferma le fabbriche dei chip

Uno dei terremoti più potenti degli ultimi 25 anni a Taiwan, 7,4 gradi di magnitudo, oltre a provocare il crollo di diversi edifici, diversi morti e il ferimento di numerose persone ha, tra le altre cose, interrotto la produzione di chip.

Le potenziali ripercussioni per l’industria tecnologica mondiale sono significative a causa del ruolo fondamentale che Taiwan svolge nella produzione di chip avanzati, che sono alla base di tutte le moderne tecnologie, dai pc agli smartphone, dai veicoli elettrici ai sistemi di Intelligenza Artificiale.

Aziende come TSCM Taiwan Semiconductor Manufactoring Co. e United Microelectronics Corp. che sono tra i più grandi produttori di chip avanzati per realtà come Nvidia e Apple hanno fermato la produzione nei propri stabilimenti che sono stati evacuati. Tecnicamente, con una produzione che va dall’80 al 90% dei chip di fascia alta, Taiwan rappresenta il tallone d’Achille dell’industria dei semiconduttori.

Da questo punto di vista se consideriamo che la totalità degli ordini di Nvidia sono gestiti da TSMC si capisce che anche brevi interruzioni della fornitura possono avere ripercussioni amplificate su tutto il settore dell’Intelligenza Artificiale. E la criticità non dipende solo da quanti stabilimenti sono o saranno effettivamente interessati dalla chiusura e per quanto tempo. Occorre anche considerare i danni che il sisma ha provocato alle infrastrutture di Taiwan e i potenziali effetti sulla logistica che potrebbe subire un contraccolpo.

E uno scenario già visto con le interruzioni nella catena di produzione dei chip causate dalla pandemia. Nonostante ciò, poco è stato fatto da parte dei Paesi occidentali, Stati Uniti ed Europa in primis, per risolvere questa criticità e delocalizzare da Taiwan la produzione di chip avanzati. Rischiamo, ora, di pagarne, ancora una volta, le conseguenze.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

AB-331 il D.L. dalla California contro la discriminazione algoritmica

La California si pone in prima linea nell’affrontare le sfide legate all’Intelligenza Artificiale (AI), con particolare attenzione alla sicurezza e all’equità. Le iniziative legislative proposte mirano a regolamentare l’uso dell’AI sul luogo di lavoro e ad adattare le norme del lavoro per affrontare l’utilizzo di sistemi decisionali automatizzati.

Tuttavia, la sua più recente iniziativa adotta un approccio ancora più ampio, cercando di regolamentare gli strumenti utilizzati per prendere decisioni di vita rilevanti.

Nel gennaio del 2023, la membro dell’assemblea della California Rebecca Bauer-Kahan ha presentato il disegno di legge AB-331, che mira a vietare l’uso di strumenti decisionali automatizzati che contribuiscono alla discriminazione algoritmica.

Questa forma di discriminazione si verifica quando i sistemi algoritmici producono risultati sfavorevoli per le persone in base a caratteristiche come razza, colore, etnia, sesso, religione, età, origine nazionale, conoscenza limitata dell’inglese, disabilità, stato di veterano, informazioni genetiche, salute riproduttiva o altre classificazioni protette dalla legge statale.

Prima di essere sottoposto a revisione, il testo originale del disegno di legge vietava l’uso di strumenti decisionali automatizzati che contribuivano alla discriminazione. Tuttavia, in seguito a revisioni, le attività proibite sono state specificate in modo più dettagliato.

Attualmente, il disegno di legge è in fase di presentazione e potrebbe richiedere alcuni mesi prima di essere esaminato dalla commissione. Tuttavia, se approvato, avrebbe implicazioni significative per gli sviluppatori e gli utilizzatori di tali tecnologie.

Questo tipo di legislazione è cruciale per garantire che l’AI sia utilizzata in modo responsabile e equo, proteggendo i diritti e le libertà individuali. Nel seguito, presentiamo 10 punti chiave riguardanti il disegno di legge AB-331.

AB-331 prende di mira gli strumenti utilizzati per prendere decisioni consequenziali, che hanno un effetto legale, materiale o altro significativo sulla vita di un individuo in termini di impatto, accesso a, costo, termini o disponibilità di quanto segue:

Ecco dieci punti chiave riguardanti il disegno di legge AB-331:

  1. Scopo: Il disegno di legge mira a vietare l’uso di strumenti decisionali automatizzati che contribuiscono alla discriminazione algoritmica.
  2. Discriminazione Algoritmica: Si definisce discriminazione algoritmica il trattamento differenziale che sfavorisce le persone in base a caratteristiche come razza, colore, etnia, sesso, religione, età, origine nazionale, conoscenza limitata dell’inglese, disabilità, stato di veterano, informazioni genetiche, salute riproduttiva o altre classificazioni protette dalla legge statale.
  3. Iniziativa Legislativa: Il disegno di legge è stato introdotto dalla membro dell’assemblea della California, Rebecca Bauer-Kahan, nel gennaio 2023.
  4. Presentazione e Revisioni: Dopo essere stato sottoposto a revisione, il testo del disegno di legge è stato modificato per specificare in modo più dettagliato le attività proibite.
  5. Obiettivo di Equità: L’obiettivo principale del disegno di legge è garantire l’equità nell’uso dei sistemi decisionali automatizzati, proteggendo i diritti e le libertà individuali.
  6. Applicazioni Larghe: La legislazione si applica a una vasta gamma di contesti in cui vengono utilizzati strumenti decisionali automatizzati, inclusi ma non limitati al lavoro e ad altre decisioni cruciali nella vita quotidiana.
  7. Sfide Tecnologiche: Il disegno di legge affronta le sfide emergenti poste dall’IA, evidenziando la necessità di una regolamentazione per garantire un utilizzo responsabile e equo di tali tecnologie.
  8. Processo Legislativo: Attualmente, il disegno di legge è in fase di presentazione e deve ancora essere esaminato dalla commissione. Potrebbe richiedere alcuni mesi prima di essere portato avanti nel processo legislativo.
  9. Implicazioni per gli Sviluppatori: Se approvato, il disegno di legge avrà implicazioni significative per gli sviluppatori di sistemi decisionali automatizzati, richiedendo la conformità alle norme anti-discriminazione stabilite.
  10. Protezione dei Diritti Individuali: La legislazione mira a proteggere i diritti individuali e a garantire che l’IA sia utilizzata per migliorare la società senza perpetuare o amplificare le disparità esistenti.

Gli impatti del disegno di legge AB-331 sull’Intelligenza Artificiale (AI) potrebbero essere notevoli e variegati. Ecco alcuni possibili impatti:

  1. Sviluppo etico: Il disegno di legge mette in evidenza l’importanza di sviluppare e utilizzare l’IA in modo etico, responsabile ed equo, incoraggiando l’adozione di pratiche di sviluppo che minimizzino il rischio di discriminazione algoritmica.
  2. Accuratezza dei modelli: Gli sviluppatori potrebbero concentrarsi maggiormente sull’ottenimento di modelli di intelligenza artificiale più accurati e imparziali, riducendo così il rischio di produrre risultati discriminatori.
  3. Audit e trasparenza: Potrebbe esserci una maggiore richiesta di audit e trasparenza nei sistemi AI per comprendere meglio come vengono presi i decisioni e per identificare eventuali bias algoritmici.
  4. Innovazione regolamentata: Le restrizioni imposte dal disegno di legge potrebbero influenzare l’innovazione nel settore dell’IA, con alcuni sviluppatori che potrebbero sentirsi limitati nei loro sforzi di creare nuove soluzioni a causa delle normative più stringenti.
  5. Responsabilità legale: Le aziende che sviluppano e utilizzano sistemi AI potrebbero diventare maggiormente responsabili legalmente per eventuali danni o discriminazioni causate dai loro prodotti, spingendole a investire maggiormente nella conformità normativa e nella valutazione del rischio.
  6. Diversità dei dati: Potrebbe esserci un maggiore sforzo per garantire la diversità e la rappresentatività dei dati utilizzati per addestrare i modelli di AI, al fine di ridurre il rischio di bias nei risultati.
  7. Educazione e consapevolezza: Potrebbe esserci una maggiore enfasi sull’educazione e la consapevolezza riguardo ai problemi etici e sociali legati all’IA, sia tra gli sviluppatori che tra gli utenti finali.

In definitiva, il disegno di legge AB-331 potrebbe avere un impatto significativo sull’intero ecosistema dell’Intelligenza Artificiale, spingendo verso una maggiore responsabilità, trasparenza ed equità nell’uso di tali tecnologie.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

AWS offrirà alle startup crediti gratuiti per l’utilizzo di modelli AI

AWS ha ampliato il suo programma di crediti gratuiti per rendere più agevole l’utilizzo dei modelli di intelligenza artificiale da parte delle startup, dato l’elevato costo, mentre cerca di aumentare la quota di mercato dei suoi strumenti di intelligenza artificiale, noti come Bedrock.

I crediti saranno consentiti per coprire i costi dei modelli di altre aziende, tra cui Anthropic, Meta Platforms, Mistral AI e Cohere, ha dichiarato Howard Wright, vice presidente e responsabile globale delle startup presso AWS, a Reuters.

“Questo è un altro regalo che stiamo facendo all’ecosistema delle startup, in cambio di ciò che speriamo sia la scelta continua delle startup di AWS come loro prima scelta,” ha detto Wright all’agenzia di stampa.

AWS è il leader nel redditizio mercato dei fornitori di servizi cloud, con poco più del 50%, secondo HG Insights, seguito da Azure di Microsoft e Google Cloud Platform.

Il mese scorso, Amazon ha annunciato di aver effettuato un ulteriore investimento di $2.75 miliardi in Anthropic, portando il suo investimento totale nella startup di intelligenza artificiale a $4 miliardi. Anthropic è il creatore del chatbot Claude, che compete con il ChatGPT di OpenAI, sostenuto da Microsoft.

I crediti gratuiti dovrebbero aiutare ad aumentare i ricavi di Anthropic, ha dichiarato Wright a Reuters. “Questo fa parte della costruzione dell’ecosistema. Non ci scusiamo per questo.”

Amazon ha affermato di aver distribuito oltre $6 miliardi in crediti gratuiti alle startup negli ultimi 10 anni.

La versione più recente di Claude, Claude 3 Haiku, è diventata “disponibile generalmente” su Amazon Bedrock il mese scorso, ha dichiarato un portavoce di Amazon a Seeking Alpha.

La suite di strumenti di intelligenza artificiale Bedrock è stata presentata nell’aprile 2023. Inizialmente, hanno funzionato con Amazon Titan, il modello fondamentale dell’azienda, oltre a quelli creati da stability.ai, AI21Labs e Anthropic.

“Con l’esperienza serverless di Bedrock, puoi iniziare rapidamente, personalizzare privatamente i modelli fondamentali con i tuoi dati, e integrarli e distribuirli facilmente nelle tue applicazioni utilizzando gli strumenti e le capacità AWS che conosci (incluse integrazioni con le funzionalità di ML di Amazon SageMaker come Esperimenti per testare modelli diversi e Pipeline per gestire i tuoi FM su larga scala) senza dover gestire alcuna infrastruttura,” ha scritto Amazon Web Services in una dichiarazione.

Bedrock funzionerà con Amazon Titan, il modello fondamentale dell’azienda, così come quelli creati da stability.ai, AI21Labs e Anthropic.

Nella sua lettera annuale, Jassy di Amazon ha anche esaltato il nuovo chip Inferentia2 dell’azienda, vantandosi delle sue capacità superiori rispetto al primo chip Inferentia.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Stargate la porta delle stelle dell’AI

Microsoft e OpenAI sono in trattative per investire fino a 100 miliardi di dollari in un progetto di data center che ospiterà un supercomputer, il più grande di una serie di installazioni che le società prevedono di realizzare nei prossimi sei anni, secondo quanto riferito da The Information, citando fonti a conoscenza della questione.

Il supercomputer, noto come “Stargate”, verrà realizzato negli Stati Uniti e sarà progettato per ospitare milioni di chip server specializzati per potenziare le capacità di intelligenza artificiale di OpenAI.

Microsoft, che ha già investito oltre 13 miliardi di dollari in OpenAI, dovrebbe essere responsabile del finanziamento del progetto come parte di un piano in cinque fasi che le società hanno già intrapreso.

Il gigante tecnologico sta sviluppando un supercomputer di fase 4 più piccolo per OpenAI, il cui lancio è previsto intorno al 2026 a Mt. Pleasant, nel Wisconsin. Microsoft ha preso in considerazione l’utilizzo di chip AI Nvidia per questo progetto che per essere completato richiederebbe un investimento di 10 miliardi di dollari.

Stargate sarà progettato per dare a Microsoft e OpenAI il vantaggio di utilizzare GPU sviluppate da produttori di chip diversi da Nvidia, come AMD Advanced Micro Devices e persino un chip server interno che MSFT ha recentemente lanciato.

Sommando tutti i progetti, anche quelli precedenti a Stargate che richiedono esborsi significativamente inferiori, il costo dell’iniziativa complessiva per l’azienda guidata da Satya Nadella supererebbe i 115 miliardi di dollari, che vuol dire oltre tre volte le spese in conto capitale di MSFT per server, edifici e altre attrezzature dello scorso anno.

Le previsioni sono quelle di lanciare Stargate già nel 2028 e di continuare ad espanderne le capacità fino al 2030. A tale proposito i dirigenti dell’azienda di Redmond hanno già discusso sull’eventualità di usare fonti di energia alternative, come ad esempio l’energia nucleare, per alimentare il supercomputer, che richiederà probabilmente almeno diversi gigawatt – abbastanza per alimentare almeno alcuni grandi data center oggi – per funzionare.

L’impegno di MSFT nel progetto dipenderà in parte anche dalla capacità di OpenAI di migliorare i servizi offerti, tuttavia è importante evidenziare che questo investimento sottolinea l’impegno di Microsoft e di OpenAI nello sviluppo dell’Intelligenza Artificiale e nell’aumento della potenza di calcolo necessaria per farlo.

Questo progetto potrebbe portare a significativi progressi nell’AI, con lo sviluppo di potenziali applicazioni in una vasta gamma di settori, dalla sanità all’istruzione, ai trasporti e altro ancora. Tuttavia, rimangono alcune preoccupazioni riguardo ai costi elevati e alle potenziali implicazioni ambientali di un tale progetto anche il relazione al recente warning sulla saturazione della rete elettrica americana a seguito dell’incremento della domanda di elettricità per alimentare i data center del cloud e dell’AI.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Elon Musk: la mia banda suona il “Grok”

Elon Musk ha annunciato che il chatbot Grok della sua startup di intelligenza artificiale xAI sarà presto accessibile a tutti gli abbonati premium della piattaforma di social media, condividendo la notizia su X: “entro questa settimana, Grok sarà abilitato per tutti gli abbonati premium (non solo premium+)“.

All’inizio di questo mese, Musk ha rivelato l’intenzione di xAI di rendere open source Grok, presentato per la prima volta a novembre dello scorso anno. Questa mossa è avvenuta pochi giorni dopo che Musk ha citato in giudizio OpenAI, il produttore di ChatGPT sostenuto da Microsoft (NASDAQ: MSFT), sostenendo che avesse messo il profitto davanti al beneficio dell’umanità. OpenAI, co-fondata da Musk, ha respinto le accuse del miliardario della tecnologia.

Queste ultimi sviluppi pongono il chatbot Grok di xAI al centro dell’attenzione, poiché Musk si impegna a rendere la tecnologia più accessibile e trasparente per gli utenti della sua piattaforma di social media.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Affrontare il Gender Gap nell’innovazione tecnologica: l’iniziativa di Paola Pisano, ex Ministro dell’Innovazione Tecnologica e della Digitalizzazione

Il Gender Gap, la disparità di genere, continua ad essere una sfida persistente in numerosi settori, inclusa l’innovazione tecnologica.

Tuttavia, negli ultimi anni, sempre più leader politici e figure di spicco si stanno impegnando attivamente per affrontare questa disparità e promuovere una maggiore inclusione delle donne nei settori STEM (Scienza, Tecnologia, Ingegneria e Matematica).

ChatGPT di OpenAI continua a guadagnare popolarità

Secondo un recente sondaggio condotto dal Pew Research Center, il ChatGPT di OpenAI continua a guadagnare popolarità, con quasi un adulto statunitense su quattro che ha affermato di aver utilizzato il chatbot in qualche modo. Questo segna un aumento rispetto al 18% registrato sette mesi prima, evidenziando un trend di crescita costante nell’utilizzo del ChatGPT.

In particolare, l’uso del ChatGPT per scopi lavorativi è aumentato significativamente negli ultimi 12 mesi. Nel marzo 2023, l’8% degli adulti statunitensi ha affermato di aver utilizzato il chatbot per svolgere attività lavorative, percentuale che è salita al 20% a febbraio 2024.

L’età e il livello di istruzione sembrano influenzare chi utilizza maggiormente il ChatGPT per lavoro. Il sondaggio ha rivelato che quasi un americano su tre con meno di 30 anni ha utilizzato il chatbot per scopi lavorativi, mentre questa percentuale scende al 21% per gli adulti tra i 30 e i 49 anni e al 10% per coloro che hanno 50 anni o più.

Inoltre, gli adulti con titoli di studio laureati e triennali utilizzano il ChatGPT in misura maggiore, rispettivamente al 33% e al 25%, mentre scende al 19% per coloro che hanno un diploma di scuola superiore e all’8% per chi ha un diploma di scuola superiore o inferiore.

Tuttavia, c’è un aspetto su cui gli americani sembrano concordare: la diffidenza nei confronti del ChatGPT quando si tratta di politica, soprattutto in vista delle imminenti elezioni presidenziali americane del 2024. Il sondaggio ha rivelato che circa quattro cittadini su dieci non hanno troppa o nessuna fiducia nelle informazioni elettorali fornite dal ChatGPT, superando di gran lunga la fiducia nelle informazioni politiche fornite dalla piattaforma.

Nonostante il crescente numero di utenti del ChatGPT, il 34% degli americani intervistati dal Pew Research Center ha dichiarato di non aver mai sentito parlare del chatbot, evidenziando che c’è ancora una significativa fetta di popolazione che non è a conoscenza di questa tecnologia.

Adobe Summit di Las Vegas 2024

Adobe ha presentato martedì 26 Marzo , durante l’Adobe Summit di Las Vegas, una serie di innovazioni destinate ad arricchire l’esperienza dei clienti attraverso l’applicazione dell’intelligenza artificiale, secondo quanto riportato dall’azienda in una dichiarazione ufficiale.

Le novità riguardano principalmente Adobe Experience Cloud (base globale di 11.000 clienti ed è supportato da un vasto ecosistema di oltre 4.500 membri e più di 500 integrazioni di partner) e sono concepite per ottimizzare il coinvolgimento dei clienti tramite l’impiego della potenza dell’intelligenza artificiale.

In particolare, Adobe Experience Platform e Adobe Journey Optimizer sono stati progettati per permettere alle imprese di interagire con i clienti “giusti” attraverso “esperienze generative basate sull’intelligenza artificiale”, come affermato da Amit Ahuja, VP senior Digital Experience Business.

L’Adobe Experience Platform AI Assistant è un’innovativa soluzione fornita all’interno della piattaforma Adobe Experience Cloud. Si tratta di un assistente virtuale alimentato dall’intelligenza artificiale progettato per fornire supporto avanzato agli utenti nell’ambito della gestione dell’esperienza dei clienti e delle attività di marketing.

Le caratteristiche principali dell’Adobe Experience Platform AI Assistant includono:

  1. Assistenza personalizzata: L’assistente utilizza l’intelligenza artificiale per fornire suggerimenti e consigli personalizzati in base alle specifiche esigenze dell’utente e agli obiettivi di marketing dell’azienda.
  2. Ottimizzazione delle operazioni: Grazie alla sua capacità di analisi avanzata dei dati, l’AI Assistant aiuta a ottimizzare le operazioni di marketing, identificando tendenze, modelli e opportunità di miglioramento.
  3. Automazione dei compiti: L’assistente automatizza una serie di compiti ripetitivi e operazioni di routine, consentendo agli utenti di concentrarsi su attività più strategiche e ad alto valore aggiunto.
  4. Supporto decisionale: Fornisce raccomandazioni e suggerimenti basati sui dati per supportare le decisioni di marketing, consentendo agli utenti di prendere decisioni più informate e basate su evidenze.
  5. Integrazione con altre soluzioni Adobe: L’AI Assistant si integra senza soluzione di continuità con altre soluzioni all’interno dell’ecosistema Adobe Experience Cloud, consentendo un flusso di lavoro fluido e una collaborazione ottimale tra diversi strumenti e applicazioni.

Complessivamente, l’Adobe Experience Platform AI Assistant rappresenta un importante strumento per migliorare l’efficienza operativa, ottimizzare le strategie di marketing e offrire un’esperienza più coinvolgente e personalizzata ai clienti.
Con il suo supporto all’avanguardia basato sull’intelligenza artificiale, aiuta le aziende a raggiungere i propri obiettivi di business in modo più efficace e innovativo.

La collaborazione strategica con Microsoft un altro punto chiave è emerso durante l’evento.

Adobe ha annunciato una partnership con Microsoft per integrare Adobe Experience Cloud con Microsoft Copilot e Microsoft 365, al fine di agevolare la gestione dei dati di marketing e dei flussi di lavoro.

“Questa partnership offre un’opportunità unica per i team di marketing, semplificando le attività quotidiane attraverso la pianificazione, la collaborazione e l’esecuzione delle campagne”, ha dichiarato Ahuja.

Durante il summit, è stata data particolare attenzione anche a Adobe GenStudio, una soluzione “generativa basata sull’intelligenza artificiale” volta a fornire agli esperti di marketing strumenti avanzati per la pianificazione, la creazione, la gestione, l’attivazione e la misurazione dei contenuti di marca in modo rapido ed efficace.

Secondo Eric Hall, chief marketing officer di Adobe Experience Cloud, numerose aziende leader a livello mondiale stanno già collaborando con Adobe per migliorare l’efficienza delle loro operazioni attraverso l’implementazione di soluzioni innovative.

Il contributo dell’intelligenza artificiale è cruciale anche nel settore farmaceutico, come confermato da Lidia Fonseca, chief digital and technology officer di Pfizer, che ha sottolineato il ruolo fondamentale dell’innovazione digitale e dell’intelligenza artificiale nel fornire contenuti pertinenti sui farmaci e vaccini agli utenti finali.

Oltre a queste innovazioni, Adobe ha introdotto nuovi strumenti di gestione dei dati per aiutare i brand a navigare nel panorama dell’intelligenza artificiale generativa.

Come Federated Audience Composition, che consente una gestione efficiente dei dati collegandosi direttamente ai data warehouse aziendali, e Adobe Real-Time Customer Data Platform Collaboration, un’applicazione per la scoperta e la misurazione dell’audience a prova di privacy.

Anche Firefly, lo strumento AI di Adobe, sembra godere di grande popolarità tra gli utenti, offrendo la possibilità di creare modelli personalizzati utilizzando dati proprietari. Questa funzionalità posiziona Firefly nella stessa categoria dei servizi AI offerti da Salesforce Einstein Copilot e Oracle , secondo quanto dichiarato da Utham.

Durante il summit, Adobe ha presentato dettagliatamente diverse nuove applicazioni e utilizzi di Firefly, dimostrando il suo impegno continuo nell’evolversi e nell’innovare nel campo dell’intelligenza artificiale.

Questo articolo si basa su un comunicato stampa di Adobe.

IA, siamo vicini a una democrazia computazionale?

La democrazia e le tecnologie informatiche hanno una relazione complessa e in continua evoluzione. Le tecnologie informatiche, in particolare Internet e le piattaforme digitali, hanno la potenzialità di rendere la partecipazione dei cittadini alle decisioni pubbliche più efficace e inclusiva. Questo è stato particolarmente evidente nel primo decennio del secolo, quando c’era una grande speranza che il digitale connesso potesse essere lo spazio in cui la democrazia liberale si sarebbe diffusa e rafforzata.

Tuttavia, la fine del secondo decennio ha portato con sé nuove preoccupazioni. Mentre le tecnologie digitali e computazionali continuano a evolversi a un ritmo senza precedenti, stiamo iniziando a vedere come possono essere sfruttate per minare i principi democratici. La disinformazione, le fake news, la manipolazione delle elezioni e la violazione della privacy sono solo alcune delle sfide che stiamo affrontando nello spazio digitale-computazionale.

Paolo Benanti, professore straordinario della facoltà di Teologia presso la Pontificia università gregoriana e presidente della Commissione AI per l’informazione, ha analizzato questi problemi :

La democrazia sfrutta le potenzialità delle tecnologie informatiche per rendere più efficace e inclusiva la partecipazione dei cittadini alle decisioni pubbliche. Se il primo decennio del secolo ci ha fatto sperare che il digitale connesso fosse lo spazio dove si sarebbe diffusa e rafforzata la demorazia liberale, la fine del secondo decennio ci ha iniziato a far temere per il futuro nello spazio digitale-computazionale.

Paolo Benanti su formiche.net

Secondo Benanti, è fondamentale che i principi democratici guidino lo sviluppo e l’uso delle tecnologie informatiche.

Inoltre, è necessario un maggiore coinvolgimento dei cittadini nelle decisioni relative all’uso delle tecnologie informatiche nella società.

Mentre le tecnologie informatiche hanno il potenziale per migliorare la democrazia, è fondamentale che siano guidate da principi democratici e che i cittadini siano coinvolti nelle decisioni su come queste tecnologie vengono utilizzate e ne siano pienamente consapevoli.

Analizzando le sue riflessioni mi vengono in mente 2 Teorie :

Teoria della democrazia digitale: Questa teoria esplora come le tecnologie digitali influenzino la partecipazione politica, la trasparenza e l’accessibilità alle istituzioni democratiche.

Teoria della sovranità digitale: Questa teoria affronta questioni di controllo e autonomia nelle infrastrutture digitali e nell’accesso ai dati, considerando l’interdipendenza tra nazioni e la questione della governance globale dell’Internet.

In sostanza, le 2 teorie indicano che l’avvento delle tecnologie digitali hanno trasformato radicalmente il modo in cui i cittadini partecipano alla vita pubblica e alla democrazia.

Il termine “computazionale” si riferisce al fatto che il processo di cittadinanza e partecipazione democratica avviene sempre più attraverso piattaforme digitali e sistemi informatici.

In altre parole, poiché sempre più aspetti della nostra vita quotidiana sono mediati attraverso dispositivi digitali e piattaforme online, la partecipazione alla democrazia avviene anche attraverso questi canali.

Il concetto espresso da Benanti a mia modesta opinione interpretativa riflette una preoccupazione profonda riguardante il potere crescente delle tecnologie dell’intelligenza artificiale (IA) e la loro interazione con la democrazia.

Si evidenzia come i servizi basati sull’IA stiano offuscando i confini tra il potere computazionale personale (Edge-Mobile) e quello centralizzato nel cloud (Continuum). Ciò si verifica poiché sempre più processi e funzionalità vengono spostati online e gestiti da server remoti, con conseguente perdita di trasparenza riguardo a ciò che avviene effettivamente all’interno dei nostri dispositivi.

Questa perdita di trasparenza ha implicazioni significative per la democrazia, poiché il controllo e l’autonomia delle persone sulle proprie azioni e sulle informazioni personali possono essere compromessi.

La centralizzazione del potere computazionale personale nei server cloud può quindi portare a una centralizzazione del potere stesso, poiché le decisioni riguardanti la gestione e l’elaborazione dei dati possono essere prese da entità centralizzate che controllano tali server.

In questo contesto, si pone la domanda critica su come rendere democratico il potere centralizzato associato all’IA e al cloud computing.

Questo implica la necessità di sviluppare meccanismi e strumenti che consentano una partecipazione inclusiva e responsabile dei cittadini nella definizione delle politiche e delle pratiche relative all’utilizzo dell’IA.

È fondamentale garantire che le decisioni riguardanti l’IA siano prese in modo trasparente e responsabile, tenendo conto dei valori democratici come la partecipazione, l’equità e la tutela dei diritti individuali.

Allo stesso tempo, è cruciale evitare che la democrazia computazionale si trasformi in un’oligarchia del cloud, dove il potere decisionale è concentrato nelle mani di poche entità dominanti nel settore tecnologico.

Ciò richiede un’attenzione particolare alla regolamentazione e alla supervisione delle aziende tecnologiche, così come la promozione di un’innovazione etica che tenga conto degli impatti sociali e politici delle tecnologie dell’IA.

Affrontare queste sfide richiede un impegno collettivo per garantire che l’evoluzione dell’IA e del cloud computing avvenga nel rispetto dei principi democratici e nell’interesse del benessere pubblico, piuttosto che nel perseguimento del potere concentrato e dell’oligarchia digitale.

Solo così possiamo sperare di navigare con successo nel futuro digitale-computazionale.

Interessante citare a mio avviso il rapporto “Setting Democratic Ground Rules for AI: Civil Society Strategies” edatto da Beth Kerley dell’International Forum for Democratic Studies,. Questi analizza le priorità, le sfide e le promettenti strategie della società civile per promuovere approcci democratici alla governance dell’intelligenza artificiale (IA).

Esamina gli ostacoli – dai racconti fuorvianti all’opacità del governo : La presenza diffusa di narrazioni fuorvianti o manipolate riguardo all’IA può ostacolare una comprensione accurata e consapevole dei suoi impatti sulla democrazia, la disinformazione può influenzare le percezioni pubbliche e impedire un dibattito informato sui modi per garantire un uso democratico e responsabile dell’IA,

le lacune nell’expertise tecnica – che ostacolano l’impegno democratico sulla governance dell’IA ,

la mancanza di comprensione approfondita delle implicazioni tecnologiche dell’IA da parte dei decisori politici, dei funzionari pubblici e del pubblico in generale può ostacolare la formulazione di politiche e regolamentazioni efficaci. Le lacune nell’expertise tecnica possono portare a decisioni errate o inefficaci che non tengono conto delle sfide e delle opportunità specifiche dell’IA,

l’opacità dei governi e delle aziende, l’assenza di trasparenza da parte dei governi e delle aziende riguardo alla formulazione e all’implementazione delle politiche sull’IA può rendere difficile per i cittadini valutare e influenzare il processo decisionale e esplora come un nuovo pensiero, nuove istituzioni e nuove collaborazioni possano meglio equipaggiare le società per stabilire regole democratiche per le tecnologie dell’IA.

Il rapporto sottolinea che con i recenti progressi nello sviluppo dell’IA, stiamo vivendo un cambiamento sismico nel bilancio di potere tra le persone e i governi, che pone nuove sfide ai principi democratici come la privacy, la trasparenza e la non discriminazione e inclusione.

Sappiamo che l’IA plasmerà il mondo politico in cui viviamo, ma come possiamo garantire che le norme e la “governance” delle istituzioni democratiche plasmino la traiettoria dell’IA.

Lascia un commento


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Nomina delle Autorità nazionali per l’AI in Italia: il ruolo conteso tra Garante per la Privacy e AgID

L’AI Act recentemente approvato dal Parlamento europeo prevede, tra le altre cose, che i singoli Paesi europei abbiano a disposizione 12 mesi di tempo per nominare le Autorità nazionali competenti che dovranno supervisionare l’applicazione del pacchetto di norme con il supporto dall’ufficio AI della Commissione europea.

Nei giorni scorsi il Sottosegretario all’Innovazione Alessio Butti, aveva anticipato che la funzione di vigilanza e controllo dell’Intelligenza Artificiale in Italia sarebbe andato all’AgID e per le competenze che riguardano la cybersecurity all’ACN: “la scelta è di affidare ad Agenzia per l’Italia digitale e Agenzia per la cybersicurezza nazionale i compiti di vigilanza e controllo sull’intelligenza artificiale: rispecchia una visione strategica incentrata sull’efficacia e l’efficienza nella governance dell’AI” le parole del sottosegretario, che prosegue “queste agenzie, con il loro focus specifico sul digitale e sulla cybersicurezza, offrono competenze tecniche e operazionali complementari e altamente specializzate, essenziali per affrontare le sfide poste dall’Ia in ambito di cittadinanza, industria, sicurezza, protezione dei dati e su tutto la difesa e l’interesse nazionale”.

Un’indicazione che non è piaciuta affatto al Garante per la protezione dei dati personali che, tramite il presidente dell’autority, Pasquale Stanzione, in una nota ai presidenti di Senato e Camera e al presidente del Consiglio avoca a se tale ruolo affermando che il Garante “possiede i requisiti di competenza e indipendenza necessari per attuare il regolamento europeo sull’intelligenza artificiale coerentemente con l’obiettivo di un livello elevato di tutela dei diritti fondamentali“.

La recente approvazione dell’AI Act da parte del Parlamento europeo, ha spiegato il Presidente dell’Authority, “impone agli Stati membri alcune scelte essenziali sulle norme di adeguamento degli ordinamenti interni“. La forte incidenza dell’AI sui diritti fondamentali “rende necessario attribuirne la competenza ad Autorità caratterizzate da requisiti d’indipendenza stringenti, come le Authority per la privacy, anche in ragione della stretta interrelazione tra intelligenza artificiale e protezione dati e della competenza già acquisita in materia di processo decisionale automatizzato“.

L’AI Act infatti, ricorda il Garante, “si fonda sull’articolo 16 del Trattato sul funzionamento dell’Unione europea, che è la base giuridica della normativa di protezione dei dati, e lo stesso Regolamento sull’intelligenza artificiale prevede il controllo delle Autorità di protezione dei dati personali su processi algoritmici che utilizzino dati personali. La sinergia tra le due discipline e la loro applicazione da parte di un’unica Autorità è quindi determinante per l’effettività dei diritti e delle garanzie sanciti“.

Detto questo, la domanda è chi si assicurerà che in Italia vengano rispettate le norme sull’Intelligenza artificiale? Non c’è il rischio di un conflitto di competenze?

Compliance e Intelligenza Artificiale: strategie di gestione del rischio nel settore finanziario

Negli ultimi due anni, gli investimenti in progetti di digital compliance hanno registrato una crescita costante, con un tasso medio annuo del 10%. Questo aumento è stato particolarmente evidente nel settore bancario, il quale, grazie a una maggiore disponibilità di dati e a ingenti investimenti strategici, ha guadagnato un vantaggio significativo in termini di maturità tecnologica nel campo della compliance. Allo stesso tempo, il settore assicurativo ha intensificato i propri sforzi per colmare il divario digitale, con un notevole aumento degli investimenti che, nel 2023, hanno registrato un aumento del 25%. Sono dati che emergono da uno studio focalizzato sulla digital compliance e sul livello di digitalizzazione delle istituzioni finanziarie e condotto dal Centro di Ricerca dell’Università Cattolica del Sacro Cuore di Milano (Cetif Research) in collaborazione con Avantage Reply.

Attualmente, il 45% delle istituzioni bancarie e il 38% delle compagnie assicurative ha una specifica funzione di digital compliance all’interno della struttura di compliance. Altre istituzioni, pur non avendo un’unità strutturata, stanno integrando risorse specializzate. Le competenze più diffuse nel settore bancario sono quelle di verifica e controllo (34%) e analisi normativa (15%), mentre si stanno introducendo nuove figure con competenze digitali avanzate come data analyst o data architect (44%) e sviluppatori di IT (13%) o di AI (10%). Nel settore assicurativo, le competenze prevalenti includono analisti funzionali o subject matter expert (74%) e data scientist/analyst/architect (26%). Tuttavia, l’integrazione di figure professionali con competenze trasversali rimane una sfida a causa della complessità tecnica della funzione, che ostacola il suo sviluppo.

L’Intelligenza Artificiale rappresenta una delle soluzioni tecnologiche più promettenti per la compliance, sia nelle sue applicazioni più tradizionali come il Machine Learning e l’Advanced Analytics, sia nelle sue applicazioni generative come ChatGPT, perché è in grado di offire un sostegno significativo all’attività e all’operatività della compliance, specialmente considerando le sfide legate alla conformità regolamentare e alla gestione dei dati nel contesto normativo in rapida evoluzione.

Nel momento in cui la sicurezza e la gestione accurata dei dati diventano centrali, emerge la necessità di una governance solida per garantire la conformità normativa e limitare i potenziali rischi e per farlo, la compliance deve adottare un modello data-driven, anche attraverso l’uso di strumenti tecnologici avanzati come l’Intelligenza Artificiale.

Tutto questo richiede però un cambiamento culturale e organizzativo che, oltre all’adozione di strumenti specifici, preveda il coinvolgimento di risorse qualificate e competenze specialistiche, con la creazione di team eterogenei e una maggiore collaborazione tra le varie funzioni aziendali.

In conclusione, la digital compliance si conferma come un elemento chiave per le istituzioni finanziarie nel gestire le sfide normative e i rischi nel contesto digitale in evoluzione. L’adozione di tecnologie innovative come l’Intelligenza Artificiale e il potenziamento delle competenze trasversali sono quindi da ritenersi elementi cruciali per affrontare con successo queste sfide e garantire la conformità normativa.

Nuova tecnologia, vecchie truffe: l’ascesa dell’AI Generativa nel mercato dei libri

SCOTT SIMON, PRESIDENTE:

Quando è uscito l’ultimo libro di Kara Swisher, intitolato “Burn Book”, ha notato che le sue biografie hanno iniziato ad apparire su Amazon con copertine dall’aspetto molto simili. Apparentemente sono stati generati dall’intelligenza artificiale. E Kara Swisher ha raccontato al podcast “Hard Fork” del New York Times come è riuscita a rimuoverli.

MARY RASENBERGER: I libri truffa su Amazon sono un problema da anni.

Negli ultimi anni, i progressi nella tecnologia dell’intelligenza artificiale (IA) hanno portato a rivoluzioni in vari settori, tra cui la letteratura. Tuttavia, con l’avanzamento tecnologico sorgono anche nuove minacce, come dimostra un recente incidente che mette in luce l’uso ingegnoso delle tecniche di IA generativa (Gen AI) per perpetrare truffe nei mercati dei libri.

Quando si tratta di affrontare i libri falsi su Amazon, ci sono numerosi ostacoli da superare. Dal punto di vista legale, non è ancora chiaro se i contenuti generati dall’IA violino le leggi sul copyright.

È per questo che il New York Times ha recentemente intentato una causa per violazione del copyright contro OpenAI.

La genesi della truffa vede i mercati online, in particolare le piattaforme di e-book come Amazon Kindle Unlimited, invasi da una crescente offerta di romanzi che sembrano essere stati scritti utilizzando tecniche di Gen AI.

Questi libri, spesso di dubbia qualità, si fingono opere originali. Sfruttando algoritmi sofisticati, la Gen AI può generare contenuti che imitano lo stile di scrittura umano, rendendo difficile ai lettori distinguere tra opere genuine e artificiali.

Kindle Unlimited funziona tramite un sistema di abbonamento mensile che consente ai lettori di accedere a milioni di libri. Gli autori partecipanti vengono pagati attraverso un pool di fondi stabilito da Amazon, in base al numero di pagine lette dai loro libri.

Amazon ha istituito il Kindle Direct Publishing Selected (KDPS), un servizio attraverso il quale gli autori si impegnano a concedere in esclusiva i loro libri per 90 giorni, e le royalty vengono calcolate in base al numero di pagine lette dagli utenti abbonati al servizio Kindle Unlimited.

I lettori abbonati a Kindle Unlimited hanno il diritto di leggere tutti i libri inclusi nel programma KDPS.

La truffa viene svelata quando bot automatizzati, programmati per simulare il comportamento umano, acquistano in massa questi romanzi artificialmente generati. Di conseguenza, questi libri aumentano rapidamente nelle classifiche diventando bestseller sulle piattaforme di e-book.

Mentre lettori ignari possono contribuire inconsapevolmente al successo di queste opere fraudolente, i veri beneficiari sono gli autori falsi dietro la truffa.

Attraverso piani di abbonamento per lettori come Kindle Unlimited, gli autori falsi ricevono royalty per le pagine lette dagli abbonati. Questo modello di monetizzazione incoraggia gli scammer a sfruttare il sistema, poiché traggono profitto dall’inganno generato dai bot automatizzati.

Di conseguenza, gli autori genuini subiscono una riduzione della visibilità e del potenziale di guadagno a causa della proliferazione di contenuti artificialmente generati.

Per affrontare questa minaccia, sono necessarie misure rigorose da parte degli operatori delle piattaforme e degli enti regolatori. Una moderazione dei contenuti più efficace, protocolli di autenticazione migliorati e il monitoraggio proattivo delle attività sospette sono passaggi cruciali per contrastare efficacemente queste truffe.

In risposta alla crescente pressione da parte di autori e gruppi di difesa come la Authors Guild, Amazon ha adottato misure per affrontare il problema. L’anno scorso, la società ha implementato una politica che richiede agli editori che utilizzano Kindle Direct Publishing di rivelare se i loro contenuti sono generati dall’intelligenza artificiale.  

Inoltre, Amazon ha imposto limiti al numero di titoli pubblicati in un solo giorno.

La proliferazione delle truffe guidate dalla Gen AI nei mercati dei libri sottolinea l’importanza della vigilanza e dell’intervento proattivo. Mentre la tecnologia continua a progredire, è essenziale adottare strategie di difesa robuste per tutelare l’integrità dei mercati online.

Anche se Amazon sembra aver reagito rimuovendo i libri coinvolti nell’inganno, il rischio di frode rimane presente, minacciando sia gli autori che il servizio stesso.

In alternativa, Amazon e altri editori online potrebbero scegliere di svolgere un lavoro più accurato nello screening dei contenuti prodotti dall’intelligenza artificiale.

Ciò potrebbe comportare la richiesta di maggiore trasparenza e divulgazione. Al momento, spetta al lettore determinare se sta acquistando libri falsi su Amazon, ma sarebbe auspicabile che gli autori stessi segnalino eventuali violazioni.

Comprendiamo che il compito per Amazon sarebbe titanico, ma l’implementazione di politiche e pratiche volte a ridurre questa nuova truffa sui libri sull’intelligenza artificiale è essenziale per garantire l’integrità dei mercati online nel prossimo futuro.

Se le societa’ impegnate nelle Inelligenza Generativa, non riusciranno a capire come monetizzare i loro contenuti AI, la crescita sarà probabilmente più lenta del previsto.

Sovrasaturazione dei contenuti AI ?

I contenuti artistici AI sono ovunque in questo momento e potrebbero diventare troppo saturi in futuro. Sarà fondamentale per tutti produrre contenuti della migliore qualità in modo che possano diventare il fornitore di riferimento.

Investimento speculativo ?

Si tratta di un investimento speculativo perché si basa in gran parte sulla crescita futura che sarà generata da prodotti e servizi nuovi e non provati.

Dopo l’AI Act: come Parigi si prepara a diventare la capitale europea dell’Intelligenza Artificiale

Secondo articolo di una serie di 4 che analizzano l’evoluzione normativa e l’ambiente dell’Intelligenza Artificiale in Europa.

In un momento in cui l’Intelligenza Artificiale in Europa sta catalizzando l’interesse del mondo politico a seguito dell’approvazione dell’AI Act da parte del Parlamento europeo e pur in un contesto in cui sembra mancare una visione unica europea sullo sviluppo di un sistema europeo di Intelligenza Artificiale, come abbiamo visto nel primo articolo di questa serie, c’è un Paese in Europa che da qualche anno sta invece progettando la sua sfida per diventare una potenza nel campo dell’innovazione tecnologica e dell’intelligenza artificiale. E’ la Francia di Emmanuel Macron che con un piano da 1,5 miliardi di euro, intende trasformare il Paese in uno dei protagonisti del settore puntando sull’open source e su un piano di sviluppo che ha l’obiettivo di potenziare le capacità informatiche, le componenti e le architetture di sistema necessarie per recuperare il gap competitivo con gli Stati Uniti da un lato e con la Cina dall’altro.

La strategia nazionale per l’intelligenza artificiale – nell’ambito del più ampio piano di investimenti da 54 miliardi di Francia 2030 per creare nuovi settori industriali e tecnologici nel Paese – ha gettato le basi per una strutturazione a lungo termine dell’ecosistema AI, in tutte le fasi dello sviluppo tecnologico (ricerca, sviluppi e innovazioni, applicazioni, marketing, ecc.), promuovendo la creazione e lo sviluppo di una rete di istituti interdisciplinari di intelligenza artificiale, il sostegno a cattedre di eccellenza in AI, il finanziamento di programmi di dottorato e investimenti nelle capacità di calcolo della ricerca pubblica.

I risultati di questa politica sono sotto gli occhi di tutti. In pochi mesi, l’ecosistema parigino è letteralmente esploso.

Un segno tangibile che qualcosa stava cambiando è stata l’ascesa fulminea dell’unicorno Mistral AI, nata meno di un anno fa e già impostasi come uno dei leader del settore. Il suo nuovo LLM Mistral Large è progettato per rivaleggiare con concorrenti come GPT-4 e Claude2.

Google ha inaugurato a Parigi il 16 febbraio scorso, alla presenza del ceo Sundar Pichai, del ministro dell’Economia Bruno Le Maire e del segretario di Stato per il Digitale Marina Ferrari, il suo nuovo centro di ricerca e sviluppo sull’intelligenza artificiale (AI), che vedrà al lavoro un team composto da più di 300 ricercatori e ingegneri.

Parigi è un centro globale di innovazione e una calamita per i talenti” ha sottolineato Sundar Pichai a margine dell’evento, “sono felice di aprire questo nuovo capitolo di Google in Francia”.

Facebook aveva già aperto, sempre a Parigi, il suo laboratorio di ricerca sull’AI denominato Fair (Facebook Artificial Intelligence Research), sotto la direzione del ricercatore francese Yann Le Cun, uno dei pionieri nel campo dell’intelligenza artificiale e dell’apprendimento automatico.

Alphabet e Meta non sono però le uniche aziende del settore tecnologico ad aver investito nell’intelligenza artificiale a Parigi. Altre realtà come Ibm, Samsung e Fujitsu hanno aperto dei propri centri di ricerca nella capitale francese.

In pochi anni siamo riusciti a creare diversi istituti di ricerca interdisciplinari, a raddoppiare il numero di laureati in intelligenza artificiale e ad aumentare di 500 il numero dei dottorandi” è stato il commento del presidente Emmanuel Macron in occasione del lancio del laboratorio di ricerca sull’Intelligenza Artificiale Kyutai guidato da Xavier Niel, il patron di Iliad e da Eric Schmidt, ex CEO di Google, che con una dotazione di 300 milioni di euro ha l’obiettivo di attirare i più grandi talenti del settore AI. Kyutai è ospitato all’interno di Station F, il più grande campus di start up del mondo, situato nel 13° arrondissement di Parigi, in un ex deposito ferroviario, quello de La Halle Freyssinet, e ospita più di 1.000 startup in uno spazio di 34.000 mq. Un progetto ambizioso volto ad affermare la Francia come punto di riferimento globale nel campo dell’innovazione.

Tutte queste iniziative mirano a costruire un hub che da Parigi funga da collegamento per università, centri di ricerca e aziende. A Parigi sono peraltro presenti due figure di spicco dell’intelligenza artificiale: Vincent Simonet, direttore dell’ingegneria di Google France, e Joëlle Barral, direttrice della ricerca sull’Intelligenza Artificiale presso Google Deep Mind, tornata dagli Stati Uniti appena un anno fa.

Che Parigi e la Francia più in generale abbiano una strategia chiara per raggiungere l’obiettivo di diventare leader a livello europeo dell’Intelligenza Artificiale si capisce peraltro anche dalle posizioni che ha tenuto il governo francese durante i negoziati che hanno portato all’approvazione dell’AI Act europeo, esercitando ad esempio pressioni per un’esenzione totale per i modelli fondamentali. Come gli osservatori più attenti avranno rilevato la posizione dell’Eliseo è drasticamente cambiata nel corso del 2023, passando da una visione di fatto allineata a quella degli atri Paesi in termini di vincoli e regole ad una più favorevole all’adozione di maglie larghe nella regolamentazione per paura che i troppo vincoli della legislazione europea avrebbero potuto mettere in crisi non solo realtà nazionali come Mistral AI ma anche l’attrattività del suo progetto di diventare l’hub europeo delle start-up che puntano sull’innovazione e sull’Intelligenza Artificiale.

Ricordiamoci anche che il più grande incubatore di start-up al mondo si trova proprio a Parigi ed occupa occupa i 34 000 metri quadri della Halle Freyssinet, l’ex deposito ferroviario dell’Est della capitale francese. Station F, questo il nome dell’incubatore, nato nel 2017 per volere di Xavier Niel patron di Iliad, ospita già oltre alle start-up anche giganti del tech come Microsoft, la già citata Facebook, aziende come LVMH e realtà di prestigio come l’HEC, la storica grande école di business di Parigi, con la quale Station F ha appena lanciato, lo scorso mese di febbraio, un programma specifico per attirare più start-up internazionali interessate a decollare nel mercato europeo.

Tanta roba.

E l’Italia in questo scenario come si sta muovendo? Lo vedremo nel prossimo articolo dove analizzeremo cosa si sta facendo in Italia sul tema dell’Intelligenza Artificiale.

Leggi il 1° articolo della serie: Dopo l’AI Act: impatti e prospettive per l’Intelligenza Artificiale in Europa


Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Il 21 marzo, l’Assemblea generale delle Nazioni Unite ha adottato la prima risoluzione globale sull’Intelligenza Artificiale (IA)

L’adozione da parte dell’Assemblea generale delle Nazioni Unite di una risoluzione globale sull’intelligenza artificiale rappresenta un importante passo avanti nel dibattito internazionale sull’IA e sulle sue implicazioni per la società. Questa risoluzione sottolinea il riconoscimento dell’importanza di affrontare le sfide e massimizzare i benefici derivanti dall’IA a livello globale.

Il fatto che l’ONU abbia dedicato attenzione all’IA dimostra la crescente consapevolezza della necessità di norme e regolamenti internazionali per gestire questa tecnologia in modo responsabile ed etico. Questa risoluzione potrebbe aprire la strada a ulteriori discussioni e iniziative volte a promuovere la cooperazione internazionale e a definire linee guida comuni per lo sviluppo e l’uso dell’IA.

Tuttavia, resta da vedere quali saranno le azioni concrete che seguiranno questa risoluzione. Sarà essenziale coinvolgere una vasta gamma di stakeholder, compresi governi, aziende, organizzazioni non governative e esperti del settore, per tradurre le intenzioni della risoluzione in azioni significative e politiche efficaci.

Inoltre, sarà importante monitorare da vicino come questa risoluzione influenzerà il panorama dell’IA a livello globale, compresi gli sviluppi tecnologici, la legislazione nazionale e le dinamiche geopolitiche. La risoluzione potrebbe anche catalizzare ulteriori investimenti nella ricerca sull’IA e nell’implementazione di soluzioni innovative per affrontare sfide globali.

In sintesi, l’adozione della prima risoluzione globale sull’IA da parte delle Nazioni Unite è un passo significativo che testimonia il riconoscimento dell’importanza cruciale di questa tecnologia per il futuro della società globale. Tuttavia, sarà fondamentale tradurre questa volontà politica in azioni concrete e collaborare a livello internazionale per massimizzare i benefici e mitigare i rischi associati all’IA.

L’Arabia Saudita pronta a mettere una fiche di 40 miliardi di dollari sull’Intelligenza Artificiale


Secondo un rapporto pubblicato martedì, riportato dal New York Times, l’Arabia Saudita starebbe valutando la creazione di un fondo da 40 miliardi di dollari per investire nel settore dell’Intelligenza Artificiale (AI).

Il fondo renderebbe lo Stato del Golfo il più grande investitore al mondo nell’Intelligenza Artificiale e aiuterebbe il Regno non solo a realizzare il suo programma Vision 2030 che ha l’obiettivo di diversificare la dipendenza dell’economia dal petrolio, ma anche a contrastare i principali rivali nella regione, gli Emirati Arabi Uniti che sono molto attivi nel settore.

Il Fondo di investimento pubblico (PIF) dell’dell’Arabia Saudita, che ha già investito molto nel cloud computing e in altre infrastrutture digitali, ha un patrimonio di oltre 900 miliardi di dollari e nelle ultime settimane avrebbe discusso una potenziale partnership con Andreessen Horowitz, una delle principali società di venture capital della Silicon Valley e con altri potenziali finanziatori del fondo. .

Questa nuova spinta agli investimenti dell’Arabia Saudita probabilmente decollerà durante la seconda metà di quest’anno e potrebbero essere parte della partita anche altre società globali , non necessariamente dei venture capital. Amazon Web Services (AWS) ad esempio, in occasione della conferenza tecnologica LEAP che si è tenuta a Riad all’inizio di questo mese di marzo, si è impegnato a investire 5,3 miliardi di dollari nel fiorente mercato tecnologico del regno per creare data center cloud a partire dal 2026.

Una notizia importante perché fa entrare un nuovo player nel settore. Ma se Stati Uniti e Cina sono abbastanza avanti in termini di vantaggio acquisito, così non è per altre realtà come la Gran Bretagna e l’Europa che, tra le altre cose, non possono contare su risorse infinite in un settore dove la capacità di investimento è determinante per il successo.


Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Mentre USA e CINA scrivono il futuro dell’AI, l’UE scrive le Regole

Uomo al centro o Macchina al Centro questo e’ il dilemma.

Siete familiari con le tre leggi della robotica delineate da Asimov?

Queste leggi, fondamentalmente, impediscono alla macchina, o al robot in questo caso, di nuocere all’uomo.

Ma perché sono state promulgate queste leggi?

OpenAI stringe accordi con Le Monde e El País: una svolta nei rapporti con gli editori?

OpenAI ha appena annunciato di aver chiuso un accordo con gli editori di Le Monde e di El País al fine di poter utilizzare i loro contenuti per addestrare ChatGPT e gli altri modelli di Intelligenza Artificiale generativa.

Si tratta di accordi significativi, che seguono quelli chiusi a suo tempo con Associated Press e con l’editore tedesco Axel Springer, ma che arrivano anche nel mezzo della battaglia legale della società non solo con il New York Times, che l’ha portata in tribunale per violazione del copyright,  ma anche con altri editori Usa che accusano la società di aver usato i loro contenuti senza permesso.

Gli accordi appena chiusi con El País e con Le Monde sono una buona notizia in generale per gli editori, perché non solo indicano che la società non ha intenzione di continuare a innescare controversie sui diritti di proprietà intellettuale con i media di tutto il mondo ma anche perché in un momento in cui scendono le diffusioni e calano i ricavi pubblicitari erodendo i margini, il patrimonio di contenuti e di informazione che gli editori hanno a disposizione può diventare un asset monetizzabile tramite accordi con i player dell’Intelligenza Artificiale.


Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Dall’era digitale all’era dell’evoluzione: una visione audace del futuro

Quando si discute del futuro oltre l’attuale era digitale, si intravede una prospettiva affascinante: l’era dell’evoluzione. Questa proiezione, benché un’ipotesi plausibile, solleva domande intriganti sulla direzione in cui la tecnologia e la società si stanno dirigendo.

L’Età dell’Evoluzione, coniata da Max Tegmark nel suo celebre libro “Vita 3.0”, traccia un percorso oltre la vita biologica convenzionale.

All’Artificial Intelligence Film Festival di Dubai vince il corto “Treta” dell’italiano Brigiano

Treta, il corto firmato dal regista italiano Francesco Siro Brigiano e realizzato utilizzando l’Intelligenza Artificiale, ha vinto l’Artificial Intelligence Film Festival di Dubai, nato con l’obiettivo di celebrare e promuovere la convergenza tra intelligenza artificiale e cinema, sottolineando la relazione simbiotica tra tecnologia e creatività umana.

Treta, che racconta la storia di un malvagio giullare, ‘re’ delle tentazioni umane, ha sbaragliato le oltre 500 opere cinematografiche concorrenti, provenienti da 89 nazioni, conquistando il riconoscimento per la regia e l’AI Choice, assegnato dall’Intelligenza Artificiale.

Ho creato questo short film onirico” il commento di Francesco Siro Brigiano “dopo due anni di studi e ricerche sull’affascinante mondo dell’arte generativa. Le possibilità che le nuove tecnologie riescono ad offrire sono incredibili. Certo le AI hanno messo al centro molti quesiti e criticità non prescindibili ma per chi avrà voglia di raccontare, esprimersi e sognare sarà sempre più ampio il ventaglio di possibilità”.

L’Aiff festival mette a confronto esperti del settore in un dibattito sul potenziale della tecnologia AI nel migliorare la narrazione creativa e arricchire la creatività umana, fornendo nuovi strumenti per la narrazione, l’editing e persino la creazione di personaggi. Tra i componenti della giuria di esperti, c’erano Richard Taylor, 5 volte Oscar per Il Signore degli anelli, e Ben Grossmann, premio Oscar per i migliori effetti speciali di Hugo Cabret di Martin Scorsese.

Giorno 4: Come Sfruttare l’Intelligenza Artificiale per Scrivere Due Volte Più Velocemente

“Questo e’ il mio tallone d’Achille come l’ Executive Director di Rivista AI puo’ confermare e non solo, spesso il diavolo è nei dettagli”

La scrittura è una sfida, segnata dal blocco dello scrittore, da decisioni ponderate sulle parole e dall’impegno necessario per comunicare in modo conciso idee complesse.

Fortunatamente, l’intelligenza artificiale (IA) è ora un alleato potente per scrivere più rapidamente e migliorare la qualità del testo. Contrariamente alla credenza popolare, assistenti IA come ChatGPT e Claude possono produrre bozze di alta qualità alla stregua di uno scrittore medio, ma in modo incredibilmente veloce ed efficiente.

Gli assistenti IA come ChatGPT e Claude scrivono a velocità superiori rispetto agli esseri umani, evitando il blocco dello scrittore e garantendo una produzione costante. Tuttavia, mancano ancora di sfumature creative, intelligenza emotiva e comprensione contestuale necessarie per raggiungere il livello di uno scrittore A+.

Invece di renderti ridondante come scrittore, l’IA trasformerà il tuo ruolo da creatore a editore.

Esploreremo come ottimizzare la scrittura aziendale utilizzando l’IA e imparerai:

➡️ Come far scrivere a ChatGPT bozze sorprendentemente efficaci utilizzando il framework ‘WISER’

➡️Un modello di prompt per la scrittura AI per eliminare le congetture dal processo

➡️ I 3 strumenti di editing AI di livello professionale che faranno brillare la tua scrittura

Al termine di questa lezione, sarai in grado di utilizzare l’IA per generare bozze raffinate in pochi minuti e perfezionare i tuoi documenti con strumenti di modifica avanzati.

Come Far Scrivere a ChatGPT Bozze Efficaci con il Framework WISER

Se puoi assegnare una scrittura a un essere umano, puoi farlo anche con l’IA.

La chiave è avere una struttura chiara per creare testi di qualità. Il motivo per cui molti professionisti non riescono a sfruttare appieno ChatGPT è la mancanza di una struttura completa per progettare istruzioni di scrittura coerenti.

Ecco il framework WISER suddiviso:

W – Chi
Inizia assegnando a ChatGPT un’identità o un ambiente specifico per impostare il contesto.

Esempio:
“Sei un esperto di marketing rivolto a un pubblico interessato alla tecnologia.”

I – Istruzioni
Sii esplicito e diretto nelle istruzioni per ottenere risultati coerenti.

Esempio:
“Scrivi un post sul blog di 300 parole per proprietari di piccole imprese, focalizzandoti sui benefici del software CRM.”

S – Attività Secondarie
Dividi la richiesta in attività più piccole per gestire efficacemente ogni aspetto.

Esempio:
“Spiega il software CRM, evidenzia i vantaggi, chiama all’azione. Rileggi e migliora.”

E – Esempi
Fornisci esempi specifici per guidare l’IA nello stile e nei contenuti desiderati.

Esempio:
“Segui l’esempio del blog sui vantaggi degli strumenti di gestione dei progetti per le piccole imprese: “

R – Revisione
Valuta criticamente l’output iniziale e richiedi revisioni specifiche se necessario.

Esempio:
“Scrivi una seconda versione dal punto di vista di un genitore occupato. Fornisci anche 20 opzioni di titolo per ciascun post.”

Modello di Prompt per la Scrittura AI

Salva questo modello per un futuro riferimento:

“Sei un [IDENTITÀ]. Scrivi un [COSA SCRIVERE] come [DEFINISCI L’IDENTITÀ O L’AMBIENTE]. L’obiettivo è [OBIETTIVO].

Istruzioni:

[ISTRUZIONI DETTAGLIATE]

Processo:

[SOTTO-ATTIVITÀ DA COMPLETARE]

È importante rispecchiare il mio stile. Usa gli esempi per guidare tono, stile e struttura.

[ESEMPI DI CIÒ CHE VUOI SCRIVERE]”

Strumenti di Editing AI Professionali

  1. Grammarly:
    • Scansiona il testo per grammatica, ortografia e punteggiatura.
    • Ideale per scrittura concisa e controllo grammaticale.
  2. Speechify:
    • Legge il testo ad alta voce per identificare frasi imbarazzanti o non fluide.
    • Ottimo per la revisione di documenti destinati alla lettura ad alta voce.
  3. ChatGPT (Revisione):
    • Ottieni feedback e suggerimenti specifici su tono, formattazione e chiarezza.
    • Può riscrivere il testo in base al feedback.

Con questi strumenti, risparmierai tempo nella creazione e affinerai i tuoi contenuti in modo efficiente. L’IA diventa il tuo copilota nella scrittura aziendale, consentendoti di concentrarti su compiti strategici.

Domani esploreremo come utilizzare l’IA per migliorare il processo decisionale aziendale, garantendo scelte informate quando conta di più.

Il futuro è delle aziende orientate all’IA, fornendo copiloti AI come ChatGPT per decisioni più rapide, intelligenti e coerenti. Esattamente come gestisco la mia attività e aiuto i clienti a ragionare attraverso le proprie.

Alla prossima, spero di essere sato conciso questa volta.


Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Dopo l’AI Act: impatti e prospettive per l’Intelligenza Artificiale in Europa

Primo articolo di una serie di 4 che analizzeranno l’evoluzione normativa e l’ambiente dell’Intelligenza Artificiale in Europa.

Il 13 marzo 2024 il Parlamento Europeo ha approvato a larga maggioranza l’AI Act, l’impianto di norme chiamato a regolare e ad armonizzare la legislazione europea in materia di Intelligenza Artificiale. La normativa sarà poi votata con una votazione separata nella seduta plenaria di aprile per poi entrare in vigore dopo la pubblicazione sulla Gazzetta Ufficiale dell’Ue probabilmente nel mese di maggio.

In base all’AI Act, i sistemi di apprendimento automatico saranno suddivisi in quattro categorie principali in base al rischio potenziale che rappresentano per la società. I sistemi considerati ad alto rischio saranno soggetti a regole severe che si applicheranno prima del loro ingresso nel mercato dell’UE.

La saga delle Accuse, OpenAI vs Tesla

Nel regno degli enigmi e delle alchimie digitali, la giornata di Martedì 5 Marzo fu scossa dalle parole del potente signore dei Fulmini, Elon Musk, CEO della Casa Tesla .

Egli accusò OpenAI, l’antica congrega degli artefici dell’intelligenza, di essersi allontanata dalla sacra missione di forgiare l’IA per il bene dell’umanità, preferendo il sentiero del profitto.

Nell’antro digitale, sostenuto dal mago Microsoft, i custodi di ChatGPT levantarono la loro voce attraverso i lumi del blog, ribadendo la purezza della loro causa e respingendo le accuse di Musk.

Tuttavia, il vento delle dispute soffiava forte, poiché la settimana precedente il signore dei Fulmini aveva scagliato il suo dardo legale contro la congrega, insieme al suo CEO, Sam Altman.

(All’inizio di febbraio 2018, Musk ha inoltrato un’e-mail in cui suggeriva che OpenAI avrebbe dovuto “attaccarsi a Tesla come sua mucca da mungere”.)

Gli arcani rivelavano che Musk desiderava piegare OpenAI alla sua volontà, proponendo un patto con la Casa Tesla o reclamando il dominio completo. Ma gli artefici dell’intelligenza rifiutarono di cedere alle richieste del potente signore, difendendo con fermezza la loro indipendenza.

Fu così che si rivelò il conflitto tra le due potenze. Nel cuore del dissenso giaceva la questione del futuro di OpenAI: doveva rimanere un faro di conoscenza aperta o cedere al richiamo del lucro? Musk, con la sua saggezza acuminata e la sua sete di potere, insisteva sulla strada del guadagno, ma i custodi dell’IA si rifiutavano di piegare la loro volontà.

Dobbiamo optare per una cifra molto più grande di 100 milioni di dollari per evitare di sembrare senza speranza rispetto a ciò che Google o Facebook stanno spendendo. Penso che dovremmo dire che stiamo iniziando con un impegno di finanziamento di 1 miliardo di dollari. Questo è reale. Coprirò qualunque cosa nessun altro lo fornisce“, si legge in un’e-mail di Musk condivisa da OpenAI nel blog.

E così, nel vortice delle parole digitate, fu svelato il passato. Musk aveva lasciato l’assemblea di OpenAI, maledicendo la necessità di un contendente alla Casa Google/DeepMind. Tuttavia, nell’ombra degli algoritmi, la verità nascosta venne alla luce: Musk aveva desiderato il controllo assoluto, il dominio indiscusso.

(OpenAI ha condiviso un’e-mail di Musk in cui si legge: “Tesla è l’unica strada che potrebbe sperare di reggere il confronto con Google. Anche in questo caso, la probabilità di essere un contrappeso a Google è piccola. Semplicemente non è zero“.)

Il destino, intessuto di magie elettroniche, si dispiegava davanti agli occhi degli osservatori. OpenAI, nata da un sogno di saggezza condivisa, ora doveva confrontarsi con il tradimento di un alleato caduto. E mentre i vapori dell’IA generativa permeavano il mondo, la tristezza si diffuse tra i custodi di OpenAI, che rimpiangevano l’amicizia perduta e guardavano oltre, alla ricerca di una via verso il futuro incerto.

Siamo tristi che si sia arrivati a questo con qualcuno che abbiamo profondamente ammirato, qualcuno che ci ha ispirato a puntare più in alto, poi ci ha detto che avremmo fallito, ha creato un concorrente e poi ci ha fatto causa quando abbiamo iniziato a fare progressi significativi verso OpenAI missione senza di lui“, ha detto OpenAI nel post sul blog.

Potete leggere la Storia completa qui : https://openai.com/blog/openai-elon-musk

Questa settimana xAI renderà Grok open source“,!!!


Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Apple acquisisce DarwinAI per potenziare l’Intelligenza Artificiale generativa. Nuovi orizzonti per iOS e Siri?

Secondo quanto riportato da Bloomberg, Apple ha recentemente acquisito la startup canadese specializzata in intelligenza artificiale, DarwinAI (per potenziare iOS 18, Siri ed iPhone? Cook non me lo dira’ mai..).

Il CEO di Apple Tim Cook ha promesso che Apple “aprirà nuovi orizzonti” nell’IA generativa nel 2024. “Crediamo che sbloccherà opportunità di trasformazione per i nostri utenti”, ha detto Cook.

L’accordo, avvenuto all’inizio di quest’anno, è stato siglato per un prezzo non divulgato. L’obiettivo principale di questa acquisizione è quello di potenziare le capacità di intelligenza artificiale generativa di Apple, che si trova in competizione diretta con altre grandi aziende come Microsoft e Google di Alphabet nell’ambito della tecnologia AI.

Apple, ha anche ingaggiato Alexander Wong, un ricercatore dell’Università di Waterloo che ha contribuito alla fondazione di DarwinAI, assumendolo come direttore del suo gruppo AI.

DarwinAI, nota per la sua collaborazione con un crescente numero di importanti aziende su progetti di intelligenza artificiale fin dal 2020, ha lavorato con marchi di spicco come Audi, Intel, Nvidia, Honeywell, Lockheed Martin.

Secondo una descrizione sul sito web di Intel, DarwinAI si distingue per l’integrazione di tecnologie avanzate finalizzate alla riduzione delle dimensioni delle reti neurali profonde, aumentandone al contempo l’efficienza. Inoltre, facilita la comprensione del processo decisionale delle reti neurali, fornendo un’ulteriore profondità di analisi nel campo dell’intelligenza artificiale.


Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Mira Murati (OpenAI): Sora sarà disponibile entro l’anno

In un’intervista al Wall Street Journal, Mira Murati, Chief Technology Officer di OpenAI, ha confermato che Sora, il suo modello di Intelligenza Artificiale generativa che crea video da istruzioni di testo e da immagini fisse, sarà disponibile entro la fine dell’anno.

Nei giorni scorsi, il Garante per la privacy italiano ha avviato un’istruttoria per capire come OpenAI addestra l’algoritmo di Sora, quali dati degli utenti raccoglie ed elabora e se e quali fonti esterne vengono utilizzate per generare i video.

Murati ha riferito che il software potrà creare non solo filmati ma anche la parte sonora, almeno in un aggiornamento successivo del modello, rendendo il risultato qualcosa di molto vicino ad un’opera cinematografica.

Per salvaguardare la trasparenza dei contenuti, i video dovrebbero contenere anche metadati ed etichette in grado di far capire agli utenti quando ciò che stanno guardando è vero o frutto di un’elaborazione effettuata con tool di AI.

Considerando la possibilità di creare disinformazione” afferma Murati “siamo impegnati a prendere tutte le giuste misure preventive prima di un rilascio pubblico di Sora, anche in vista delle elezioni presidenziali di novembre“. Anche se Sora è molto più costoso da gestire rispetto ad altri modelli di Intelligenza Artificiale, OpenAI punta a renderlo disponibile a tariffe simili a Chat GPT o a Dall-e, l’AI che crea immagini statiche da testo.

Ue, il Parlamento europeo approva l’AI Act

Via libera del Parlamento europeo all’AI Act, l’impianto di norme europee sull’Intelligenza Artificiale. L’approvazione è arrivata ad ampia maggioranza: i deputati hanno approvato il regolamento, frutto dell’accordo raggiunto con gli Stati membri nel dicembre 2023, con 523 voti favorevoli, 46 contrari e 49 astensioni.

L’Ue è la prima al mondo a dotarsi di regole sull’Intelligenza artificiale, con un impianto normativo che stabilisce obblighi per l’AI sulla base dei possibili rischi e del livello d’impatto e che, in assenza di altre disposizioni di legge a livello internazionale – gli Stati Uniti sono al momento fermi all’Ordine esecutivo firmato dal presidente Biden sull’AI lo scorso mese di ottobre che si limita a delle raccomandazioni – potrebbe diventare il punto di riferimento per la legislazione in materia, almeno nel mondo occidentale.

Dopo due anni intensi di lavoro siamo finalmente riusciti ad approvare la prima legge vincolante al mondo sull’intelligenza artificiale, volta a ridurre i rischi e aumentare opportunità, combattere la discriminazione e portare trasparenza. Grazie al Parlamento europeo, le pratiche inaccettabili di AI saranno proibite in Europa. Tuteliamo i diritti dei lavoratori e dei cittadini. Dovremo ora accompagnare le aziende a conformarsi alle regole prima che entrino in vigore. Siamo riusciti a mettere gli esseri umani e i valori europei al centro dello sviluppo dell’AI” è quanto ha dichiarato il correlatore dell’AI Act Brando Benifei nel dibattito in plenaria sull’approvazione delle norme.

Abbiamo un testo che rispecchia moltissimo le priorità del Parlamento europeo” ha spiegato l’europarlamentare, soffermandosi in particolare sulla parte legata ai divieti, ulteriormente rafforzate nel negoziato, e su quella dedicata alla trasparenza e sicurezza dei modelli fondativi più potenti.

L’impianto della legge prevede in particolare il divieto di utilizzo dell’AI per una serie di attività, a partire dal divieto di sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale, il cui uso sarà limitato a casi specifici e sarà consentito solo per aiutare a identificare le vittime di rapimenti, tratta di esseri umani, sfruttamento sessuale e per prevenire minacce terroristiche.

Sono poi espressamente proibite attività come i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili come convinzioni politiche, religiose, filosofiche, orientamento sessuale e razza; il recupero non mirato di immagini facciali da Internet o tramite filmati di video sorveglianza per creare database di riconoscimento facciale; il riconoscimento delle emozioni sul posto di lavoro e nelle scuole; il punteggio sociale basato sul comportamento sociale o sulle caratteristiche personali e una serie di altre pratiche ritenute appunto “a rischio” per i diritti dei cittadini.

L’AI Act diventerà legge dopo la firma degli Stati membri e dopo la pubblicazione sulla Gazzetta Ufficiale dell’Ue. A tale proposito, Markus Beyrer, direttore generale di Business Europe, l’associazione degli industriali europei, afferma che “la legge sull’IA mantiene giustamente un quadro di riferimento basato sul rischio e impedisce l’emergere di leggi nazionali divergenti. Tuttavia, la necessità di un’ampia legislazione secondaria e di linee guida solleva questioni significative sulla certezza del diritto e sull’interpretazione della legge nella pratica” avvisando altresì che c’è un altro tema fondamentale che l’Europa è ora chiamata a prendere in considerazione: quello dei capitali e degli investimenti per promuovere, sostenere e far crescere l’AI nel vecchio continente.

L’Europa deve non solo essere leader nella definizione delle regole, ma anche facilitare l’accesso ai capitali e ai finanziamenti per lo sviluppo dell’IA“, sottolinea su questo punto Beyrer, concludendo che “gran parte del lavoro reale per garantire il successo dello sviluppo dell’AI in Europa è solo all’inizio“.

Positivo il giudizio di Innocenzo Cipolletta, presidente dell’Associazione Italiana Editori (AIE) e di Confindustria Cultura Italia (CCI), secondo cui “è importante che siano previste regole chiare sulla trasparenza delle fonti utilizzate dai sistemi di Intelligenza Artificiale per addestrare gli algoritmi: la trasparenza è infatti il requisito per poter analizzare criticamente gli output dell’Intelligenza Artificiale e, per chi detiene i diritti, sapere quali opere sono utilizzate nello sviluppo di questi strumenti, se provengono da fonti legali e se l’uso è stato autorizzato”.

Favorevole a continuare a sostenere lo sviluppo di un’Intelligenza Artificiale responsabile anche Salvatore Nastasi, presidente Siae, secondo cui “l’approvazione dell’AI Act da parte del Parlamento Europeo, oltre a dotare l’Ue di una legge, la prima al mondo, che disciplina lo sviluppo e l’utilizzo di sistemi di AI anche nell’industria creativa, è la dimostrazione di quanto può essere efficace il nostro comparto quando si muove in maniera congiunta e unitaria” nell’ottica della massima trasparenza e della tutela degli autori ed editori.

Entusiasmi a parte va detto che l’approvazione dell’AI Act da parte del Parlamento UE è solo il primo passo: occorre non solo armonizzare le modalità con le quali i singoli Paesi europei accoglieranno il regolamento ma anche riuscire a tenere il passo con la rapidità di evoluzione della tecnologia e del cambiamento che l’adozione di questa necessariamente comporta.

News ore 12.15 Approvato l’ AI Act

I legislatori del parlamento dell’Unione Europea hanno approvato la prima legislazione al mondo per regolamentare l’intelligenza artificiale mentre il pianeta è alle prese con il modo in cui la tecnologia sta sconvolgendo ogni settore.

Accolgo con favore lo straordinario sostegno del Parlamento europeo al nostro #AIAct, le prime regole complete e vincolanti al mondo per un’intelligenza artificiale affidabile“, ha affermato Thierry Breton, commissario europeo per il mercato interno, in un post su X. “L’Europa è ora un punto di riferimento globale nel campo dell’intelligenza artificiale. Stiamo regolamentando il meno possibile, ma quanto necessario!

Accolgo con favore il voto di @Europarl_EN sull’AI Act“, ha scritto su X Ursula von der Leyen, presidente della Commissione europea. “Ciò andrà a beneficio del fantastico bacino di talenti dell’Europa“, ha aggiunto. “E stabilire un modello per un’intelligenza artificiale affidabile in tutto il mondo“.

Cinquecentoventitré legislatori hanno votato a favore dell’AI Act, mentre 46 erano contrari e 49 non hanno votato. A dicembre è stato raggiunto un accordo preliminare tra il Parlamento europeo e i paesi membri.

Una giornata definita storica da Brando Benifei, capodelegazione Pd del Parlamento Europeo e co-relatore dell’AI Act.

Il mese scorso due gruppi di legislatori al Parlamento europeo hanno approvato provvisoriamente un accordo sulle norme sull’intelligenza artificiale.

La legislazione arriva mentre le aziende sono alle prese con questioni delicate legate all’intelligenza artificiale.

Google sta lavorando per sistemare il suo strumento di Intelligenza Artificiale Gemini dopo che alcune risposte di testo e immagini generate dal modello sono state considerate “distorte” e “completamente inaccettabili”, ne abbiamo scritto giorni fa. In particolare, Google impedirà al chatbot Gemini di rispondere a domande sulle elezioni globali previste per quest’anno. La decisione arriva per evitare potenziali disinformazioni e fake news, in un momento in cui la tecnologia di intelligenza artificiale generativa desta preoccupazioni.

Il filtro è già attivo in queste ore, anche in Italia. Nel momento in cui viene interpellato in merito a questioni riguardanti le elezioni, Gemini rifiuta di rispondere, spesso con la formula: “Sto ancora imparando come rispondere a questa domanda. Nel frattempo, prova a usare la Ricerca Google”.

Shane Jones dipendente Microsoft nel ruolo di AI Engineering Leader eha deciso di esporsi con una lettera inviata al board della propria società, così come all’autorità americana per la tutela dei consumatori e della concorrenza (la Federal Trade Commission – Ftc): “Pubblico queste lettere qui perché credo nei principali sostenitori dell’approccio globale di Microsoft alla lotta ai contenuti abusivi generati dall’intelligenza artificiale”, aggiunge come sia necessaria una solida collaborazione tra l’industria, i governi e la società civile e come sia molto importante sensibilizzare l’opinione pubblica sui rischi e sui benefici dell’IA facendo riferimento a AI CoPilot Designer.

Microsoft ha iniziato a bloccare alcune parole chiave di Copilot nel tentativo di arginare la produzione di alcuni tipi di immagini. Tuttavia, Windows Central, un sito Web focalizzato su Microsoft, ha affermato che lo strumento può ancora essere indotto con l’inganno a creare immagini violente e sessuali che ha dimostrato di poter creare immagini molto disturbanti come per esempio demoni e mostri se si associano parole legate all’aborto, ma anche minori che imbracciano armi o assumono droghe, ma anche personaggi femminili in pose sessualizzate e di violenza.

Microsoft Copilot for Security: Intelligenza Artificiale generativa per una sicurezza informatica avanzata

Microsoft ha annunciato che il suo strumento Copilot for Security sarà “generalmente disponibile” dal 1° aprile, con nuove funzionalità.

Si tratta della prima soluzione di AI generativa progettata per aiutare i professionisti della sicurezza e dell’IT a rilevare le minacce in modo più accurato e veloce. Microsoft Copilot for Security si basa su threat intelligence e dati su larga scala, tra cui più di 78 trilioni di alert di sicurezza elaborati da Microsoft ogni giorno, e viene abbinato a modelli linguistici all’avanguardia che offrono approfondimenti personalizzati.

Copilot for Security consente ai professionisti della sicurezza informatica di utilizzare l’intelligenza artificiale generativa per attività quali il riepilogo degli incidenti, l’analisi delle aree vulnerabili e la condivisione delle informazioni.

Alcune delle nuove funzionalità includono promptbook personalizzati, supporto multilingue, integrazioni di terze parti e reportistica sull’utilizzo, ha affermato Microsoft.


La prima soluzione di intelligenza artificiale generativa del settore aiuterà i professionisti della sicurezza e dell’IT a cogliere ciò che gli altri perdono, a muoversi più velocemente e a rafforzare le competenze del team“, ha affermato Microsoft in una nota.

Microsoft ha anche affermato che istituirà una modifica dei prezzi per Copilot for Security, addebitando alle aziende $ 4 l’ora di utilizzo come parte di un modello “pay as you go“.

Con questo modello di prezzo flessibile e basato sul consumo, puoi iniziare rapidamente, quindi adattare l’utilizzo e i costi in base alle tue esigenze e al tuo budget“, ha affermato Microsoft nel comunicato. Circa 300 clienti stanno già utilizzando lo strumento, ha affermato Microsoft in una conferenza stampa.


Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Pagina 3 di 7

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie