Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Categoria: Business Pagina 18 di 20

Nuove prospettive su come la tecnologia ai sta plasmando il futuro del business e della finanza

Bill Gates never left

Microsoft ha ampliato la sua partnership con il titano dei media con sede a Berlino Axel Springer SE per sfruttare i reciproci punti di forza nella pubblicità, nell’intelligenza artificiale, nei contenuti e nei servizi di Azure, hanno annunciato lunedì le società.

Gli elementi della partnership includono Axel Springer che adotta la tecnologia Microsoft Advertising; pilotare esperienze di chat basate sull’intelligenza artificiale, basate sul servizio Azure OpenAI, per coinvolgere gli utenti di Axel Springer; miglioramento dei contenuti tramite Microsoft Start-MSN; e Axel Springer che stanno migrando le proprie soluzioni SAP su Microsoft Azure.

“La nostra partnership ampliata con Axel Springer unisce la loro leadership nell’editoria digitale con tutta la potenza di Microsoft Cloud, comprese le nostre soluzioni pubblicitarie, per creare esperienze innovative basate sull’intelligenza artificiale e creare nuove opportunità per inserzionisti e utenti”

CEO di Microsoft Satya Nadella .

Axel Springer gestisce marchi mediatici ben noti come Business Insider e Politico, nonché portali classificati. Alla fine dell’anno scorso, OpenAI, sostenuta da Microsoft, ha stipulato un accordo con Axel Springer per utilizzare i contenuti dell’azienda per addestrare i suoi modelli di intelligenza artificiale.

Bill Gates never left. Secondo un rapporto pubblicato oggi su Business Insider, l’ascesa dell’intelligenza artificiale e degli agenti IA si ricollega a una nota profetica di Bill Gates a Nadella nel 2017.

Nonostante Gates si sia dimesso dal consiglio di amministrazione di Microsoft nel marzo 2020, il rapporto rileva che “Gates ha orchestrato silenziosamente gran parte della rivoluzione dell’intelligenza artificiale di Microsoft da dietro le quinte”.

“Dirigenti attuali ed ex affermano che Gates rimane strettamente coinvolto nelle operazioni dell’azienda: consigliando la strategia, rivedendo i prodotti, reclutando dirigenti di alto livello e coltivando il rapporto cruciale di Microsoft con Sam Altman, cofondatore e CEO di OpenAI”, si legge nel rapporto.


Iscriviti alla nostra newsletter settimanale per non perdere le ultime notizie sull’Intelligenza Artificiale.

[newsletter_form type=”minimal”]

CFO parola d’ordine riduzione dei costi – Report US Bank

Con l’incertezza economica e geopolitica in corso, i dirigenti finanziari degli Stati Uniti hanno concentrato le loro energie sul rafforzamento degli sforzi di riduzione dei costi, rendendola la loro priorità numero uno, secondo un recente sondaggio di US Bank (USB).

Questo è un ambiente difficile per i direttori finanziari.

Making big decisions in the face of big unknowns

“Si trovano ad affrontare inflazione e tassi di interesse più elevati, incertezza politica negli Stati Uniti e all’estero, un’economia a breve termine difficile da prevedere e un’incredibile pressione per effettuare i giusti investimenti tecnologici di cui le loro aziende avranno bisogno per competere”

Stephen Philipson, responsabile dei mercati globali e della finanza specializzata presso US Bank.

Ridurre i costi all’interno della funzione finanziaria e dell’intera azienda sono le due priorità principali, secondo il quarto rapporto annuale CFO Insights della banca statunitense, che ha intervistato 2.030 dirigenti finanziari senior durante il periodo gennaio-febbraio.

Concentrarsi sulla gestione del rischio sta diventando sempre più importante per i CFO, diventando ora la terza priorità più comune. L’aumento dell’espansione delle entrate, nel frattempo, occupa una posizione modesta come la quinta questione più urgente.

Uno dei maggiori rischi che gli intervistati continuano a citare è il ritmo dei cambiamenti tecnologici.

Quasi la metà dei CFO intervistati ha affermato di dare priorità agli investimenti nella tecnologia rispetto ai tagli ai posti di lavoro come soluzione principale per tagliare le spese. L’intelligenza artificiale è la seconda priorità per gli investimenti nella funzione finanziaria (51%) dopo l’analisi dei dati (52%). In generale, i licenziamenti sono considerati quasi l’ultima risorsa quando si tratta di tagliare le spese.

Un sondaggio Coupa all’inizio di questo mese ha rivelato che, mentre il 45% dei CFO afferma di voler investire nell’intelligenza artificiale per stimolare la crescita quest’anno, l’89% di loro nutre dubbi sulla capacità della propria azienda di implementare con successo una strategia di intelligenza artificiale.

Due CFO su cinque hanno riferito che la loro sfida più grande è tenere il passo con i progressi dell’intelligenza artificiale “poiché il tasso di innovazione supera la scala umana e l’efficienza dei processi tradizionali”, afferma l’indagine Strategic CFO di Coupa.

In una lettera agli azionisti, il CEO di Amazon Andy Jassy ha sottolineato l’attenzione del colosso dell’e-commerce sulle misure di riduzione dei costi, parlando al contempo del potenziale dell’intelligenza artificiale, affermando che la società ha “trovato diverse aree in cui crediamo di poter ridurre ulteriormente i costi mentre inoltre, consegnamo più velocemente ai clienti.”

Nello spazio tecnologico, Meta Platforms ha segnalato la scorsa settimana che sarebbe stata in un ciclo di investimenti per qualche tempo mentre la corsa all’intelligenza artificiale continua. Anche se si prevede che una tale mossa aumenterà i costi nel breve periodo, Wall Street ritiene che la spesa per l’intelligenza artificiale potrebbe ripagare nel lungo termine, con Andrew Boone di JMP Securities che afferma che Meta probabilmente sarà “ben posizionata” per trarre vantaggio dall’intelligenza artificiale. aumentare il coinvolgimento e l’efficienza pubblicitaria.


Iscriviti alla nostra newsletter settimanale per non perdere le ultime notizie sull’Intelligenza Artificiale.

[newsletter_form type=”minimal”]

NOYB contro OpenAI

L’europa continua a difendersi. Nell’UE, il GDPR richiede che le informazioni sulle persone siano accurate e che queste abbiano pieno accesso alle informazioni memorizzate, così come alle informazioni sulla fonte. 

Il gruppo di difesa NOYB ha presentato un reclamo all’autorità austriaca per la protezione dei dati contro OpenAI per presunta non correzione delle informazioni errate fornite da ChatGPT che potrebbero violare le norme sulla privacy dell’UE.

NOYB, o None Of Your Business, ha affermato che il denunciante, che è un personaggio pubblico, nella sua causa contro OpenAI ha chiesto a ChatGPT il suo compleanno e gli sono state ripetutamente fornite informazioni errate invece di dire agli utenti che non disponeva dei dati necessari.

Il gruppo di difesa ha aggiunto che OpenAI ha rifiutato la richiesta del denunciante di rettificare o cancellare i dati, affermando che non era possibile correggere i dati.

Sebbene il Regolamento generale sulla protezione dei dati, o GDPR, dia agli utenti il ​​diritto di chiedere alle aziende una copia di tutti i dati personali che vengono elaborati su di loro, OpenAI non ha divulgato alcuna informazione sui dati elaborati, sulle loro fonti o destinatari, ha osservato NOYB.

Il gruppo ha chiesto all’autorità austriaca per la protezione dei dati (DSB) di indagare sul trattamento dei dati di OpenAI e sulle misure adottate per garantire l’accuratezza dei dati personali trattati nel contesto dei grandi modelli linguistici dell’azienda.

“È chiaro che le aziende attualmente non sono in grado di far sì che chatbot come ChatGPT rispettino la legislazione dell’UE quando elaborano dati sugli individui. Se un sistema non può produrre risultati accurati e trasparenti, non può essere utilizzato per generare dati sugli individui”, ha affermato Maartje de Graaf, avvocato specializzato in protezione dei dati presso NOYB.

NOYB ha affermato che OpenAI rileva che l’accuratezza fattuale nei modelli linguistici di grandi dimensioni rimane un’area di ricerca attiva.

Continua l’indagine della Commissione Europea su META

Meta Platforms( enon solo) è al centro di un’indagine condotta dalla Commissione Europea in merito alle modalità con cui le sue piattaforme, in particolare Facebook e Instagram, affrontano le campagne di disinformazione orchestrate dalla Russia e da altre nazioni, come riportato dal Financial Times.

La comunità europea ritiene che l’azienda non faccia abbastanza per fermare la pubblicità politica che potrebbe potenzialmente minare il processo elettorale, ha detto il media, citando due persone a conoscenza della questione.

I funzionari del continente sono preoccupati che gli strumenti di Meta non siano abbastanza facili da usare per gli utenti per segnalare contenuti illegali, ha aggiunto il media.

Si prevede che un’indagine formale arriverà questa settimana, forse già oggi.

La direttiva fa parte del Digital Services Act, pubblicato nell’ottobre 2022, che ha dato alle aziende fino a gennaio 2024 per adeguarsi.

Il Digital Services Act ha costretto le aziende come Meta, X (precedentemente nota come Twitter) e Google a dire ai regolatori esattamente cosa stanno facendo per combattere la disinformazione online e liberare rapidamente le loro piattaforme da contenuti illegali, come l’istigazione al terrorismo e lo sfruttamento sessuale dei minori.

SIn caso di violazione, la Commissione può imporre multe fino al 10 per cento del fatturato mondiale dell’azienda, che arrivano fino al 20 per cento in caso di violazione reiterata.

La partnership tra Financial Times & OpenAI

OpenAI, l’innovativa startup nel campo dell’intelligenza artificiale generativa e sostenuta da Microsoft, ha siglato una partnership con il prestigioso giornale britannico Financial Times. Questo accordo autorizza OpenAI a utilizzare i contenuti editoriali del Financial Times per il perfezionamento e l’addestramento dei propri modelli di intelligenza artificiale.

Il FT riceverà un pagamento non divulgato come parte dell’accordo. In cambio, gli utenti del chatbot ChatGPT di OpenAI riceveranno riepiloghi e citazioni da articoli e collegamenti del FT, ove appropriato.

“OpenAI comprende l’importanza della trasparenza, dell’attribuzione e della remunerazione, tutti aspetti essenziali per noi”, ha affermato in una nota l’amministratore delegato del gruppo FT, John Ridding . “Allo stesso tempo, è chiaramente nell’interesse degli utenti che questi prodotti contengano fonti affidabili.”

“La nostra partnership e il dialogo continuo con il FT riguardano la ricerca di modi creativi e produttivi affinché l’intelligenza artificiale possa potenziare testate giornalistiche e giornalisti e arricchire l’esperienza ChatGPT con giornalismo di livello mondiale in tempo reale per milioni di persone in tutto il mondo”, ha affermato il capo di OpenAI. Ha aggiunto il responsabile operativo Brad Lightcap.

L’accordo con il FT arriva nel contesto di un track record contrastante per OpenAI per quanto riguarda il settore dei media e l’uso di contenuti per addestrare i suoi modelli di intelligenza artificiale.

OpenAI è attualmente in trattative con diverse decine di editori per ottenere il permesso di utilizzare i loro contenuti per addestrare i propri sistemi di intelligenza artificiale.

L’obiettivo dell’azienda è quello di migliorare la qualità e l’accuratezza dei suoi modelli di AI, fornendo loro un’ampia gamma di fonti affidabili e autorevoli da cui apprendere.

Sebbene i termini esatti degli accordi non siano stati resi pubblici, è probabile che prevedano un compenso finanziario per gli editori in cambio dell’utilizzo dei loro contenuti da parte di OpenAI.

OpenAI ha annunciato nel dicembre 2023 di aver firmato un accordo con la casa editrice Axel Springer per utilizzare i contenuti della società di media per addestrare i suoi modelli di intelligenza artificiale.

Recentemente ha inoltre firmato accordi con il quotidiano francese Le Monde e il conglomerato mediatico spagnolo Prisa Media e ha accordi esistenti con l‘Associated Press, l’American Journalism Project e la NYU.

Secondo quanto riferito, anche editori tra cui News Corp. , Gannett e altri hanno tenuto colloqui con OpenAI per ottenere la licenza dei loro contenuti.

Tuttavia, la New York Times Company  ha citato in giudizio Microsoft e OpenAI per violazione del copyright alla fine di dicembre, sostenendo che le società tecnologiche hanno utilizzato illegalmente il contenuto del giornale per addestrare modelli di intelligenza artificiale.

Da allora, The Times e OpenAI sono stati impegnati in un avanti e indietro, con OpenAI che afferma che la società del giornale “non sta raccontando l’intera storia” e accusa il Times di hacking dei suoi prodotti.

Il New York Times ha negato l’affermazione di OpenAI secondo cui avrebbe utilizzato in modo improprio i suoi prodotti e ha affermato che la società è “eccezionale”.

Un gruppo di 11 scrittori di saggistica si è recentemente unito a una causa presso il tribunale federale di Manhattan secondo cui OpenAI e Microsoft hanno utilizzato in modo improprio i loro libri per addestrare i modelli di intelligenza artificiale delle società.

A settembre, OpenAI è stata citata in giudizio in un tribunale federale di New York da diversi autori, tra cui George RR Martin e John Grisham, per presunta violazione del copyright.

Google e la tecnologia pubblicitaria

Google sta rafforzando la sua collaborazione con i partner multimediali, integrando l’intelligenza artificiale generativa nella sua tecnologia pubblicitaria, mentre i lettori di streaming aumentano la diffusione dei canali supportati da pubblicità. Durante le presentazioni NewFront, Google ha annunciato che la sua offerta Display & Video 360 si sta evolvendo per unificare meglio gli acquisti di pubblicità video, migliorando la scalabilità e la corrispondenza del pubblico.

Kristen O’Hara di Google ha dichiarato che l’azienda sta rafforzando le relazioni strategiche con i principali partner di streaming, tra cui Disney, Paramount, NBCUniversal e Warner Bros. Discovery.

Per soddisfare le esigenze delle agenzie in rapida evoluzione, Google sta introducendo gli accordi istantanei, uno strumento che consente agli esperti di marketing di configurare accordi personalizzati con i principali editori direttamente dall’interfaccia di Display & Video 360, bypassando il complesso processo di negoziazione. Questa funzionalità si sta espandendo oltre il proprio YouTube per raggiungere grandi editori come Disney.

Inoltre, Google ha presentato l’ottimizzatore dell’impegno (commitment optimizer), uno strumento che semplifica la gestione degli impegni annuali tra editori e tipi di offerte. Gli utenti possono inserire i termini e gli obiettivi dell’offerta, e l’intelligenza artificiale di Google ottimizzerà in modo intelligente il mix di inventario garantito e non garantito per offrire flessibilità e copertura.

Paramount specializes in creating content fans love on the platforms they can’t live without. Partnering with Google ensures that our clients can access Paramount Advertising’s premium inventory seamlessly through Display & Video 360.

Pete Chelala, Vice President
Programmatic Advertising Sales, Paramount

Google sta anche contribuendo al Publisher Advertiser Identity Reconciliation dello IAB Tech Lab, un’iniziativa volta a migliorare la corrispondenza tra gli ID degli editori e degli inserzionisti, al fine di migliorare l’efficacia delle campagne pubblicitarie.

Per quanto riguarda l’intelligenza artificiale generativa, sta diventando una parte sempre più essenziale di Display & Video 360.

La funzione “audience persona“, basata sull’intelligenza artificiale, crea una gamma personalizzata di segmenti di pubblico in linea con le specifiche esigenze dell’annunciatore. Questo strumento offre la possibilità di selezionare tra migliaia di varianti per allinearsi perfettamente con gli obiettivi pubblicitari. Grazie alle opzioni di offerta personalizzate, gli inserzionisti possono stabilire le proprie priorità e ottenere una strategia mirata a massimizzare l’impatto delle loro campagne sui risultati sperati.

Si prevede che i PC compatibili con l’intelligenza artificiale costituiranno il 40% delle spedizioni globali di PC nel 2025 

Nel 2024, circa il 18% delle spedizioni totali di personal computer a livello globale saranno PC dotati di intelligenza artificiale, e questo sarebbe solo l’inizio di un’importante transizione del mercato, secondo la società di ricerca Canalys.

Questi computer, che integrano acceleratori IA dedicati, come le Neural Processing Unit o NPU, avranno nuove capacità di produttività, personalizzazione ed efficienza energetica e sconvolgeranno il mercato dei PC, fornendo guadagni di valore ai fornitori e ai loro partner, aggiunge il rapporto .

L’azienda prevede che quest’anno in tutto il mondo verranno spediti circa 48 milioni di PC compatibili con l’intelligenza artificiale e si prevede che il numero supererà i 100 milioni, rappresentando il 40% di tutte le spedizioni di PC nel 2025.

“La più ampia disponibilità di silicio in grado di accelerare l’intelligenza artificiale nei personal computer sarà trasformativa, portando a oltre 150 milioni di PC compatibili con l’intelligenza artificiale spediti entro la fine del 2025”, ha affermato Ishan Dutt, principale analista di Canalys.

La rapida adozione di PC compatibili con l’intelligenza artificiale determinerà un moderato aumento del valore del mercato indirizzabile totale, o TAM, del mercato più ampio dei PC, osserva il rapporto.

Secondo l’analista di Canalys Kieren Jessop, nel breve termine Canalys prevede un sovrapprezzo compreso tra il 10% e il 15% sui PC compatibili con l’intelligenza artificiale rispetto ai PC senza integrazione NPU.

Entro la fine del 2025, oltre la metà dei PC dal valore pari o superiore a 800 dollari sarà compatibile con l’intelligenza artificiale, con una quota che aumenterà fino a oltre l’80% entro il 2028. Le spedizioni di PC in questa fascia di prezzo aumenteranno fino a formare oltre la metà del mercato in quattro anni, Jessop notato.

Nel 2028, l’azienda prevede che i fornitori spediranno 205 milioni di PC compatibili con l’intelligenza artificiale, pari a un tasso di crescita annuo composto del 44% tra il 2024 e il 2028.

“Ciò contribuirà ad aumentare il valore complessivo delle spedizioni di PC da 225 miliardi di dollari nel 2024 a oltre 270 miliardi di dollari nel 2028”, ha commentato Jessop.

Snowflake ha lanciato il suo ampio modello linguistico chiamato Snowflake Arctic rivolto alle imprese

Secondo Snowflake, il modello di intelligenza artificiale aperto, che l’azienda definisce “LLM di livello aziendale”, è ottimizzato per carichi di lavoro aziendali complessi, superando diversi benchmark di settore in termini di generazione di codice SQL, seguito di istruzioni e altro ancora.

Snowflake ha osservato che fornirà il modello LLM con una licenza Apache 2.0 che consente l’uso personale, di ricerca e commerciale senza restrizioni.

“Questo è un momento spartiacque per Snowflake, con il nostro team di ricerca sull’intelligenza artificiale che innova in prima linea nell’intelligenza artificiale”,

Sridhar Ramaswamy, CEO di Snowflake.

Per un utilizzo immediato, Arctic è disponibile per l’inferenza serverless in Snowflake Cortex, un servizio gestito che offre soluzioni di machine learning e intelligenza artificiale nel Data Cloud.

Il modello sarà disponibile anche sul catalogo API di AWS, Hugging Face, Lamini, Microsoft Azure, NVIDIA Perplexity , Together AI e altro ancora, ha osservato la società.

Snowflake ha affermato che fornirà anche modelli di codice, insieme a opzioni flessibili di inferenza e formazione in modo che gli utenti possano iniziare rapidamente a personalizzare Arctic utilizzando i loro framework preferiti. Questi includeranno NIM NVIDIA con NVIDIA TensorRT-LLM, vLLM e Hugging Face.

Oltre ad Arctic LLM, la famiglia di modelli Snowflake Arctic include anche Arctic embed, una famiglia di modelli di incorporamento di testo recentemente annunciata.

L’azienda ha notato che la famiglia di cinque modelli è disponibile su Hugging Face per un uso immediato e sarà presto disponibile come parte di Snowflake Cortex.

I servizi di GENAI hanno preso d’assalto il mondo dal lancio di ChatGPT di OpenAI supportato da Microsoft nel 2022. A livello globale, le aziende hanno lanciato i propri LLM in grado di fornire servizi come generazione di contenuti, immagini, video e voce , solo per citarne alcuni.

Emu Video di Meta Platforms Emu Edit, AudioCraft , SeamlessM4T e Llama 2, Tongyi Qianwen 2.0 e Tongyi Wanxiang di Alibaba, Ernie Bot di Baidu, lo strumento di conversione testo-immagine di OpenAI DALL·E 3 , Gemini di Google, l’unità Alphabet,  Gauss di Samsung e il modello di Getty Images chiamato Generative AI di Getty Images, sono alcuni dei LLM, tra i tanti, che sono stati lanciati.

Taiwan Semiconductor A16 vs Intel

Taiwan Semiconductor inizierà a utilizzare una nuova tecnologia di produzione di semiconduttori nella seconda metà del 2026, ha riferito Reuters, citando i commenti del co-Chief Operating Officer YJ Mii.

La nuova tecnologia consentirà a Taiwan Semiconductor di offrire energia dal retro del chip, ha affermato Mii parlando a una conferenza a Santa Clara, in California, secondo il notiziario . Ciò aiuterà i chip utilizzati per l’intelligenza artificiale, che ha continuato ad aumentare sia in termini di potenza che di velocità.

Intel , che sta tentando di competere con Taiwan Semiconductor, Samsung e GlobalFoundries nel mercato , ha presentato lo scorso febbraio una nuova tecnologia di produzione di chip nota come 14A. L’arrivo della tecnologia 14A è previsto più o meno nello stesso periodo della tecnologia A16 (1.6nm) di Taiwan Semiconductor.

All’inizio di questo mese, Intel ha dichiarato di aver assemblato il primo sistema di litografia ultravioletta estrema ad alta apertura numerica del settore sviluppato da ASML da utilizzare nella sua tecnologia di produzione 14A.

NVDIA continua con le acquisizioni Run:ai.

Nvidia sta rafforzando il suo dominio nello spazio dell’intelligenza artificiale attraverso acquisizioni, le ultime delle quali sono due startup israeliane che mirano a ridurre i costi di creazione e gestione di modelli di intelligenza artificiale.

Mercoledì il colosso dei chip ha confermato che acquisirà Run:ai e si dice che abbia raggiunto un accordo per un’altra startup Deciha riferito The Information citando una persona coinvolta nell’accordo.

La domanda per i chip avanzati di Nvidia è aumentata poiché le aziende tecnologiche investono sempre più in modelli di intelligenza artificiale. Ma i modelli di intelligenza artificiale sono molto costosi da gestire e sono soggetti a errori, il che porta a preoccupazioni sui rendimenti di investimenti così ingenti.

Sia Deci che Run:ai lavorano per ridurre questi costi. Run:ai rende i chip AI più efficienti consentendo l’esecuzione di più carichi di lavoro in parallelo, riducendo il numero di GPU necessarie per completare le attività.

Nel frattempo, Deci modifica i modelli di intelligenza artificiale per garantire che funzionino in modo più economico. Il suo lavoro è simile a quello di OmniML, un’altra startup che Nvidia ha acquisito tranquillamente l’anno scorso.

Se Nvidia riuscisse a ridurre i costi di gestione dei modelli di intelligenza artificiale, sarebbe in grado di mantenere la domanda a lungo termine per i suoi chip che alimentano questi modelli.

Secondo il rapporto , la società dovrebbe offrire la tecnologia di Deci e OmniML insieme alla sua piattaforma di elaborazione parallela Cuda . Il servizio di supercalcolo AI DGX Cloud di Nvidia integrerà probabilmente il software Run:ai.

Huawei sovvenzionata dal governo cinese per costruire HBM

Secondo un rapporto di The Information, un gruppo di produttori cinesi di chip, guidati da Huawei, stanno ricevendo finanziamenti dal governo per costruire semiconduttori di memoria ad alta larghezza di banda che fungano da sostituto per la tecnologia AI di Nvidia.

I chip di memoria a larghezza di banda elevata, o HBM, sono necessari per costruire GPU avanzate che alimentano l’intelligenza artificiale e, secondo il rapporto , il consorzio cinese prevede di svilupparne di proprie entro il 2026 .

HBM prova a porre rimedio ai limiti che la GDDR5 (tecnologia utilizzata attualmente per schede video di fascia alta) comincia a mostrare. In particolare, pur offrendo prestazioni di alto livello, una scheda grafica che monta memorie GDDR5 presenta problemi di banda di comunicazione per quanto questa possa essere larga, sembra non essere mai sufficiente.

Le attuali sanzioni statunitensi impediscono alla Cina di importare GPU IA all’avanguardia da società statunitensi come Nvidia.

Le tre società che attualmente producono HBM includono SK Hynix, Samsung Semiconductor e Micron Technology. Tutti utilizzano tecnologia prodotta negli Stati Uniti, che ne impedisce la vendita ad aziende cinesi, come Huawei, dal 2020.

Meta subisce una perdita di valore di 200 miliardi di dollari mentre Zuckerberg si concentra sulla richiesta di profitti in tutte le aree in cui l’azienda sta perdendo denaro

Meta Platforms ha scosso il mondo degli investitori con le sue previsioni per il prossimo trimestre, che sono risultate più deboli del previsto. Inoltre, ha annunciato che si troverà in una fase di investimenti per un periodo prolungato a causa dell’accelerazione dei salari nell’intelligenza artificiale.

“Nel complesso, considero i risultati che i nostri team hanno ottenuto qui come un’altra pietra miliare fondamentale nel dimostrare che abbiamo il talento, i dati e la capacità di scalare l’infrastruttura per costruire modelli e servizi di intelligenza artificiale leader a livello mondiale”, ha affermato Zuckerberg. “E questo mi porta a credere che dovremmo investire molto di più nei prossimi anni per costruire modelli ancora più avanzati e servizi di intelligenza artificiale su scala più ampia al mondo.”

Mark Zuckerberg.

Nonostante le azioni siano crollate di circa il 19% a seguito di queste notizie, gli analisti di Wall Street hanno difeso la società guidata da Mark Zuckerberg.

“Storicamente, investire per creare queste nuove esperienze su larga scala nelle nostre app è stato un ottimo investimento a lungo termine per noi e per gli investitori che sono rimasti con noi e anche qui i segnali iniziali sono piuttosto positivi”.

Zuckerberg

Un po’ come un Messia seguitemi e sarete ricompensati.

Ha aggiunto che la costruzione di un’intelligenza artificiale leader sarà un’impresa più grande rispetto alle altre esperienze che hanno aggiunto alle loro app e che probabilmente richiederà diversi anni.

“Realisticamente, anche spostando molte delle nostre risorse esistenti per concentrarci sull’intelligenza artificiale, la nostra dotazione di investimenti aumenterà comunque in modo significativo prima di ottenere entrate significative da alcuni di questi nuovi prodotti”,

Zuckerberg

Meta ha annunciato che ora prevede spese per l’intero anno comprese tra 94 e 99 miliardi di dollari a causa di “maggiori costi infrastrutturali e legali”.

(Proprio ieri, Meta ottiene il parere sfavorevole dell’avvocato generale nel caso relativo ai dati sull’orientamento sessuale nell’UE)

Le spese in conto capitale per l’intero anno saranno comprese tra 35 e 40 miliardi, rispetto a un precedente range compreso tra 30 e 37 miliardi,

“mentre continuiamo ad accelerare i nostri investimenti infrastrutturali per supportare la nostra tabella di marcia sull’intelligenza artificiale”.

Zuckerberg

Meta genera il 98% delle sue entrate dalla pubblicità digitale. Ma quando Zuckerberg parlava di pubblicità, guardava al futuro e ai modi in cui l’azienda avrebbe potuto potenzialmente trasformare i suoi attuali investimenti in dollari pubblicitari.

“Esistono diversi modi per creare un business enorme qui, tra cui il ridimensionamento della messaggistica aziendale, l’introduzione di annunci o contenuti a pagamento nelle interazioni dell’IA”.

Zuckerberg

DATA MONETIZATION. Detta cosi’ sembrerebbe che non ha molto interesse a sviluppare GENAI, ma piuttosto come sempre per META a raccogliere dati dell’utente per vendere Pubblicita’, quello che gli Analisti chiamano (l’AI) un business collateral(e). Come le TV private dove spesso i programmi sono collaterali alla pubblicita’.

“Nonostante tutti gli audaci piani di intelligenza artificiale di Meta, non può permettersi di distogliere lo sguardo dal nucleo del business: le sue attività pubblicitarie principali”, ha detto mercoledì in una nota Sophie Lund-Yates , analista di Hargreaves Lansdown. “Ciò non significa ignorare l’intelligenza artificiale, ma significa che la spesa deve essere mirata e in linea con una chiara visione strategica”.

Speriamo che ci sia spazio per il rispetto delle regole e dell’etica, non come e successo in passato, aggiungiamo noi.

Vale la pena sottolineare che Meta ha notato la volatilità delle azioni durante tali fasi di investimento nel playbook del prodotto, infatti ha aggiunto:

“dove stiamo investendo nell’ampliamento di un nuovo prodotto, non lo stiamo ancora monetizzando. Lo abbiamo visto con Reels, storie, man mano che il feed di notizie passa ai dispositivi mobili e altro ancora, e mi aspetto anche di vedere un ciclo di investimenti pluriennale prima di adattare completamente le API aziendali AI e altro ancora ai servizi redditizi che mi aspetto.”

Zuckerberg

Passando agli sforzi ben pubblicizzati di Meta per potenziare il metaverso, Zuckerberg ha affermato che è interessante il modo in cui il tema si sovrappone ora all’intelligenza artificiale.

Nel frattempo, l’unità Reality Labs di Meta , che ospita l’hardware e il software dell’azienda per lo sviluppo del nascente metaverso, continua a dissanguare denaro.

Reality Labs ha registrato vendite per 440 milioni di dollari nel primo trimestre e perdite per 3,85 miliardi di dollari. Le perdite cumulative della divisione dalla fine del 2020 hanno superato i 45 miliardi di dollari.

Zuckerberg oltre di Llama3 ha anche parlato degli occhiali AR di Meta, che ha definito “il dispositivo ideale per un assistente AI perché puoi far loro vedere ciò che vedi e sentire ciò che senti”.

“Questo è più chiaro quando si guardano gli occhiali”, “Sai, pensavo che gli occhiali [per la realtà aumentata] non sarebbero stati davvero un prodotto mainstream finché non avessimo avuto display olografici completi, e penso ancora che sarà fantastico e sarà uno stato maturo a lungo termine per il prodotto. Ma ora sembra abbastanza chiaro che esista un mercato significativo anche per gli occhiali AI alla moda senza display.”

Zuckerberg

Per chi volesse approfondire di seguito la trascrizione.

Il contenuto del presente articolo deve intendersi solo a scopo informativo e non costituisce una consulenza professionale. Le informazioni fornite sono ritenute accurate, ma possono contenere errori o imprecisioni e non possono essere prese in considerazione per eventuali investimenti personali. L’articolo riporta esclusivamente le opinioni della redazione che non ha alcun rapporto economico con le aziende citate.

Key Points dai commenti di Elon Musk durante la chiamata sugli utili del primo trimestre di Tesla

Durante la recente teleconferenza sugli utili, Elon Musk, CEO di Tesla, ha espresso le sue opinioni su vari argomenti. Ha riconosciuto che l’adozione globale di veicoli elettrici sta affrontando delle sfide, ma ha mantenuto la sua convinzione che, nel lungo periodo, i veicoli elettrici prenderanno il sopravvento nell’industria automobilistica.

Q1 2024 ActualAnalyst Estimates for Q1 2024Q1 2023Year-Over-Year Change
Revenue$21.3 billion$22.25 billion$23.33 billion(9%)
Adjusted Diluted Earnings / (Loss) Per Share45 cents52 cents85 cents(47%)
Adjusted Net Income / (Loss)$1.54 billion$1.88 billion$2.93 billion(48%)

Musk ha inoltre annunciato che nuovi modelli di auto saranno lanciati nella prima metà del 2025, o forse già alla fine del 2024. Questi nuovi modelli incorporeranno elementi della tecnologia autonoma di Tesla e saranno prodotti utilizzando le linee di produzione esistenti. Tuttavia, Musk non ha voluto rivelare se questi nuovi modelli saranno versioni aggiornate dei modelli attuali.

Parlando della Full Self-Driving (FSD), Musk ha elogiato le caratteristiche dell’ultima versione.

Secondo lui, una rete neurale con telecamere è la soluzione ideale per la FSD. Ha anche sottolineato che la potenza di calcolo dell’intelligenza artificiale di Tesla sta progredendo rapidamente. Musk ha rivelato che Tesla è attualmente in trattative con almeno un grande produttore di automobili per concedere in licenza la tecnologia FSD.

Rispondendo a una domanda sul robot umanoide Optimus, Musk ha dichiarato che prevede che Tesla sarà in grado di iniziare a vendere questi robot entro la fine del prossimo anno. Ha anche espresso la sua convinzione che Optimus potrebbe diventare la più grande attività di Tesla.

Tesla aveva affermato che Optimus è alimentato dallo stesso software della funzionalità di guida autonoma delle sue auto, per le quali Tesla ha sviluppato i propri chip, sia all’interno del veicolo che nel supercomputer (Dojo) utilizzato per l’allenamento. i modelli. Certamente, queste capacità di deep learning (sia hardware che software), che sono così cruciali per rendere utili i robot umanoidi, sono al di fuori del dominio di tutte le altre aziende di robotica. È qui che nasce l’attrattiva e la differenziazione dell’ingresso di Tesla in questo mercato.

Musk ha apprezzato gli sforzi di altre case automobilistiche nel creare un percorso per le approvazioni normative sulla guida autonoma.

Ha citato dati che dimostrano che la guida autonoma è più sicura della guida umana. Ha immaginato un futuro in cui esiste una flotta di robotaxi, una sorta di ibrido tra Uber e Airbnb, con i clienti e la società con sede ad Austin che gestiscono entrambe le parti della flotta. Musk ha affermato:

“In futuro, le auto a benzina che non saranno autonome saranno come andare a cavallo e usare un telefono cellulare, e questo diventerà molto ovvio”.

E.Musk

Il punto è che tutti questi esempi appartengono al dominio del software, non dell’hardware, e che è alimentato da chip di silicio. Come alcuni hanno sostenuto, avere semplicemente un robot che assomigli a un essere umano o una automobile che si guida da soloenon è sufficiente, deve anche essere in grado di fare le cose che un essere umano può fare. Ebbene, data l’ascesa dell’intelligenza artificiale, questo sta diventando un ambito possibile.

Il contenuto del presente articolo deve intendersi solo a scopo informativo e non costituisce una consulenza professionale. Le informazioni fornite sono ritenute accurate, ma possono contenere errori o imprecisioni e non possono essere prese in considerazione per eventuali investimenti personali. L’articolo riporta esclusivamente le opinioni della redazione che non ha alcun rapporto economico con le aziende citate.

Una nuova era per la Mixed Reality META

Meta Platforms  ha dichiarato lunedì che inizierà a concedere in licenza il sistema operativo per le sue cuffie Quest ad altri produttori di dispositivi, posizionandosi saldamente come un’alternativa più aperta a Vision Pro di Apple.

In un video pubblicato sull’account Instagram del capo di Meta.

Mark Zuckerberg ha notato la differenza tra il modello chiuso di Apple per gli smartphone e il modello aperto per i PC.

La piattaforma di social media ha affermato che produttori di hardware come Asus e Lenovo realizzeranno dispositivi che eseguono il sistema operativo Meta Horizon. L’azienda sta anche lavorando su un visore Quest incentrato sui giochi a tiratura limitata con Xbox di Microsoft .

Republic of Gamers di Asus svilupperà cuffie da gioco e Lenovo costruirà dispositivi di realtà mista per la produttività, l’apprendimento e l’intrattenimento. Zuckerberg ha aggiunto che potrebbero volerci alcuni anni prima del lancio dei dispositivi.

Meta spingerà anche per ulteriori modi per scoprire app store alternativi su Horizon OS. Renderà più prominente il suo negozio sperimentale App Lab e inviterà persino Google di Alphabet a portare il suo Play Store su Horizon OS.

I visori per realtà virtuale e realtà mista hanno finora riscontrato solo un successo limitato, soprattutto da parte della comunità dei videogiochi. Apple  è entrata nel mercato a febbraio con il lancio delle sue cuffie Vision Pro da 3.499 dollari.

Anche Microsoft anche se senza successo, una volta ha tentato di proporre Windows come sistema operativo per visori VR attraverso la sua iniziativa Windows Mixed Reality.

Apple acquista Datakalab

“Abbiamo tre cervelli, il cervello primario associato ai riflessi, il cervello limbico per le emozioni e la neocorteccia” per la riflessione.

Michel Badoc, professore emerito all’HEC

Autori di Il neuro -consumatore. In che modo le neuroscienze influenzano le decisioni di acquisto dei consumatori* .

Apple ha acquisito la startup francese di intelligenza artificiale Datakalab  fondata sette anni fa dai fratelli Xavier e Lucas Fischer, ha affermato il quotidiano francese Challenges.

Datakalab è un laboratorio specializzato in neuromarketing, fondato nel 2016 da Anne-Marie Gaultier, ex direttore marketing delle Galeries Lafayette, insieme ad altri partner.

Utilizzando tecnologie come braccialetti connessi e codifica facciale, Datakalab analizza le emozioni dei consumatori per comprendere meglio il comportamento dei clienti.

Collabora con aziende per ottimizzare strategie di marketing, modificando ad esempio trailer cinematografici per aumentare l’impatto emotivo. I suoi studi hanno rivelato anche dettagli sul comportamento dei clienti nei negozi, come la percezione del tempo di attesa alla cassa in base alle dimensioni del negozio.

Apple ha notificato l’acquisizione alla Commissione Europea, ha aggiunto il notiziario . L’acquisizione si è conclusa lo scorso dicembre, ha affermato Challenged.

Apple potrebbe sfruttare questa tecnologia in diversi modi:

  1. Migliorare l’assistente digitale Siri, rendendolo più empatico e utile comprendendo le emozioni degli utenti.
  2. Espandere le funzionalità sanitarie su dispositivi come Apple Watch e iPhone per monitorare l’umore degli utenti nel tempo, offrendo supporto per la salute mentale.
  3. Potenziare le videochiamate attraverso app come FaceTime, consentendo agli utenti di esprimere le loro emozioni in modo più chiaro e aggiungendo personalità alle interazioni.
  4. Rivoluzionare la pubblicità creando annunci basati sulle emozioni degli utenti, offrendo annunci mirati che tengono conto dello stato emotivo dell’utente in quel momento.

Secondo la sua pagina LinkedIn , Datakalab si descrive come un “nuovo modo per comprimere le reti neurali della visione artificiale”. Aveva tra gli 11 ed i 50 dipendenti.

Le azioni AI si stabilizzano dopo un venerdì da incubo

Il mercato ha attraversato una settimana turbolenta, culminata con una sessione di venerdì segnata dal brusco calo delle azioni di Netflix , che ha influito negativamente sul settore tecnologico, e dalle tensioni geopolitiche tra Iran e Israele, che hanno tenuto gli investitori con il fiato sospeso.

Richard Hunter di Interactive Investor ha notato che i titoli tecnologici sono stati particolarmente colpiti alla fine di una settimana altamente volatile, con parte dei recenti guadagni cancellati dopo un periodo di crescita eccezionale per le azioni legate all’intelligenza artificiale.

La situazione attuale dei mercati è piuttosto confusa, con una grande incertezza riguardo agli eventi in corso in Medio Oriente, una significativa vendita nel settore tecnologico americano, che non si verificava da circa 18 mesi, e un aumento dei rendimenti mentre i tagli dei tassi di interesse vengono sempre più messi da parte,” ha aggiunto Jim Reid di Deutsche Bank.

Dopo un venerdì tumultuoso caratterizzato da vendite aggressive, lunedì i titoli legati all’intelligenza artificiale sembravano trovare una certa stabilità in vista dei prossimi annunci di utili.

Richard Hunter di Interactive Investor ha notato che i titoli tecnologici, in particolare quelli con una forte esposizione all’intelligenza artificiale, hanno subito un deciso calo dopo un periodo di forte crescita. Tuttavia, lunedì le azioni di Nvidia sono aumentate di quasi il 2%, nonostante il declassamento da parte di UBS da Overweight a Neutral, ribaltando la tendenza negativa degli utili. Venerdì, il titolo aveva subito una perdita superiore al 10%.

Nvidia, che pubblicherà i suoi risultati del primo trimestre il 22 maggio, ha previsto un aumento significativo dell’EPS e dei ricavi rispetto all’anno precedente.

Altre società del settore, come Super Micro Computer e Astera Labs , hanno mostrato una performance altalenante. Super Micro Computer è sceso di oltre il 2% lunedì, aggiungendosi al crollo del 23% di venerdì, mentre Astera Labs è salito del 2% dopo un calo del 9% venerdì.

Arm, una società britannica di progettazione di chip, ha registrato un aumento del 4,2%, recuperando parte delle perdite del giorno precedente. Anche altre società del settore, come Qualcomm (QCOM), Broadcom e Texas Instruments hanno registrato aumenti nella giornata di lunedì.

Il contenuto del presente articolo deve intendersi solo a scopo informativo e non costituisce una consulenza professionale. Le informazioni fornite sono ritenute accurate, ma possono contenere errori o imprecisioni e non possono essere prese in considerazione per eventuali investimenti personali. L’articolo riporta esclusivamente le opinioni della redazione che non ha alcun rapporto economico con le aziende citate.

Nvidia in calo del 10 percento La competizione si sta intensificando

Perché ne parliamo. L’Intelligenza Artificiale ha un impatto significativo su vari settori, inclusi quello tecnologico e quello finanziario. Negli Stati Uniti, molte delle aziende leader nell’AI sono quotate in borsa e hanno un peso considerevole negli indici di mercato, come il NASDAQ. Pertanto, il successo o meno di queste aziende può influenzare direttamente le performance complessive del mercato azionario. Analizzando il mercato si comprende anche un po’ più di tecnologia.

Nvidia ha vinto il primo round dell’Intelligenza Artificiale. Adesso la competizione si sta inasprendo. 

Se leggete l’articolo, si afferma che il blocco virtuale di NVDIA sull’Intelligenza Artificiale sarà messo in discussione e ovviamente, è una cosa che accadrà, ma non ora.

L’Intelligenza Artificiale ha regalato quasi quotidianamente meraviglie negli ultimi 18 mesi. Per gli investitori, la più grande sorpresa è stata la crescita di Nvidia, che è passata a dominare completamente il mercato dei chip legati all’AI.

Una volta conosciuta principalmente per la produzione di schede grafiche aggiuntive per PC per i giocatori, Nvidia ha trasformato le sue unità di elaborazione grafica, o GPU, nel cuore pulsante della rivoluzione dell’AI, alimentando la creazione di grandi modelli linguistici e eseguendo il software di inferenza che li sfrutta nei data center di tutto il mondo. Nvidia è stata quasi da sola sul campo, con più del 90% di quota di mercato.

Ma una nuova competizione si sta avvicinando, sia da parte di aziende grandi che piccole, e la battaglia sarà agguerrita. Gli interessi non potrebbero essere più grandi: Lisa Su, CEO di Advanced Micro Devices, ha valutato il mercato dei chip per l’AI a 400 miliardi di dollari entro il 2027. Il CEO di Intel, Pat Gelsinger, ha previsto un’opportunità da 1 trilione di dollari entro il 2030. Quasi il doppio delle dimensioni dell’intera industria dei chip nel 2023.

Jensen Huang di Nvidia ha costruito un’azienda universalmente rispettata e ammirata, ma gli acquirenti di chip non sono entusiasti di fare affidamento su una singola fonte. Aziende hardware come Dell Technologies, Hewlett Packard Enterprise, Lenovo e Super Micro Computer non riescono a ottenere abbastanza chip Nvidia per soddisfare la domanda dei clienti, e vorrebbero alternative.

I fornitori di servizi cloud come Amazon.com e Google di Alphabet desiderano così tanto più opzioni che stanno progettando i propri chip e le aziende che si affidano ai sistemi basati sull’Intelligenza Artificiale vogliono risorse di calcolo aggiuntive a costi più gestibili di quelli attuali.

Nelle ultime due-tre settimane, il mercato azionario ha mostrato una stranezza evidente, Fear of Missing Out (FOMO).

È una stranezza che non è emersa improvvisamente, ma è stata presente per un po’ di tempo. L’indice di volatilità è rimasto sotto i 15 punti per settimane, ma recentemente è salito a un range compreso tra 16 e quasi 20. Questo indice, noto come VIX, misura la prevista volatilità nei prossimi 30 giorni. Più alto è il VIX, maggiore è la volatilità prevista nel breve termine. È considerato un indicatore della paura, in quanto aumenta quando gli investitori iniziano a proteggersi. Dopo mesi di bassa volatilità, questo recente aumento va di pari passo con la situazione attuale.

La recente ondata di vendite sembra surreale perché non c’è stata una vendita superiore al 2,5% da quasi un anno. L’indice S&P 500 è sceso per la terza settimana consecutiva, registrando la più grande perdita settimanale dal marzo 2023 (-3,05%). Attualmente si trova al 5,46% al di sotto del suo massimo storico del 28 marzo 2024. È interessante notare che il Nasdaq è stato il più colpito, mentre il Russell ha superato sia l’S&P 500 che il Nasdaq, chiudendo in rialzo dello 0,24%. Questa situazione è insolita perché di solito, in caso di un aumento dei tassi di interesse, i titoli tecnologici di grandi dimensioni tendono ad attrarre gli acquirenti. Tuttavia, questa volta la situazione è diversa.

Durante questa settimana, molti dei titoli di alto livello hanno registrato forti vendite, anche se sono quelli che hanno mostrato i maggiori guadagni durante l’anno. Ad esempio, Nvidia è scesa del 10%, Eli Lilly del 2,63% e GE Aerospace del 3,2%. Questa è una situazione comune alla fine di una correzione del 10%, quando anche le azioni di grandi nomi vengono vendute in situazioni di panic selling.

Il recente calo di Nvidia potrebbe essere stato influenzato da preoccupazioni riguardanti il suo rapporto con Super Micro Computer. Tuttavia, Nvidia rimane un leader nella tecnologia.

Il vero concorrente più forte è Advanced Micro Devices che ha perso molti punti questa settimana. L’offerta Nvdia si concentra sull’H100, che sarà se non obsoleto, di secondo livello in tempi relativamente brevi quando debutterà la nuova GPU AI Blackwell. 

Sembra che le debolezze nei rapporti di ASML Holding e Taiwan che ospita Semiconductor abbiano influenzato negativamente il settore.

ASML Holding NV domina praticamente il mercato di un’apparecchiatura fondamentale per la produzione dei componenti che alimentano la vita moderna, il vero cuore del business di ASML è rappresentato dalla litografia EUV (litografia ultravioletta estrema), una tecnologia che utilizza la luce a lunghezza d’onda più corta per consentire ai produttori di chip di integrare un numero incredibile di transistor nei loro circuiti.

Nel contesto geopolitico del 21° secolo, i chip stanno diventando ciò che il petrolio era nel secolo precedente, e il successo unico di ASML l’ha resa un obiettivo prioritario nelle crescenti tensioni tra Stati Uniti e Cina.

Ovviamente questa visione, puramente descrittiva, non tiene conto dei fondamentali della società che rimangono solidissimi, come evidenziato dai dati della trimestrale diffusa a febbraio e come sicuramente confermeranno i dati del prossimo Quarter che verranno diffusi il 22 maggio.

Il contenuto del presente articolo deve intendersi solo a scopo informativo e non costituisce una consulenza professionale. Le informazioni fornite sono ritenute accurate, ma possono contenere errori o imprecisioni e non possono essere prese in considerazione per eventuali investimenti personali. L’articolo riporta esclusivamente le opinioni della redazione che non ha alcun rapporto economico con le aziende citate.

In copertina: Cerebras Systems World’s Fastest AI Chip con Whopping 4 Trillion Transistors


Newsletter AI – Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

La scalabilita’ è tutto ciò di cui hai bisogno, ma servono i dati

Solo, si fa per dire, 4 anni fa, Jared Kaplan, fisico teorico della Johns Hopkins University, ha pubblicato un articolo rivoluzionario sull’intelligenza: Scaling Laws for Neural Language Models.

La conclusione è stata chiara: più dati c’erano per addestrare un grande modello linguistico migliore sarebbe stato il suo rendimento, accurato e con più informazioni.

“Tutti sono rimasti molto sorpresi dal fatto che queste tendenze – queste leggi di scala come le chiamiamo noi – fossero fondamentalmente precise quanto quelle che si vedono in astronomia o fisica”

Kaplan

I ricercatori utilizzano da tempo grandi database pubblici di informazioni digitali per sviluppare l’Intelligenza Artificiale, tra cui Wikipedia e Common Crawl, un database di oltre 250 miliardi di pagine web raccolte a partire dal 2007. I ricercatori spesso “ripuliscono” i dati rimuovendo discorsi di incitamento all’odio e altri testi indesiderati prima di utilizzarli per addestrare modelli di intelligenza artificiale.

Nel 2020, i set di dati erano minuscoli rispetto agli standard odierni. All’epoca una banca dati contenente 30.000 fotografie dal sito fotografico Flickr era considerata una risorsa vitale.

Dopo l’articolo del Dr. Kaplan, quella quantità di dati non era più sufficiente. Si è parlato di “rendere le cose davvero grandi”, ha affermato Brandon Duderstadt, Nomic AD.

Quando OpenAI ha lanciato GPT-3 nel novembre 2020, ha segnato un traguardo significativo nell’addestramento dei modelli di intelligenza artificiale. GPT-3 è stato addestrato su una quantità di dati senza precedenti, circa 300 miliardi di “token”, che sono sostanzialmente parole o pezzi di parole.

Questa vasta quantità di dati ha permesso a GPT-3 di generare testi con una precisione sorprendente, producendo post di blog, poesie e persino i propri programmi informatici.

Tuttavia, nel 2022, DeepMind, un laboratorio di Intelligenza Artificiale di proprietà di Google, ha spinto ulteriormente in avanti i limiti.

Ha condotto esperimenti su 400 modelli di Intelligenza Artificiale, variando la quantità di dati di addestramento e altri parametri. I risultati hanno mostrato che i modelli più performanti utilizzavano ancora più dati di quelli previsti dal Dr. Kaplan nel suo articolo. Un modello in particolare, noto come Chinchilla, è stato addestrato su 1,4 trilioni di token.

Ma il progresso non si è fermato lì. L’anno scorso, ricercatori cinesi hanno presentato un modello di intelligenza artificiale chiamato Skywork, addestrato su 3,2 trilioni di token provenienti da testi sia in inglese che in cinese.

Google ha risposto presentando un sistema di Intelligenza Artificiale, PaLM 2, che ha superato i 3,6 trilioni di token.

Questi sviluppi evidenziano la rapida evoluzione del campo dell’Intelligenza Artificiale e l’importanza dei dati nell’addestramento di modelli sempre più potenti. Con ogni nuovo modello e ogni trilione di token aggiuntivo, ci avviciniamo sempre di più a modelli di Intelligenza Artificiale che possono comprendere e generare il linguaggio con una precisione e una naturalezza sempre maggiori.

Tuttavia, con questi progressi arrivano anche nuove sfide e responsabilità, poiché dobbiamo garantire che queste potenti tecnologie siano utilizzate in modo etico e responsabile.

fonte https://epochai.org/data/epochdb

Poi nel 2023 è arrivato questo discorso sul Synthetic Data e sulle chellenges: “Si esauriranno”. Sam Altman, Ceo di OpenAI aveva un piano per far fronte all’incombente carenza di dati.

In una email a The Verge, la portavoce di OpenAI, Lindsay Held, ha dichiarato che l’azienda utilizza “numerose fonti, compresi i dati disponibili pubblicamente e le partnership per i dati non pubblici” e che sta cercando di generare i propri dati sintetici.

Nel mese di maggio, lo stesso Altman, ha riconosciuto che le aziende di Intelligenza Artificiale avrebbero sfruttato tutti i dati disponibili su Internet.

Altman ha avuto un’esperienza diretta di questo fenomeno. All’interno di OpenAI, i ricercatori hanno raccolto dati per anni, li hanno puliti e li hanno inseriti in un vasto pool di testo per addestrare i modelli linguistici dell’azienda. Hanno estratto il repository di codice GitHub, svuotato i database delle mosse degli scacchi e attingono ai dati che descrivono i test delle scuole superiori e i compiti a casa dal sito web Quizlet.

Tuttavia, entro la fine del 2021, queste risorse erano esaurite, come confermato da otto persone a conoscenza della situazione dell’azienda, che non erano autorizzate a parlare pubblicamente.

Il CEO di YouTube, ha detto cose simili sulla possibilità che OpenAI abbia usato YouTube per addestrare il suo modello di generazione di video Sora. 

Non sorprende che in entrambi i casi si tratti di azioni che hanno a che fare con la nebulosa area grigia della legge sul copyright dell’AI.

Da un lato OpenAI, alla continua ricerca di dati per un training di qualità, avrebbe sviluppato il suo modello di trascrizione audio Whisper per superare il problema, trascrivendo oltre un milione di ore di video di YouTube per addestrare GPT-4.

Secondo il New York Times, l’azienda sapeva che si trattava di un’operazione discutibile dal punto di vista legale (il presidente di OpenAI Greg Brockman era personalmente coinvolto nella raccolta dei video utilizzati), ma riteneva che si trattasse di un uso corretto (il cosidetto “fair use” tanto declamato dalle aziende di AI). 

Tuttavia, Altman ha dichiarato che la corsa ai modelli generativi di dimensioni sempre più grandi sarebbe già conclusa. Ha suggerito che gli attuali modelli potranno evolvere in altri modi, non puntando più sulla “grandezza” e lasciando intendere che GPT-4 potrebbe essere l’ultimo e definitivo avanzamento nella strategia di OpenAI per ciò che riguarda il numero di parametri utilizzati in fase di addestramento.

Nel frattempo Google :

Matt Bryant, rappresentante comunicazione di Google, ha dichiarato che l’azienda non era a conoscenza delle attività di OpenAI e ha proibito lo “scraping o il download non autorizzato di contenuti da YouTube”. Google interviene quando esiste una chiara base legale o tecnica per farlo.

Le politiche di Google permettono l’utilizzo dei dati degli utenti di YouTube per sviluppare nuove funzionalità per la piattaforma video. Tuttavia, non era evidente se Google potesse utilizzare i dati di YouTube per creare un servizio commerciale al di fuori della piattaforma video, come un chatbot.

“La questione se i dati possano essere utilizzati per un nuovo servizio commerciale è soggetta a interpretazione e potrebbe essere fonte di controversie”.

Avv .Geoffrey Lottenberg, studio legale Berger Singerman

Verso la fine del 2022, dopo che OpenAI aveva lanciato ChatGPT, dando il via a una corsa nel settore per recuperare il ritardo, i ricercatori e gli ingegneri di Google hanno discusso su come sfruttare i dati di altri utenti per sviluppare prodotti di intelligenza artificiale. Tuttavia, le restrizioni sulla privacy dell’azienda limitano il modo in cui potrebbero utilizzare i dati, secondo persone a conoscenza delle pratiche di Google.

Secondo le ricostruzioni, a giugno, il dipartimento legale di Google ha chiesto al team per la privacy di redigere un testo per ampliare gli scopi per i quali l’azienda potrebbe utilizzare i dati dei consumatori (secondo due membri del team per la privacy e un messaggio interno visualizzato dal Times) ed è stato comunicato ai dipendenti che Google desiderava utilizzare i contenuti pubblicamente disponibili in Google Docs, Google Sheets e app correlate per una serie di prodotti AI. I dipendenti hanno affermato di non sapere se l’azienda avesse precedentemente addestrato l’intelligenza artificiale su tali dati.

In quel periodo, la politica sulla privacy di Google stabiliva che l’azienda potesse utilizzare le informazioni pubblicamente disponibili solo per “aiutare a formare i modelli linguistici di Google e creare funzionalità come Google Translate”.

Il team per la privacy ha redatto nuovi termini in modo che Google potesse utilizzare i dati per i suoi “modelli di Intelligenza Artificiale e creare prodotti e funzionalità come Google Translate, Bard e funzionalità di Intelligenza Artificiale del cloud”, che rappresentava una gamma più ampia di tecnologie di intelligenza artificiale.

Qual è l’obiettivo finale qui?” ha chiesto un membro del team per la privacy in un messaggio interno. “Quanto sarà estesa?

Al team è stato specificamente detto di pubblicare i nuovi termini nel fine settimana del 4 luglio, quando le persone sono generalmente concentrate sulle vacanze, secondo i dipendenti. La politica rivista è stata lanciata il 1° luglio, all’inizio del lungo fine settimana (NdR, il 4 luglio negli Usa è festa nazionale).

E Meta? Mark Zuckerberg aveva lo stesso problema, non aveva abbastanza dati, avevano utilizzato tutto come detto a un dirigente da Ahmad Al-Dahle, vicepresidente dell’AI generativa di Meta quindi non poteva eguagliare ChatGPT a meno che non fosse riuscito ad ottenere più dati.

Meta ha usato, fra gli altri materiali, due raccolte di libri, il Gutenberg Project, che contiene opere nel pubblico dominio, e la sezione Books3. Ma la maggior parte sono opere “piratate” e per questo alcuini avviato una class action contro Meta e ciò era evidente sino dall’inizio come dimostra il documento di seguito.

Nei mesi di marzo e aprile 2023, alcuni leader dello sviluppo aziendale, ingegneri e avvocati dell’azienda si sono incontrati quasi quotidianamente per affrontare il problema.

Alcuni hanno discusso del pagamento di 10 dollari a libro per i diritti di licenza completi sui nuovi titoli. Hanno discusso dell’acquisto di Simon & Schuster,di cui fanno parte anche Penguin Random House, HarperCollins, Hachette e Macmillan. Fra gli autori di Simon & Schuster ci sono Stephen King, Colleen Hoover e Bob Woodward.  

Hanno anche parlato di come avevano riassunto libri, saggi e altri lavori da Internet senza permesso anche per via del precedente scandalo sulla condivisione dei dati dei suoi utenti all’epoca di Cambridge Analytica.

Un avvocato ha avvertito di preoccupazioni “etiche” riguardo alla sottrazione della proprietà intellettuale agli artisti, ma è stato accolto nel silenzio, secondo un audio registrato e condiviso con il NYT di cui ha dato conto il quotidiano britannico The Guardian. Meta era stata anche accusata dal BEUC unione consumatori europei con una multa da 1.2 miliardi di euro.

Zuckerberg, per tranquillizare gli investitori, ha affermato in una recente call  (Earnings call Transcript 2023 di seguito) che i miliardi di video e foto condivisi pubblicamente su Facebook e Instagram sono “superiori al set di dati Common Crawl”.

I dirigenti di Meta hanno affermato che OpenAI sembrava aver utilizzato materiale protetto da copyright senza autorizzazione. Secondo le registrazioni, Meta impiegherebbe troppo tempo per negoziare le licenze con editori, artisti, musicisti e l’industria dell’informazione.

“L’unica cosa che ci impedisce di essere bravi quanto ChatGPT è letteralmente solo il volume dei dati”,

Nick Grudin, vP partnership globale e dei contenuti.

Sembra che OpenAI stia prendendo materiale protetto da copyright e Meta potrebbe seguire questo “precedente di mercato”, ha aggiunto, citando una decisione del tribunale del 2015 che coinvolgeva la Authors Guild contro Google .

In quel caso, a Google è stato consentito di scansionare, digitalizzare e catalogare libri in un database online dopo aver sostenuto di aver riprodotto solo frammenti delle opere online e di aver trasformato gli originali, sempre in base alla dottrina del fair use.

La saga continua.

Come abbiamo scritto in un precedente post, la FTC americana può riaprire il caso sulla privacy di Meta nonostante la multa di 5 miliardi di dollari, stabilisce il tribunale, anche se Meta – che possiede WhatsApp, Instagram e Facebook – ha risposto che la FTC non può “riscrivere unilateralmente” i termini dell’accordo precedente, che un giudice statunitense ha approvato nel 2020.

L’FTC ha replicato che l’accordo, che stabilisce nuovi requisiti di conformità e supervisione, non era destinato a risolvere “tutte le richieste di risarcimento in perpetuo”.

Indipendentemente dal punto di vista e da ciò che sarà deciso nei tribunali, l’importanza di conoscere il contenuto dei dataset è oggi più rilevante che mai. Si tratta senza dubbio di un problema di natura politica.

Taking AI to the next level in manufacturing

Le aziende che producono tecnologie e soluzioni per l’intelligenza artificiale sembrano essere in una posizione vantaggiosa poiché un numero sempre maggiore di produttori sta integrando l’IA nelle proprie attività quotidiane.

Secondo uno studio congiunto condotto da Microsoft e MIT Technology Review Insights, il 35% dei produttori intervistati ha già implementato casi d’uso di intelligenza artificiale nella loro produzione, mentre la maggioranza, il 64%, sta ancora esplorando o sperimentando con questa tecnologia.

“Molti dirigenti che hanno partecipato al sondaggio intendono aumentare notevolmente gli investimenti in intelligenza artificiale nei prossimi due anni”, si legge nello studio. “Coloro che non hanno ancora adottato l’IA nella produzione stanno progressivamente muovendo i primi passi.”

Il campione di 300 dirigenti senior proveniva da organizzazioni con entrate annuali superiori a 100 milioni di dollari.

Quasi il 60% dei dirigenti intervistati prevede di aumentare gli investimenti in intelligenza artificiale del 10% o più nell’ingegneria e nella progettazione, mentre un altro 43% prevede di fare lo stesso per le operazioni di fabbrica.

Le aziende più grandi si stanno muovendo più rapidamente nell’integrare l’IA nelle loro attività, con produttori nel settore aerospaziale, automobilistico ed elettronico in prima linea nell’implementazione di casi d’uso.

L’80% delle aziende con entrate annue di 10 miliardi di dollari o più sta già implementando l’IA, mentre la percentuale scende al 38% per le aziende con ricavi tra 1 e 10 miliardi di dollari e diminuisce ulteriormente per quelle con entrate tra 100 e 999 milioni di dollari.

Tuttavia, la maggior parte delle aziende più piccole sta ancora valutando o sperimentando l’intelligenza artificiale.

“È evidente l’entusiasmo per l’intelligenza artificiale nel settore manifatturiero, ma solo poche aziende stanno utilizzando l’IA su larga scala per trasformare i loro processi di lavoro”

Philippe Rambach, chief AI officer di Schneider Electric.

Le aziende più piccole sottolineano la mancanza di competenze e risorse come principali ostacoli nello sfruttare appieno l’IA. Anche i costi associati al mantenimento e all’aggiornamento dei modelli di intelligenza artificiale sono problematici per i produttori con budget limitati.

Nonostante ci siano casi d’uso limitati di IA tra alcuni produttori, c’è ancora poco evidenza di una vera trasformazione guidata dall’IA, secondo Ben Armstrong, direttore esecutivo del MIT Industrial Performance Center.

Finora, i casi d’uso più comuni riguardano la progettazione del prodotto, la creazione di contenuti e l’implementazione di chatbot. L’ingegneria della progettazione sta diventando sempre più basata sui dati e l’IA sta facilitando questo processo attraverso simulazioni.

Una delle sfide più significative per i produttori nell’adozione su larga scala dell’IA è la gestione dei dati, poiché il settore genera grandi quantità di dati, molti dei quali non sono adatti ai modelli di IA.

Per affrontare questa sfida, il 57% degli intervistati sta migliorando la connettività delle macchine, mentre la stessa percentuale ritiene che la qualità dei dati rappresenti la principale sfida nell’integrazione dell’IA nelle operazioni.

“L’IA richiede un alto livello di maturità dei dati”, conclude lo studio. “È essenziale valutare accuratamente come l’organizzazione raccoglie, archivia ed elabora i dati e adottare misure concrete per migliorare la situazione prima di implementare i casi d’uso di IA.”

Effetto domino nei Titoli dei semiconduttori e’ calata la febbre dell’oro (AI)?

Quando si parla di intelligenza artificiale, si sente spesso parlare di Nvidia, Broadcom , AMD e altre società di chip, software e servizi. Tuttavia, Intel viene spesso trascurata . Dovremmo mettere le cose in prospettiva perché siamo ancora agli inizi del gioco dell’intelligenza artificiale e c’è molto spazio per l’espansione di molti leader di mercato.

Quest’anno, si prevede che i ricavi legati all’intelligenza artificiale saranno di circa 300 miliardi di dollari. Tuttavia, si prevede che il mercato dell’intelligenza artificiale si espanderà notevolmente, con ricavi stimati a 1,85 trilioni di dollari entro il 2030, di seguito propiezioni da Statista:

Venerdì, i titoli nel settore dei semiconduttori hanno subito un’improvvisa ondata di vendite, alimentata dalle preoccupazioni riguardo ai prossimi risultati trimestrali del gigante dell’intelligenza artificiale Super Micro Computer e dalle crescenti inquietudini riguardo alle spese relative all’IA.

Il crollo del 23% di Super Micro Computer è stato innescato dalle sue dichiarazioni riguardanti la pubblicazione dei risultati fiscali del terzo trimestre, prevista per il 30 aprile. Negli ultimi trimestri, l’azienda ha spesso anticipato i suoi risultati, con un’azione simile avvenuta anche a gennaio, quando ha rialzato le sue previsioni 11 giorni prima del resoconto degli utili.

Venerdì sono passate di mano più di 14 milioni di azioni, rispetto al volume medio giornaliero di poco più di 10 milioni, portando alla speculazione che la società potrebbe vedere un rallentamento delle vendite.

Nvidia , precedentemente identificata da Oppenheimer come una delle migliori opzioni del settore all’inizio della stagione degli utili, ha registrato una diminuzione superiore al 10%, chiudendo a 761,77 dollari. Dall’evento GTC tenutosi il mese precedente, le azioni dell’azienda sono diminuite di oltre il 20%.

AMD spesso associata a Nvidia, ha visto un calo superiore al 5%, terminando a 146,64 dollari.

Intel , concorrente sia di Nvidia che di AMD nei mercati delle GPU e delle CPU, ha chiuso venerdì in ribasso del 2,4%.

Astera Labs, che ha recentemente debuttato in borsa, ha subito una flessione del 9%. Anche se inizialmente aveva registrato un aumento del 164% rispetto al prezzo IPO di 34 dollari, il calo di venerdì ha ridotto il guadagno a circa il 60%.

Arm , che ha fatto il suo ingresso in borsa a settembre 2023, ha subito un calo superiore al 16% venerdì. Nel mese precedente, le azioni hanno registrato una perdita del 33%.

Altri attori del settore, tra cui Taiwan Semiconductor , Qualcomm (QCOM), Micron Technology , Texas Instruments e ON Semiconductor , hanno anch’essi registrato un significativo calo venerdì, con diminuzioni del 2% o più.

Taiwan Semiconductor ha visto un calo superiore al 12% durante la settimana, in seguito alla pubblicazione dei risultati del primo trimestre, sebbene Needham, una società di investimento, abbia commentato venerdì che il calo è stato “esagerato”.

Divulgazione dell’analista: non ho/noi non abbiamo alcuna posizione su azioni, opzioni o derivati ​​simili in nessuna delle società menzionate e non ho intenzione di avviare tali posizioni entro le prossime 72 ore. Ho scritto questo articolo io stesso ed esprime le mie opinioni. Non ricevo alcun compenso per questo . Non ho rapporti d’affari con alcuna società le cui azioni sono menzionate in questo articolo.

La performance passata non è garanzia di risultati futuri. Non viene fornita alcuna raccomandazione o consiglio riguardo al fatto che un particolare titolo, portafoglio, transazione o strategia di investimento sia adatto a una persona specifica. L’autore non ti consiglia personalmente riguardo alla natura, al potenziale, al valore o all’idoneità di qualsiasi particolare titolo o altra questione. Solo tu sei l’unico responsabile di determinare se qualsiasi investimento, titolo o strategia, o qualsiasi prodotto o servizio, sia appropriato o adatto a te in base ai tuoi obiettivi di investimento e alla tua situazione personale e finanziaria. 

AI 50 2024

Prodotta da Forbes in collaborazione con Sequoia e Meritech Capital, “AI 50” mette in evidenza le più promettenti società non quotate e premia le startup private che sviluppano i casi di utilizzo aziendale più promettenti dell’AI.

Le proposte vengono esaminate quantitativamente attraverso un algoritmo sviluppato da Konstantine Buhler, partner di Sequoia Capital. Assegna un punteggio alle aziende sulla base di tre criteri approssimativi: performance finanziaria, cultura aziendale e diversità.

I primi 120 finalisti vengono esaminati da un gruppo di giudici provenienti da importanti aziende pubbliche o istituti di ricerca che esaminano considerazioni più qualitative come il potenziale tecnico e la forza del talento.

“Quando abbiamo iniziato l’elenco nel 2019, c’erano forse 200 candidati (il settore era molto più piccolo). Ora, con 1.900, penso che dovremmo raggiungere l’AI 100 l’anno prossimo nel 2025!” afferma Buhler

Tra il 2022 e il 2023 l’intelligenza artificiale generativa è infatti passata dalle quinte al palco. 

Quest’anno è al centro dell’attenzione poiché vediamo l’inizio di importanti guadagni di produttività dell’intelligenza artificiale sia per i clienti aziendali che per i consumatori.

Le infrastrutture per gli LLM assorbono il 60% dei finanziamenti, ma non è qui il Business Model di questo Hype, la ricerca della Killer Applications costituisce infatti, al di là dei mostruosi guadagni di Nvidia e dei Cloud Datacenter la maggior parte della lista AI 50.

I VCs come era gia’ successo per l’ hype IoT sono affamati di monetizzare i Dati e il Cloud, non hanno un Modello preciso in testa, ma questa volta sperano di riuscirci.

Il 90% quest’anno premia societa’ americane quelle della Silicon Valley finanziate con Bilioni di $, se pensiamo che in italia Frontech, con un budget totale di 7 milioni di euro dovra’ fare miracoli, alcune Canadesi e 6 Europee (Inghilterra,Germania, Francia,Olanda), ovviamente le startup nascono dove ci sono gli Investitori privati o pubblici. Prima o poi questi investitori vorranno i soldi indietro.

I grandi spostamenti nella graduatoria AI 50 di quest’anno mettono in luce l’impatto crescente dell’intelligenza artificiale generativa sulla produttività aziendale e settoriale. La categoria dedicata alla produttività generale aziendale si è raddoppiata quest’anno, passando da quattro a otto aziende, poiché queste hanno espanso la loro gamma di offerte per rispondere alla crescente domanda dei clienti.

Ad esempio, Writer, precedentemente incluso nella categoria marketing aziendale, ha ampliato il proprio portfolio di prodotti per adattarsi a tutti i settori aziendali. Inoltre, Notion, un nuovo ingresso nell’elenco, ha integrato un assistente AI nella propria piattaforma di produttività e ha introdotto nuove funzionalità come la calendarizzazione.

OURWORLDINDATA.ORG

Cinque app per la produttività, tra cui ChatGPT di OpenAI, Claude, DeepL, Notion e Tome di Anthropic, stanno ora servendo clienti a livello consumer, prosumer e aziendale. L’editor di immagini Photoroom, l’app di generazione video Pika e il costruttore di giochi Rosebud dimostrano che i confini tra consumatore e prosumer nel software creativo stanno diventando sempre più sfumati. Complessivamente, anche le aziende in questa categoria sono raddoppiate, passando da tre a sei.

Quest’anno sono state ridotte le categorie verticali settoriali, ma è emerso un nuovo settore industriale. Aziende attive nella robotica, come Tractian nella manutenzione industriale e Waabi nella guida autonoma, stanno iniziando a mostrare come l’integrazione del software AI con l’hardware stia trasformando il lavoro nel mondo fisico.

Il 2023 è stato un anno di crescita significativa per le infrastrutture in generale e ha visto l’emergere di nuovi concorrenti di rilievo, come Mistral, uno dei principali concorrenti nei modelli di base.

Nella categoria delle piattaforme dati cloud, Pinecone e Weaviate hanno dimostrato l’importanza dei database vettoriali. Nel frattempo, Databricks, attraverso l’acquisizione di MosaicML lo scorso anno, si è unito ad altri fornitori di inferenza come Anyscale, Baseten, Replicate e Together. LangChain ha fatto il suo ingresso come framework di sviluppo di applicazioni multipurpose per lavorare con LLM.

Le precedenti rivoluzioni tecnologiche, come quelle delle reti, dell’Internet e della telefonia mobile, hanno principalmente rivoluzionato il modo di comunicare. L’intelligenza artificiale promette di portare una rivoluzione della produttività, simile a quella dei personal computer, che ha modellato il futuro del business e dell’industria.

Con lo sviluppo di sempre più IA, queste inizieranno a lavorare insieme come reti di IA. Negli ultimi anni, abbiamo assistito all’espansione dell’intelligenza artificiale generativa oltre la semplice generazione di testo o codice, fino all’interazione con agenti.

Proprio come l’avvento del PC e poi dello smartphone ha spinto la domanda di larghezza di banda Internet per trasmettere dati, l’evoluzione degli agenti di intelligenza artificiale stimolerà la domanda di nuove infrastrutture per supportare calcoli e comunicazioni sempre più potenti.

Stiamo entrando in un’era in cui, come ha detto il CEO di Nvidia Jensen Huang, “ogni pixel sarà generato”. In questo futuro generativo, la creazione stessa di un’azienda potrebbe diventare il lavoro degli agenti dell’intelligenza artificiale; e un giorno intere aziende potrebbero funzionare come reti neurali.

Ciò che vediamo oggi nel panorama delle applicazioni sono le prime iterazioni degli strumenti che saranno utilizzati dalla prossima generazione di aziende. Probabilmente, queste aziende saranno più piccole, ma la facilità con cui si creano significa che ce ne saranno molte di più. La costituzione delle società diventerà più rapida e fluida, con nuove strutture proprietarie e gestionali. Un giorno potrebbero esserci grandi aziende gestite da un unico ingegnere AI.

SEQUOIA CAPITAL

La maggior parte delle aziende del futuro non saranno aziende singole, ma avranno esigenze e punti critici diversi rispetto a quelle di oggi. Avranno bisogno di prodotti aziendali in grado di risolvere sfide nella gestione della conoscenza e nella generazione di contenuti, con un’enfasi su fiducia, sicurezza e autenticazione.

La quantità di software che queste aziende eseguiranno si espanderà e cambierà, con la generazione di codice e agenti software che consentiranno una maggiore personalizzazione e un’iterazione più rapida.

Per conquistare le aziende del futuro, i fondatori dovranno rispondere ad alcune domande cruciali. Che tipo di prodotti realizzeranno queste aziende? Di quali tipi di infrastrutture e applicazioni avranno bisogno? Come cambierà la forza lavoro? Come cambieranno i modelli di distribuzione e di acquisizione del valore? Quale percentuale del loro mercato totale sarà composta da persone rispetto ad agenti AI autonomi?

SEQUOIA CAPITAL

Le rivoluzioni della produttività, come quella dell’intelligenza artificiale, riducono i costi. Il progresso tecnologico di questo secolo ha abbassato radicalmente i costi dell’hardware, ma i costi dei servizi forniti dagli esseri umani, dalla sanità all’istruzione, sono aumentati. L’intelligenza artificiale ha il potenziale per ridurre i costi in settori così cruciali, rendendoli più accessibili e convenienti.

Questi cambiamenti devono essere gestiti in modo responsabile per mitigare la perdita di posti di lavoro e favorire la creazione di nuovi posti di lavoro. L’intelligenza artificiale ci consentirà di fare molto di più con meno, ma sarà necessario sforzo sia da parte del governo che del settore privato per riqualificare e responsabilizzare tutti.

L’intelligenza artificiale è posizionata per cambiare la struttura dei costi e aumentare la produttività in alcune delle aree più cruciali della nostra società. Ha il potenziale per portare a un’istruzione migliore, a popolazioni più sane e a persone più produttive, allontanando il lavoro banale e permettendoci di concentrare la nostra attenzione su questioni più importanti e strumenti migliori per il futuro. Può consentire a più persone di affrontare più problemi e creare una società migliore.

Ecco la lista :


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Intelligenza Artificiale in Italia: regolamentazione, competitività e investimenti pubblici

Analizzare quali i risultati abbia raggiunto in Italia l’Intelligenza Artificiale e tracciare gli sviluppi futuri del settore promuovendo un confronto tra tutti gli stakeholder. È questo l’obiettivo del convegno “L’economia dei dati nell’Intelligenza Artificiale” organizzato oggi da Seeweb, durante il quale si sono alternati interventi di relatori istituzionali, del mondo della ricerca, dell’università e dell’imprenditoria.

Durante l’evento è stato presentato uno studio condotto da Seeweb sugli impatti economici dell’Intelligenza Artificiale nel nostro Paese e si sono discusse le strategie migliori per incentivare modelli italiani di Intelligenza Artificiale. L’obiettivo, assicurare il progresso tecnologico e la sostenibilità del nostro ecosistema al fine di raggiungere l’indipendenza tecnologica e garantire una governance etica al settore.

Il paper sottolinea la necessità di adottare misure di alto valore sistemico per promuovere lo sviluppo dell’Intelligenza Artificiale in Italia, riducendo al minimo gli impatti sul lavoro e potenziando le competenze nel paese. Le misure chiave identificate includono:

  1. La regolamentazione dell’accesso e del controllo dei dati utilizzati per l’addestramento dei sistemi di Intelligenza Artificiale;
  2. La prevenzione delle distorsioni e delle concentrazioni di mercato da parte delle piattaforme dominanti extraeuropee;
  3. Il sostegno alle aziende italiane attive nella filiera dell’Intelligenza Artificiale.

Sebbene queste misure da sole potrebbero non risolvere tutte le problematiche sollevate nel paper, sono considerate un punto di partenza fondamentale per progredire nella giusta direzione verso un mercato competitivo, aperto e sicuro per l’Intelligenza Artificiale in Italia.

L’Intelligenza Artificiale ci accompagnerà per molto tempo al di là dell’hype del momento” ha spiegato Antonio Baldassarra, Ceo di Seeweb, che sottolinea poi come “sembra abbastanza chiaro oggi come si possa utilizzare IA per rendere più efficiente il lavoro, non abbiamo però altrettanto chiaro come sia possibile creare un’industria nazionale che possa avere un ruolo di attore. Il ruolo dell’industria del Paese non può essere solo quello di mettere a terra cose fatte da altri; è legittimo e vogliamo che esista ma dobbiamo anche pensare a una nostra capacità produttiva nell’ambito dell’Intelligenza Artificiale”.

Nel corso della discussione, i relatori hanno affrontato una serie di tematiche cruciali riguardanti i rischi e le opportunità derivanti dall’uso dell’Intelligenza Artificiale e dalla loro integrazione nella società. Il Ceo di Seeweb, Antonio Baldassarra, su questo punto, ha evidenziato le sfide legate alla mancanza di comprensione e alla sottovalutazione degli impatti delle tecnologie emergenti.

Tra i relatori dell’evento, Massimo Chiriatti, Chief Technology e Innovation Officer di Lenovo, ha ribadito l’importanza di non cedere alla paura e all’esagerazione mediatica riguardo alle tecnologie, sottolineando i benefici che queste hanno portato storicamente all’umanità, dall’aumento dell’aspettativa di vita all’innalzamento dei livelli di benessere, evidenziando il ruolo fondamentale delle tecnologie nell’automatizzare attività pericolose e faticose, consentendo così un progresso civile.

Tuttavia, si e’anche invitato alla prudenza nel delegare alle macchine compiti umani, riconoscendo che la sostituzione completa dell’uomo non è auspicabile.

Nel panel finale si è anche posto l’accento sul futuro desiderabile per la società, auspicando che il Paese Italia diventi non solo attrattivo e produttivo, ma anche un luogo in cui l’innovazione e il rispetto siano alla base dello sviluppo.

Citando esperienze passate come quelle delle Baby Bells inegli Stati Uniti nel settore delle telecomunicazioni si è voluto evidenziare l’importanza di non ostacolare l’innovazione tramite monopolizzazioni, ma piuttosto di promuovere un uso consapevole delle tecnologie e un’industria nazionale forte e competitiva.

Infine, sono state sollevate questioni cruciali riguardanti gli investimenti pubblici nelle tecnologie emergenti. Su questo punto si è evidenziato come, nonostante l’importanza strategica di tali investimenti, una parte significativa dei finanziamenti pubblici a livello europeo venga indirizzata verso soggetti esterni all’Europa, alimentando quindi un circolo vizioso di dipendenza tecnologica.

A tale proposito si è auspicata una maggiore attenzione da parte delle istituzioni verso politiche di commesse pubbliche mirate a promuovere l’innovazione e lo sviluppo industriale all’interno del continente, con l’obiettivo di garantire una maggiore sovranità tecnologica e economica.

In conclusione dell’evento, i relatori hanno sottolineato la necessità di un approccio equilibrato e consapevole nei confronti delle tecnologie emergenti, affinché queste possano contribuire al progresso sociale ed economico senza compromettere la dignità e il benessere dell’umanità.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

G42 e Microsoft svilupperanno modelli che non possiamo nemmeno immaginare

Microsoft Investe in G42 e nel calcolatore piu’ potente al mondo.

Microsoft, il gigante dell’industria tecnologica , ha annunciato un investimento di 1,5 miliardi di dollari per acquisire una partecipazione minoritaria in G42, un gruppo di holding tecnologiche con sede negli EAU. L’obiettivo di questa mossa strategica è di introdurre tecnologie di intelligenza artificiale all’avanguardia e infrastrutture digitali nei mercati del Medio Oriente, dell’Asia centrale e dell’Africa.

G42, conosciuta anche come Group 42 Holding Ltd, è una società di sviluppo ed un fondo di intelligenza artificiale (IA) fondata nel 2018. G42 è un leader globale nella creazione di intelligenza artificiale visionaria per un futuro migliore.

Nata ad Abu Dhabi e con una presenza globale, ha finanziato Jais, un LLM trainato sull’arabo, sviluppato in collaborazione con l’universita’ MBZUAI, Jais è stato addestrato sul supercomputer AI Condor Galaxy, su 116 miliardi di token arabi e 279 miliardi di token di dati inglesi, ma G42 è importante soprattutto per la collaborazione con Cerebras infatti le due societa’ hanno annunciato il 13 Marzo la costruzione di Condor Galaxy 3 (CG-3).

La partnership strategica tra Cerebras e G42 ha già fornito 8 exaFLOP di prestazioni di supercalcolo IA tramite Condor Galaxy 1 e Condor Galaxy 2, ciascuno tra i più grandi supercomputer IA del mondo. Situato a Dallas, in Texas, Condor Galaxy 3 porta l’attuale totale della rete Condor Galaxy a 16 exaFLOP.

La rete Condor Galaxy ha addestrato alcuni dei migliori modelli open source del settore, con decine di migliaia di download. Ogni CS-3 è alimentato dal nuovo transistor da 4 trilioni, 900.000 core di IA WSE-3.

Il nostro super calcolatore italiano Leonardo ha un picco di 270PFlops, ne servono 30 per fare la capacita del Condor-Galaxy-3 di Dallas (TOP500), CG3 può allenare un modello grande 100 volte l’attuale GPT4.

Il CG3 ha allenato un LLM per la medicina, l’M42  una rete sanitaria globale abilitata alla tecnologia. Il programma Med42 utilizza la versione da 70 miliardi di parametri di Llama 2. Il lavoro di messa a punto è stato eseguito da Cerebras e M42 in collaborazione con Core42, una società di servizi gestiti e IT che svolge ricerche fondamentali sull’intelligenza artificiale. Sia M42 che Core42 sono di proprietà del cliente Cerebras G42.

Il codice M42 è ora disponibile su HuggingFace, insieme ai dati sulle prestazioni.

Questo segna una pietra miliare significativa nel calcolo dell’IA, fornendo una potenza di elaborazione ed efficienza senza pari.

L’organizzazione si concentra sullo sviluppo dell’IA in vari settori, tra cui governo, sanità, finanza, petrolio e gas, aviazione e ospitalità. G42 svolge processi di ricerca e sviluppo sull’IA, sui big data e sull’apprendimento automatico tramite la sua sussidiaria,lInception Institute of Artificial Intelligence (IIAI).

Tahnoun bin Zayed Al Nahyan, consigliere per la sicurezza nazionale degli Emirati Arabi Uniti, è l’azionista di controllo e presidente della società. Peng Xiao è l’Amministratore Delegato del Gruppo.

G42 ha anche acquisito Bayanat per Mapping and Surveying Services LLC, un fornitore end-to-end di prodotti e servizi di dati geospaziali, per integrare i servizi satellitari di G42.

 Sua Altezza Sheikh Tahnoon bin Zayed Al Nahyan, Presidente di G42, ha dichiarato:

“L’investimento di Microsoft in G42 segna un momento cruciale nel percorso di crescita e innovazione della nostra azienda, a significare un allineamento strategico di visione ed esecuzione tra le due organizzazioni. Questa partnership è una testimonianza ai valori condivisi e alle aspirazioni al progresso, promuovendo una maggiore cooperazione e sinergia a livello globale.”  

Entrambe le aziende si impegnano a sostenere la creazione di un fondo da 1 miliardo di dollari destinato agli sviluppatori. Questo fondo mira a promuovere lo sviluppo di una forza lavoro qualificata e diversificata nel campo dell’intelligenza artificiale.

G42 implementerà le sue applicazioni e servizi di intelligenza artificiale sulla piattaforma cloud di Microsoft, Azure. Inoltre, G42 fornirà soluzioni di intelligenza artificiale a importanti aziende e clienti del settore pubblico.

Questa collaborazione commerciale è sostenuta da garanzie fornite ai governi degli Stati Uniti e degli Emirati Arabi Uniti, impegnandosi a rispettare le leggi statunitensi e internazionali in materia di commercio, sicurezza, intelligenza artificiale responsabile e integrità aziendale.

L’investimento di Microsoft in G42 rappresenta un esempio insolito di accordo che ha ottenuto l’approvazione esplicita delle rispettive autorità governative. Secondo quanto dichiarato dalle società coinvolte, questa “collaborazione commerciale è sostenuta da garanzie fornite ai governi degli Stati Uniti e degli Emirati Arabi Uniti tramite un innovativo accordo vincolante, il primo del suo genere, volto a implementare le migliori pratiche globali per assicurare uno sviluppo sicuro, affidabile e responsabile e la diffusione dell’intelligenza artificiale”.

Se l’accordo verrà concluso con successo, conferirà a Microsoft il ruolo di partner cloud ufficiale di G42. Secondo i termini dell’accordo, la piattaforma dati della società emiratina e altre infrastrutture cruciali verranno trasferite su Microsoft Azure, il quale supporterà lo sviluppo dei prodotti G42. È da notare che G42 ha già instaurato una partnership con OpenAI nel 2023.

La collaborazione con Microsoft sembra essere parte di una strategia continua da parte di G42 per ridurre la sua dipendenza dalle relazioni commerciali con la Cina. Infatti, l’azienda ha recentemente disinvestito dai suoi legami con la Cina, incluso il possesso di azioni nella società madre di TikTok, ByteDance, avvenuto lo scorso febbraio. Il CEO Xiao ha anche annunciato alla fine dell’anno scorso che l’azienda avrebbe gradualmente eliminato l’utilizzo di hardware cinese, dichiarando: “Non possiamo mantenere relazioni con entrambe le parti”.

In cambio, Microsoft otterrà un ampio accesso al mercato della regione. I suoi servizi di intelligenza artificiale e Azure potranno penetrare in una vasta gamma di settori, tra cui servizi finanziari, sanità, energia, governo e istruzione. Inoltre, la partnership prevede il lancio di un fondo da 1 miliardo di dollari “per supportare lo sviluppo delle competenze nell’intelligenza artificiale” negli Emirati Arabi Uniti e nella regione circostante.

Come evidenziato dagli eventi degli ultimi anni, le aziende tecnologiche si trovano sempre più ad affrontare la difficile scelta tra Stati Uniti e Cina, sia in termini di fornitori di tecnologia che di utenti o investitori. Le evoluzioni legate a G42 dimostrano che anche un paese come gli Emirati Arabi Uniti, che ha cercato di mantenere una posizione neutrale, potrebbe alla fine essere costretto a prendere una posizione chiara.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Adobe ha affermato che sta lavorando sulla tecnologia di generazione video

Adobe ha iniziato a raccogliere video per sviluppare il suo generatore di testo in video basato su intelligenza artificiale, secondo quanto riportato da Bloomberg News, citando alcuni documenti.

Il colosso della tecnologia offre alla sua rete di fotografi e artisti 120 dollari per inviare video di persone che svolgono attività quotidiane come camminare o esprimere emozioni come gioia e rabbia, tra le altre cose.

Tuttavia, l’azienda avverte di non fornire materiale protetto da copyright, nudità o altri “contenuti offensivi”. L’obiettivo è ottenere risorse per addestrare l’intelligenza artificiale, aggiunge il rapporto.

Il pagamento per il contenuto ammonta in media a circa 2,62 al minuto di video inviato, anche se potrebbe arrivare fino a circa 2,62 alminuto di video inviato, anche se potrebbe arrivare fino a circa 7,25 al minuto.

Nell’ultimo anno, Adobe si è concentrata sull’aggiunta di funzionalità di intelligenza artificiale generativa al suo portafoglio di software, inclusi Photoshop e Illustrator. Secondo il rapporto, la società ha lanciato servizi che utilizzano il testo per produrre immagini e illustrazioni che finora sono state utilizzate miliardi di volte.

Adobe, sta cercando di raggiungere i rivali dopo che OpenAI ha mostrato una tecnologia simile.

OpenAI, sostenuta da Microsoft , ha dimostrato il suo modello di generazione video chiamato Sora, preoccupando gli investitori che il leader del software creativo potrebbe essere influenzato dalla nuova tecnologia.

Google, il Weizmann Institute of Science e l’Università di Tel Aviv hanno pubblicato un documento in cui viene annunciato Lumiereun “modello di diffusione spazio-temporale” in grado di generare brevi video realistici e stilizzati, con opzioni di modifica a comando, sfruttando un modello di intelligenza artificiale generativa.

Adobe ha affermato che sta lavorando sulla tecnologia di generazione video e prevede di discuterne di più nel corso dell’anno, osserva il rapporto.

Il contenuto utilizzato per addestrare modelli linguistici di grandi dimensioni, o LLM, è diventato una questione controversa.

Il mese scorso, tre autori hanno intentato una causa contro Nvidia (NVDA) sostenendo che la società ha utilizzato i loro libri protetti da copyright senza permesso per addestrare la sua piattaforma di intelligenza artificiale NeMo.

Nel novembre 2023, la New York Times Company ha citato in giudizio Microsoft e OpenAI per violazione del copyright, sostenendo che le società hanno utilizzato illegalmente il contenuto del giornale per addestrare modelli di intelligenza artificiale.

Il mese scorso, Mira Murati, Chief Technology Officer di OpenAI, aveva dichiarato in un’intervista al Wall Street Journal di non essere sicura se Sora fosse addestrato sui video generati dagli utenti da YouTube di Google, un’unità di Alphabet e Meta Piattaforme Facebook e Instagram, secondo il rapporto.

Tuttavia, Adobe ha adottato misure per differenziare i propri modelli formandoli principalmente sulla sua libreria di supporti stock per operatori di marketing e agenzie creative.

Laddove la libreria stock non è all’altezza, la società ha procurato immagini dai contributori e ha anche offerto un compenso ai contributori per inviare una grande quantità di foto per la formazione sull’intelligenza artificiale. Questi lavori venivano pagati tra 6 e 16 centesimi per immagine, osserva il rapporto.

Andrew Ng entra nel CDA di AWS

Con particolare attenzione all’intelligenza artificiale, Amazon ha nominato Andrew Ng nel suo consiglio di amministrazione.

Andrew Ng è il socio accomandatario di AI Fund, uno studio di venture capital che aiuta gli imprenditori a costruire aziende di intelligenza artificiale.

Andrew Ng è anche il fondatore di DeepLearning.AI, presidente e co-fondatore di Coursera e professore a contratto presso la Stanford University.

Ng ha anche lavorato presso il colosso tecnologico cinese Baidu ed è stato uno dei fondatori del progetto Google Brain (Deep Learning) di Alphabet dal 2011 al 2012.

Costituito nel 2011, Google Brain ha combinato la ricerca illimitata sull’apprendimento automatico con sistemi informativi e risorse informatiche su larga scala.  Il team ha creato strumenti come TensorFlow , che consentono l’utilizzo delle reti neurali da parte del pubblico, con molteplici progetti di ricerca interni sull’intelligenza artificiale.

Inoltre, Amazon ha affermato che il membro del consiglio Judy McGrath non si candiderà alla rielezione all’Assemblea annuale degli azionisti della società.

Separatamente, giovedì, il CEO di Amazon Andy Jassy ha parlato del potenziale dell’intelligenza artificiale e dell’attenzione alla riduzione dei costi nella sua lettera agli azionisti.

 “L’intelligenza artificiale generativa potrebbe rappresentare la più grande trasformazione tecnologica dopo il cloud (che di per sé è ancora nelle fasi iniziali) e forse dopo Internet”, ha proclamato Jassy.

Ha sottolineato la notevole popolarità dei prodotti di intelligenza artificiale generativa di AMZN e ritiene che il boom dell’intelligenza artificiale generativa sarà costruito su AWS.

“Questa rivoluzione GenAI sarà costruita fin dall’inizio sul cloud. La quantità di vantaggi sociali e aziendali derivanti dalle soluzioni che saranno possibili sorprenderà tutti noi”, ha aggiornato Jassy.

L’intelligenza artificiale è diventata un obiettivo chiave per il colosso tecnologico con sede a Seattle. Il mese scorso, Amazon ha annunciato di aver effettuato un ulteriore investimento di 2,75 miliardi di dollari in Anthropic, portando il suo investimento totale nella startup AI a 4 miliardi di dollari.

Nella corsa all’Intelligenza Artificiale: un confronto epocale tra potenze mondiali

Nella battaglia epocale per il dominio dell’Intelligenza Artificiale si intravede un conflitto globale di proporzioni monumentali.

Ebbene si, nel cuore del XXI secolo, il mondo assiste a una competizione titanica tra le principali potenze mondiali per conquistare il primato nell’ambito dell’Intelligenza Artificiale. E non si tratta semplicemente di un’altra gara tecnologica, ma di un confronto epocale che potrebbe plasmare il corso della storia per le generazioni a venire.

Già nel 2019, il segretario alla Difesa statunitense Mark Esper sollevò il velo su una realtà imminente. Persone diverse mettono cose diverse al primo posto; per me è l’intelligenza artificiale”, ha detto durante l’udienza sulle sue principali priorità tecnologiche in risposta a una domanda da parte di Martin Heinrich, membro del SASC, il Comitato per i Servizi Armati del Senato, a cui è conferito il potere di controllo legislativo delle forze armate nazionali.  L’Intelligenza Artificiale “probabilmente cambierà il carattere della guerra, e credo che chiunque la padroneggerà dominerà sul campo di battaglia per molti, molti, molti anni”, ha concluso Esper, riconoscendo l’enorme potenziale dei progressi nell’Intelligenza Artificiale e avvertendo che tali sviluppi avrebbero potuto rivoluzionare radicalmente la natura di eventuali futuri conflitti armati.

La sua visione su questo punto era molto chiara: la nazione che per prima avrebbe saputo padroneggiare questa tecnologia avrebbe goduto di un vantaggio decisivo sul campo di battaglia per molti anni a venire.

È in questo momento che la corsa all’AI ha preso forma, con gli Stati Uniti e la Cina nel ruolo di protagonisti principali di un nuovo dramma geopolitico.

Nel frattempo la Cina è riuscita a fare progressi significativi nel campo dell’Intelligenza Artificiale. Il Pentagono stima che l’AI sviluppata dalla Cina sia ormai si vicina a quella americana. In molte aree, Pechino ha eguagliato o addirittura superato gli Stati Uniti, soprattutto nell’ambito delle applicazioni militari.

Già nel 2017 Pechino aveva avviato un piano nazionale specificamente rivolto all’intelligenza artificiale, il piano “A New Generation Artificial Intelligence Development Plan”, una strategia nazionale adottata al fine di “promuovere iniziative e fissare degli obiettivi per ricerca e sviluppo, industrializzazione, sviluppo dei talenti, istruzione e acquisizione di competenze, definizione di standard e regolamenti, norme etiche e sicurezza nel settore dell’intelligenza artificiale“.

Un esempio di questo progresso è stato osservato durante la cerimonia di apertura dei Giochi Olimpici invernali di Pechino 2022 quando 520 droni hanno eseguito coreografie complesse e coordinate, sottolineando le capacità avanzate della Cina nell’Intelligenza Artificiale, nei contesti militari. Tant’è che la Cina oggi è il principale esportatore globale di droni da combattimento. 

Come mostrano i dati dello Stockholm International Peace Research Institute (Sipri), Pechino ha messo a segno un’intensa attività commerciale: ha “spedito almeno 282 droni da combattimento armati in 17 Paesi negli ultimi dieci anni. Nello stesso periodo gli Stati Uniti ne hanno esportati solo 12 in Francia e Gran Bretagna”.

Prima del 24 febbraio 2022 (data dell’invasione Russa dell’Ucraina), DJI una società tecnologica cinese con sede a Shenzhen, nel Guangdong, aveva esportato sia in Russia che in Ucraina, AeroScope, una piattaforma completa di rilevamento dei droni che identifica rapidamente i collegamenti di comunicazione degli UAV, monitorandone i dati e raccogliendo informazioni come lo stato del volo, i percorsi e altre informazioni in tempo reale.

Possiamo quindi dire che la Cina ha riconosciuto da subito che uno dei campi di battaglia chiave nella competizione con gli Stati Uniti sarebbe stata proprio l’Intelligenza Artificiale, il cui controllo potrebbe determinare il destino del primato globale nel XXI secolo. In questa lotta titanica, la Cina non intende rimanere indietro, ma anzi si propone di raggiungere e superare gli Stati Uniti nella corsa all’Intelligenza Artificiale.

Tuttavia, occorre considerare che l’Intelligenza Artificiale non è un’entità monolitica, ma piuttosto una sinergia di tre tecnologie fondamentali: algoritmi, potenza di calcolo e big data. Questi pilastri sono sorretti da microchip avanzati, che agiscono come il motore pulsante dell’AI.

In risposta alla crescente minaccia cinese nel campo della tecnologia dei microprocessori, gli Stati Uniti hanno intrapreso una serie di misure restrittive, cercando di soffocare il progresso tecnologico cinese e mantenere la loro supremazia.

Gli gli Stati Uniti hanno infatti vietato a giganti tecnologici come Huawei di stringere legami con società occidentali e hanno inserito aziende come Da-Jiang Innovations (DJI) nella loro Entity List, una sorta di lista nera commerciale.

Il Dictat e’ impedire alla Cina di accedere ai microchip avanzati necessari per alimentare l’Intelligenza Artificiale.

Il mondo dei semiconduttori è suddiviso in diverse categorie di aziende, ognuna con ruoli distinti e cruciali nel processo di produzione e progettazione dei circuiti integrati.

In primo luogo, ci sono le società IDM (Integrated Device Manufacturer), le quali non solo progettano ma producono i circuiti integrati all’interno dei loro stabilimenti. Tra le principali società IDM vi sono giganti come Intel e Texas Instruments negli Stati Uniti, Micron e SK Hynix in Corea del Sud.

In secondo luogo, ci sono le società cosiddette “Fabless”, che si concentrano esclusivamente sulla progettazione dei circuiti integrati, mentre la produzione è affidata a terzi.

Questo gruppo include nomi di rilievo come Qualcomm, NVIDIA e Broadcom negli Stati Uniti e MediaTek a Taiwan. Infine, ci sono le società di fonderie, che si dedicano esclusivamente alla produzione di semiconduttori per conto terzi, fornendo servizi alle aziende Fabless e alcune IDM.

Tra queste, il colosso mondiale è TSMC a Taiwan, seguita da Samsung in Corea del Sud, che svolge anche attività IDM, specialmente nel settore dei chip di memoria.

La “guerra dei chip” ha assunto una nuova rilevanza, soprattutto alla luce delle crescenti tensioni tra Cina e Taiwan. Quest’ultima peraltro, essendo sede di TSMC, è il più grande centro di produzione di chip al mondo.

Questo sforzo mirato a contenere la tecnologia cinese ha riguardato anche l’Europa: gli Stati Uniti hanno esercitato pressione sui Paesi Bassi affinché non cedessero la società ASML a Pechino, nonostante un accordo preesistente firmato quattro anni prima.

In risposta alle minacce cinesi e per proteggere le aziende che dipendono dalla fornitura dei chip, l’Unione Europea ha introdotto il “Chips Act”, un programma di incentivi del valore di 43 miliardi di euro per incoraggiare le aziende a stabilire fabbriche sul suolo europeo o in Paesi alleati.

Gli Stati Uniti hanno seguito l’esempio con un piano simile dal valore di 53 miliardi di dollari. Inoltre, l’amministrazione Biden ha proposto un’alleanza denominata “Chip 4”, coinvolgendo Stati Uniti, Taiwan, Giappone e Corea del Sud, mirata a garantire l’autonomia e la sicurezza dell’intera catena di produzione dei semiconduttori, con un obiettivo esplicito anti-cinese.

Questo approccio mirato ha lo scopo di privare la Cina delle componenti microelettroniche essenziali necessarie per la progettazione e lo sviluppo dell’AI. Senza accesso a questi componenti critici, Pechino sarebbe costretta a rallentare o addirittura interrompere lo sviluppo di hardware e software specifici per l’Intelligenza Artificiale, indebolendo così la sua posizione nel panorama globale della tecnologia.

La crescente incorporazione di software e sensori d’Intelligenza Artificiale nei sistemi d’arma contribuisce di fatto a ridisegnare i vecchi modelli di combattimento. Agli analisti militari cinesi non sono sicuramente sfuggite le difficoltà che la Russia sta incontrando nel confronto con le armi intelligenti del proprio avversario, come gli Himars o i cosiddetti droni kamikaze figli del nuovo programma “Replicator”.

Date le opportunità, i rischi e le minacce derivanti da questa nuova tecnologia, i Paesi membri della Nato hanno riconosciuto la necessità di trovare forme di cooperazione per fronteggiare fenomeni ritenuti “troppo vasti perché un singolo attore possa gestirli da solo”.

Il segretario generale dell’Alleanza Jens Stoltenberg in un’intervista al Financial Times ha sottolineato che “per decenni gli alleati Nato hanno dominato nel segmento della tecnologia. Ma questo non è più così ovvio”. D’altra parte è stata proprio la superiorità tecnologica della Nato sul piano dell’Intelligenza Artificiale a permettere alle forze di Kiev di avere una percezione più limpida del campo di battaglia rispetto agli avversari.

Secondo un nuovo policy brief dello European Council on Foreign Relations (ECFR), gli analisti cinesi non considerano la guerra della Russia contro l’Ucraina come un grande punto di rottura con il passato, bensì come un’ulteriore manifestazione dell’annosa rivalità tra la Cina e gli Stati Uniti.

Il policy brief, intitolato “China and Ukraine: The Chinese debate about Russia’s war and its meaning for the world” presenta quattro lezioni chiave, tratte da oltre 30 interviste condotte off-the-record dagli autori con analisti ed esperti strategici cinesi provenienti dalle migliori università, da think tanks e da organi affiliati al Partito Comunista Cinese.

  1. Gli USA stanno usando la guerra in Ucraina per accerchiare la Cina, senza però riuscire a mobilitare il resto del mondo;
  2. La Cina ha più da guadagnare che da perdere stando dalla parte della Russia – e oggi è Mosca ad essere il junior partner di Pechino; 
  3. La guerra in Ucraina non ha alterato le probabilità di un potenziale conflitto su Taiwan, ma le risposte occidentali stanno certamente influenzando il pensiero cinese;
  4. L’interdipendenza economica non proteggerà la Cina, che deve prepararsi alle sanzioni. 

La corsa all’AI è diventata una lotta non solo per il dominio tecnologico, ma anche per il controllo delle risorse chiave che alimentano questa rivoluzione digitale. Il controllo dei microchip avanzati si è trasformato in un’arma geopolitica, utilizzata dalle potenze mondiali per influenzare il corso della competizione tecnologica e consolidare la propria supremazia nel settore dell’Intelligenza Artificiale.

Alcuni progetti nel campo dell’Intelligenza Artificiale rivestono una duplice funzione, poiché possono essere utilizzati sia per scopi civili che militari come nel caso della tecnologia AeroScope sviluppata da DJI, leader mondiale nel settore dei droni.

Ciò che emerge chiaramente è che la competizione per il dominio nell’Intelligenza Artificiale è non solo una sfida che coinvolge risorse umane, finanziarie e tecnologiche di vasta portata ma anche una competizione tra differenti sistemi sociopolitici e ideologici.

Se vogliamo, la corsa all’Intelligenza Artificiale è paragonabile alla corsa al nucleare del XX secolo e Pechino è determinata a non restare indietro rispetto agli Stati Uniti. Resta da vedere chi avrà la meglio in questa contesa.

Da questo punto di vista tuttavia, va anche considerato che la corsa all’Intelligenza Artificiale è una battaglia che va oltre i confini delle tecnologie di difesa e sicurezza. Le aziende cinesi, come Tencent, Alibaba e TikTok, dominano il mercato globale degli algoritmi e dei droni civili. Questo dominio non solo solleva interrogativi sulla sicurezza, ma suggerisce anche l’applicabilità potenziale dell’AI in una vasta gamma di settori, inclusi quelli civili.

Nonostante gli sforzi degli Stati Uniti per mantenere la loro supremazia nell’AI, la Cina sta guadagnando terreno.

La corsa all’AI tra Stati Uniti e Cina è diventata una guerra tra sistemi sociopolitici, con implicazioni che vanno ben oltre il campo tecnologico. In questo confronto titanico, solo il tempo ci dirà quali saranno le conseguenze.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

CDP Venture Capital: 1 miliardo di euro per sviluppare l’Intelligenza Artificiale in Italia

Focus su Intelligenza Artificiale e Cybersecurity, con investimenti complessivi di 8 miliardi di euro, di cui 1 dedicato all’AI, per supportare lo sviluppo dell’economia e dell’innovazione italiana: queste le principali novità del Piano Industriale 2024-2028 di CDP Venture Capital appena presentato a Milano dalla Presidente Anna Lambiase e dall’Amministratore Delegato e Direttore Generale Agostino Scornajenchi.

Il focus è concentrato su 7 settori industriali ritenuti strategici per il futuro del Paese:

  1. Industry Tech;
  2. Infra Tech & Mobility;
  3. Agrifood Tech;
  4. Clean Tech;
  5. Aerospazio;
  6. Lifescience;
  7. Intelligenza Artificiale.

All’Intelligenza Artificiale, come aveva anticipato lo scorso mese di marzo la Presidente del Consiglio Giorgia Meloni, sono dedicate risorse per 1 miliardo di euro su 3 ambiti specifici:

  • 120 milioni di euro dedicati al trasferimento tecnologico, anello di congiunzione tra ricerca universitaria e mercato;
  • 580 milioni di euro di investimenti in startup con applicazioni settoriali per rafforzare gli attori già esistenti;
  • 300 milioni di euro di investimenti in aziende mature pronte a scalare all’estero e diventare i futuri campioni nazionali.

In merito a quest’ultimo punto Agostino Scornajenchi, amministratore delegato di Cdp Venture Capital ha commentato “abbiamo un silver bullet da 300 milioni di euro per una, due o tre operazioni di concentrazione. Dobbiamo supportare il nostro sistema in modo tale che faccia nascere un campione nazionale dell’Intelligenza Artificiale, dobbiamo fare massa critica su questo ambito e questa fase specifica di investimento sul nostro comparto large venture sarà dedicata a questo“.

Adesso il tema vero è il seguente: 1 miliardo di euro come investimento Paese è sufficiente per far si che l’Italia possa giocare un ruolo significativo nel panorama dell’Intelligenza Artificiale?

Il panorama delle startup italiane continua a essere dinamico e promettente, con alcune aziende che si distinguono per la loro resilienza e capacità di adattamento

Gli investimenti nelle startup italiane hanno subito un duro colpo nel 2023, con una drastica diminuzione del 50% rispetto all’anno precedente. Secondo i dati elaborati da Italian Tech, gli investimenti in venture capital si sono attestati a 1,15 miliardi di euro. Questo rappresenta un calo significativo rispetto ai 2,39 miliardi del 2022 e ai 1,3 miliardi del 2021.

Ecco alcuni punti chiave riguardanti gli investimenti nelle startup italiane nel 2023:

Ammontare degli investimenti: a dicembre 2023, sono stati investiti 87,4 milioni di euro in startup, distribuiti in 9 aumenti di capitale, portando il totale annuale a 1,15 miliardi;

Numero di deal: nel 2023, sono stati conclusi 173 deal, rispetto ai 202 del 2022 e ai 165 del 2021;

Settori in crescita: i settori che hanno ricevuto maggiori investimenti includono medtech, cleantech, biotech e tecnologie applicate al lavoro HR.
Distribuzione territoriale: La Lombardia ha mantenuto il ruolo di leader con il 39,3% degli investimenti totali, seguita dal Piemonte al secondo posto con il 12%.

Ulteriori dettagli sugli investimenti nelle startup italiane nel 2023:

  1. Investimenti per fase di sviluppo:
    • Seed stage: gli investimenti in questa fase sono stati di circa 200 milioni di euro, con 41 deal conclusi;
    • Early stage: in questa fase, gli investimenti hanno raggiunto circa 600 milioni di euro, con 80 deal;
    • Growth stage: gli investimenti in startup in questa fase sono stati di circa 350 milioni di euro, con 52 deal;
  2. Settori specifici:
    • Medtech: le startup medtech hanno ricevuto circa 150 milioni di euro di investimenti;
    • Cleantech: questo settore ha ottenuto circa 100 milioni di euro;
    • Biotech: le startup biotech hanno ricevuto circa 80 milioni di euro;
    • Tecnologie applicate al lavoro HR: questo settore ha ricevuto circa 70 milioni di euro;
  3. Investimenti esteri:
    • Nonostante la diminuzione complessiva degli investimenti, alcune startup italiane hanno attirato l’attenzione di investitori stranieri. Ad esempio, D-Orbit ha ricevuto un investimento di 100 milioni di euro da SpaceX;
  4. Sfide e opportunità:
    • La riduzione degli investimenti rappresenta una sfida per le startup italiane, ma ci sono ancora opportunità per l’innovazione e la crescita;
    • Le aziende italiane dovrebbero concentrarsi sulla diversificazione delle fonti di finanziamento, cercando anche investitori internazionali;
    • La collaborazione tra startup, università e istituzioni può favorire lo sviluppo di nuove tecnologie e soluzioni.

Ci sono piaciute: Hiro Robotics, SunCubes , Nutriafrica, Cap_able, Displaid, Soundsafe Care, Foreverland, Newtwen, Levelquantum, Aindo.

Ecco alcune informazioni sulle startup italiane menzionate:

  1. Hiro Robotics: si occupa del riciclaggio di rifiuti elettronici utilizzando robotica e intelligenza artificialeIl loro sistema robotico modulare consente di trattare oltre 60 monitor e TV all’ora, garantendo il 99% di recupero di materiali preziosi dai rifiuti elettronici;
  2. Soundsafe Care: questa startup combina ultrasuoni e robotica per disrupt i metodi convenzionali di chirurgiaLa loro tecnologia permette un trattamento chirurgico preciso grazie alla robotica e completamente non invasivo grazie agli ultrasuoni;
  3. Aindo: fondata nel 2018 e con sede nell’Area Science Park a Trieste, Aindo propone una soluzione che analizza i dati aziendali per creare dati sinteticiQuesti dati sintetici sono considerati una delle migliori soluzioni per affrontare la carenza di dati su cui addestrare l’intelligenza artificiale.

Queste startup stanno contribuendo all’innovazione nel campo dell’Intelligenza Artificiale e della robotica in Italia

In sintesi, nonostante le difficoltà, il panorama delle startup italiane continua a essere dinamico e promettente, con alcune aziende che si distinguono per la loro resilienza e capacità di adattamento.

In sintesi, la riduzione degli investimenti di venture capital rappresenta una sfida per le startup italiane, ma alcune aziende continuano a ottenere finanziamenti e a innovare nel panorama imprenditoriale.

Reuters : Alibaba Taglia i Prezzi in vista dell’ AI war

Quando Alibaba Group si è quotato in borsa alla Borsa di New York il 18 settembre 2014, il CEO Jack Ma ha detto dell’IPO da 25 miliardi di dollari da record: “Quello che abbiamo raccolto oggi non è denaro, è fiducia”.

Alibaba sta tagliando i prezzi per i suoi clienti cloud a livello globale fino al 59%, in un contesto di crescente concorrenza per respingere i rivali e attirare sviluppatori di software AI, ha riferito Reuters.

Il colosso tecnologico cinese ha affermato che i prodotti relativi all’informatica, allo storage, alla rete, ai database e ai big data vedranno in media una riduzione dei prezzi del 23%, aggiunge il rapporto di Reuters .

Queste riduzioni di prezzo riguardano circa 500 specifiche di prodotti cloud e gli sconti sono ora disponibili per i clienti in 13 regioni, tra cui Giappone, Indonesia, Emirati Arabi Uniti e Germania, ha riferito Bloomberg News .

Questa è la terza volta che l’azienda riduce i prezzi nell’ultimo anno.

A febbraio, Alibaba ha dichiarato che avrebbe effettuato una forte riduzione dei prezzi per i suoi servizi cloud, con l’obiettivo di recuperare utenti da concorrenti come Tencent , che competono per fornire gli strumenti necessari per addestrare l’intelligenza artificiale .

I giganti della tecnologia cinese Alibaba Group Holding e Tencent Holdings hanno investito congiuntamente 2,5 miliardi di yuan (342 milioni di dollari) in Zhipu, una startup di intelligenza artificiale con sede a Pechino .

Alibaba e Tencent, insieme ad altre importanti aziende cinesi come Ant Group, Xiaomi e Meituan, stanno supportando Zhipu nella sua missione di sviluppare alternative nazionali al ChatGPT di OpenAI .

Zhipu è tra le numerose startup cinesi che stanno lavorando attivamente su tecnologie di intelligenza artificiale generativa, con l’obiettivo di competere con attori riconosciuti a livello globale come OpenAI e Google.

Zhipu ha ottenuto l’approvazione iniziale del governo per un lancio pubblico in agosto e da allora ha rilasciato un modello open source e un chatbot chiamato Qingyan .

Pochi giorni dopo l’annuncio di Alibaba, anche JD.com  ha dichiarato che avrebbe tagliato i prezzi del cloud computing.

JD.com ha recentemente annunciato il lancio della sua iniziativa Spring Dawn migliorata, una solida suite di soluzioni per i commercianti di terze parti per aumentare i ricavi, inclusi nuovi servizi di intelligenza artificiale progettati per ridurre i costi operativi dei commercianti fino al 50%.

Dal suo lancio iniziale nel gennaio 2023, l’ iniziativa Spring Dawn è stata un catalizzatore di crescita, aumentando di 4,3 volte il numero di commercianti terzi sulla nostra piattaforma. Mentre ci avviciniamo all’accoglienza del nostro milionesimo partner commerciale, siamo entusiasti di lanciare la fase successiva dell’iniziativa.

Le riduzioni dei prezzi segnano le mosse aggressive di Alibaba per stare al passo con i rivali, tra cui Tencent e Baidu, nel business del cloud, e rischiano di iniziare una guerra dei prezzi in un settore già fortemente competitivo.

Secondo il rapporto di Reuters, gli attuali tagli dei prezzi rappresentano l’ultimo sforzo di Alibaba per attirare gli sviluppatori a creare modelli e applicazioni di intelligenza artificiale ad alta intensità di dati utilizzando i servizi cloud dell’azienda.

Lo scorso novembre, Alibaba ha annullato il progetto di spin-off del suo Cloud Intelligence Group, noto anche come Aliyun. La società ha affermato che l’espansione delle restrizioni statunitensi sull’esportazione di chip informatici avanzati ha creato incertezze sulle prospettive del business del cloud. Successivamente, Alibaba ha avviato un rinnovamento del business del cloud computing, coinvolgendo, tra le altre cose, veterani in nuove posizioni di leadership.

L’intelligenza artificiale ha il potenziale per trasformare vari settori, dai trasporti ai media e alla finanza, e potrebbe guidare una nuova fase di crescita economica.

Tuttavia, la tecnologia ha anche applicazioni militari e governative, il che potrebbe complicare ulteriormente il già teso rapporto tra Washington e Pechino.

Intelligenza Artificiale: dati e statistiche

In questo articolo condivideremo statistiche sulle dimensioni del mercato e su come le aziende utilizzano l’Intelligenza Artificiale per migliorare l’esperienza del cliente e risparmiare denaro, oltre a fornire uno sguardo su ciò che il futuro potrebbe riservarci in un mondo di AI.

Statistiche sulla strategia di intelligenza artificiale del governo #
Nel marzo 2017, il Canada ha lanciato la prima strategia nazionale sull’Intelligenza Artificiale al mondo. 5 anni dopo, a dicembre 2022, quasi un terzo dei governi globali (62 paesi) aveva implementato un approccio simile.

In base all’analisi delle strategie governative di Intelligenza Artificiale per Paese emerge che, tra il 2019 e il 2023, il governo degli Stati Uniti ha investito di più nell’AI, rispetto ad altri paesi, con quasi 328 miliardi di dollari. Si tratta di circa 195 miliardi di dollari in più di quanto investito nello stesso periodo dalla Cina, che si posiziona al secondo posto al mondo in termini di investimenti nel settore.

Gli investimenti di entrambi i Paesi fanno impallidire il valore di 25,5 miliardi di dollari investiti nello stesso periodo dal Regno Unito, terzo classificato nella classifica, con quasi 13 volte meno il volume totale degli investimenti fatto dagli Stati Uniti. 

Una ripartizione delle statistiche sugli investimenti pubblici nell’AI per Paese #

PaeseSomma degli investimenti negli ultimi 5 anni (milioni di dollari)Investimenti negli ultimi 5 anni (per mille dollari di PIL)Investimenti negli ultimi 5 anni, come percentuale degli investimenti negli Stati Uniti (per mille dollari di PIL)
Singapore7.00515.01116,30
Svezia8.28114.13109,53
Stati Uniti328.54812.90100,00
Estonia41510.8984.44
UK25.5418.3264.46
Cina132.6657.3957.24
Corea del Sud10.3486.2148.16
Canada12.4575.8245.12
India16.1474.7736,97
Svizzera3.2394.0131.08

(Fonte: AIPRM tramite OCSE e Banca Mondiale)

Quando le statistiche sugli investimenti nell’Intelligenza Artificiale vengono giudicate rispetto al PIL del Paese, Singapore risulta essere la migliore. Nonostante abbiano investito una modesta cifra di 7 miliardi di dollari rispetto ad altre nazioni, ciò rappresenta più del 15% della loro ricchezza relativa per mille dollari di Pil.

Singapore è seguita dalla Svezia, con investimenti che rappresentano il 14,13% del suo Pil speso nello sviluppo dell’Intelligenza Artificiale.

Al contrario, gli Stati Uniti investono un valore pari a circa il 12,9% del Pil nello sviluppo della propria infrastruttura di Intelligenza Artificiale, rispetto all’8,32% del Regno Unito

In termini di confronto tra gli investimenti nell’Intelligenza Artificiale tra Paesi e gli Stati Uniti, Singapore è ancora una volta all’avanguardia. Con il 116,3%, ciò significa che il tasso di investimenti nell’AI da parte del governo di Singapore è di circa il 16% in più rispetto alle controparti statunitensi (in termini relativi per miliardo di Pil). Allo stesso modo, la Svezia si attesta al 109,53%, essendo l’unica altra nazione che investe più degli Stati Uniti nell’Intelligenza Artificiale, in termini di ricchezza relativa.

In confronto, il livello di investimenti nell’Intelligenza Artificiale del Regno Unito tra il 2019 e il 2023 è pari al 64,46% (rispetto al Pil degli Stati Uniti), il che significa che durante questo periodo è stata effettuata quasi un terzo in meno della spesa per l’Intelligenza Artificiale in relazione finanziaria agli Stati Uniti.

Quanto dovrebbe investire ciascun paese nell’intelligenza artificiale per raggiungere gli Stati Uniti?

Sulla base degli attuali livelli di spesa, è molto probabile che la Cina raggiunga gli Stati Uniti in termini di investimenti nell’Intelligenza Artificiale. Per raggiungere questo obiettivo entro il 2030, la Cina dovrebbe spendere oltre 94 miliardi di dollari nella sua infrastruttura di Intelligenza Artificiale entro la fine del decennio per raggiungere lo stesso livello di investimenti degli Stati Uniti. 

Una ripartizione delle statistiche sugli investimenti nell’intelligenza artificiale e quanto ogni Paese dovrebbe spendere nell’Intelligenza Artificiale per raggiungere gli Stati Uniti entro il 2030, 2040 e 2050#

PaeseRecuperare il ritardo entro il 2030 (milioni di dollari)Recuperare il ritardo entro il 2040 (milioni di dollari)Recuperare il ritardo entro il 2050 (milioni di dollari)
Cina94.23799.242117.915
Regno Unito157.923157.408182.527
India162.589161.996187.814
Israele163.436163.180189.369
Germania163.821163.483189.676
Canada164.441164.243190.634
Corea165.430165.066191.502
Francia165.637165.342191.858
Svezia166.289165.715192.143
Singapore167.118166.934193.766

(Fonte: AIPRM tramite OCSE e Banca Mondiale)

Il Regno Unito è il secondo Paese più propenso a raggiungere gli Stati Uniti in termini di investimenti nell’Intelligenza Artificiale. Tuttavia, per raggiungere questo obiettivo dovrebbero spendere altri 157,9 miliardi di dollari entro il 2030.  

Sulla base dei livelli di investimenti nell’Intelligenza Artificiale nel 2023, quanto tempo occorrerebbe ai Paesi per raggiungere gli Stati Uniti? #

PaeseRaggiungere gli Stati Uniti nel 2030 (anni)Al passo con gli Stati Uniti nel 2040 (anni)Raggiungere gli Stati Uniti nel 2050 (anni)
Cina143872
Regno Unito79195361
India119291538
Israele141344636
Germania145355656
Canada164400740
Corea183447825
Francia193472872
Svezia200486897
Singapore2746661.231

(Fonte: AIPRM tramite OCSE e Banca Mondiale)

A partire dal 2023, la Cina è il paese che con maggiori probabilità raggiungerà gli Stati Uniti in termini percentuale di spesa in base al Pil per l’Intelligenza Artificiale.

Supponendo che la Cina mantenga lo stesso livello di investimenti nell’AI a partire dal 2023, ci vorrebbero 14 anni (fino al 2037) per raggiungere lo stesso livello di investimenti degli Stati Uniti nel settore. Se la Cina riuscisse a mantenere questo livello di spesa nel futuro, impiegherebbe 38 anni (fino al 2061) per raggiungere il livello a sua volta raggiunto dagli Stati Uniti nel 2040, e altri 34 anni (fino al 2095) per raggiungere il livello raggiunto dagli Stati Uniti nel 2050.

Analizzando i dati da questo punto di vista, ciò significa che, entro la fine del secolo, la Cina potrebbe essere 45 anni indietro rispetto all’America in termini di investimenti nell’Intelligenza Artificiale (se continuerà a investire la stessa quantità di denaro anno dopo anno come nel 2023).

Il Regno Unito è il secondo Paese meglio posizionato per raggiungere gli Stati Uniti in termini di investimenti nell’Intelligenza Artificiale. Tuttavia, se il Regno Unito dovesse mantenere lo stesso livello di spesa per l’intelligenza artificiale del 2023, ci vorrebbe fino al 2102 per raggiungere il livello in cui si troveranno gli Stati Uniti nel 2030 (72 anni indietro in termini di sviluppo dell’AI).   

Una ripartizione della conoscenza pubblica dell’AI tra diversi Paesi#

Grafico a barre che mostra la conoscenza pubblica dell'IA tra diversi paesi

Nel complesso, i Paesi asiatici tendono a mostrare una maggiore conoscenza soggettiva dell’Intelligenza Artificiale, con Corea del Sud e Cina in testa (rispettivamente 85% e 82%). Nonostante ciò, solo un quarto (25%) della popolazione giapponese ha una conoscenza elevata o moderata della tecnologia: il dato più basso riportato in tutti i paesi inclusi nello studio di KPMG.

In confronto, le statistiche sull’Intelligenza Artificiale rivelano che meno della metà (45%) degli americani ritiene di avere un livello alto o moderato di conoscenza dell’AI, con quasi tre quarti (73%) che desiderano saperne di più sul tema.

I Paesi in cui le persone desiderano maggiormente ampliare le proprie conoscenze sull’Intelligenza Artificiale sono Cina (96%) e Israele (94%). Al contrario, poco più della metà (55%) della popolazione giapponese vuole saperne di più sull’Intelligenza Artificiale, il dato più basso riportato nello studio. 

Una ripartizione della conoscenza pubblica dell’AI tra diversi gruppi demografici#

Grafico a farfalla che mostra la conoscenza pubblica dell'IA tra diversi gruppi demografici

Analizzando poi i dati sulla base dell’età della popolazione, scopriamo che la generazione Z e i Millennials mostrano un livello maggiore di conoscenza soggettiva dell’Intelligenza Artificiale rispetto alle loro controparti più anziane. Quasi tre intervistati su cinque, il 57% di tutti coloro che hanno un’età compresa tra 18 e 39 anni ritengono di avere un livello elevato o moderato di conoscenza dell’AI, rispetto al 50% delle persone tra i 40 e i 55 anni e al 39% degli over 56.

La Gen Z e i Millenial sono anche i più desiderosi di saperne di più sull’Intelligenza Artificiale (86%), rispetto al 79% della Gen X e al 76% della generazione dei Boomers.

Tra tutti, le persone con un’istruzione universitaria mostrano una conoscenza dell’Intelligenza Artificiale maggiore di un terzo rispetto a coloro che non hanno frequentato l’università (62% contro 40%) e hanno un maggiore livello di entusiasmo nell’apprendere di più di questa tecnologia (86% contro 77%).

Gli uomini mostrano un livello più elevato di conoscenza soggettiva dell’AI rispetto alle donne (60% contro 40%) e un maggiore desiderio di saperne di più sul tema (84% contro 79%).

La conoscenza percepita dell’AI tende ad aumentare man mano che i lavoratori diventano più qualificati. Ad esempio, due lavoratori manuali su cinque (40%) ritengono di avere una conoscenza dell’Intelligenza Artificiale da moderata a elevata rispetto a circa due terzi (67%) dei manager. Anche il desiderio di espandere la conoscenza dei temi legati all’Intelligenza Artificiale segue un modello simile, ma con cifre molto più vicine tra i gruppi (77% per gli operai rispetto all’88% per i manager).

Interessante anche il tema legato alla Diversity, che rileva come la maggior parte degli iscritti a PhD sull’AI negli Usa siano bianchi, con le componenti ispaniche e di colore della popolazione americana largamente sottorappresentate.

Secondo un sondaggio McKinsey, nonostante le crescenti richieste di attenzione verso i temi etici associati all’uso dell’Intelligenza Artificiale, le aziende mostrano un’attenzione limitata all’equità nell’AI.

L’evoluzione della strategia globale sull’Intelligenza Artificiale è, come abbiamo visto, un fenomeno degno di nota che rivela la crescente consapevolezza e l’importanza attribuita a questa tecnologia a livello internazionale, con gli Stati Uniti che ricoprono un ruolo preminente nel settore rispetto ad altre nazioni, anche se l’analisi demografica della conoscenza della tematica solleva la necessità di promuovere la diversità e l’inclusione nel settore. Affrontare queste disparità non solo migliorerà la rappresentatività e la competenza dell’Intelligenza Artificiale, ma contribuirà anche a garantire un approccio più ampio e inclusivo alla risoluzione dei problemi e all’innovazione tecnologica.

La ‘carota’ di Elon Musk ROBOTAXI

L’adozione dell’intelligenza artificiale nei veicoli autonomi e nei sistemi di trasporto intelligenti (ITS) è una tendenza all’avanguardia nel settore dell’IA. I veicoli autonomi, equipaggiati con avanzati algoritmi di IA e tecnologie sensoriali, stanno trasformando l’industria automobilistica, garantendo una maggiore sicurezza, un’efficienza superiore e una gestione del traffico ottimizzata.

Parallelamente, gli ITS utilizzano l’IA per costruire un ecosistema integrato che migliora l’efficienza dei trasporti, contribuendo alla crescita delle smart city. Questi sistemi elaborano enormi quantità di dati provenienti da diverse fonti per facilitare il flusso del traffico, ridurre l’ingorgo e favorire soluzioni di mobilità sostenibile, segnando una trasformazione radicale nel nostro modo di percepire e interagire con i trasporti.

Nonostante l’importante impatto dell’IA sui veicoli autonomi e sugli ITS, è necessario affrontare sfide come la regolamentazione, le questioni etiche e le preoccupazioni sulla sicurezza informatica per una diffusione più ampia. Nonostante queste sfide, l’innovazione continua, guidata dall’integrazione dell’IA, sta plasmando il futuro dei trasporti, promettendo un panorama in cui le soluzioni di mobilità intelligente giocano un ruolo chiave nella creazione di reti di trasporto più sicure, più efficienti e rispettose dell’ambiente.

Negli Stati Uniti ci sono attualmente quattro città in cui è possibile prendere un robotaxi: San Francisco, Phoenix, Los Angeles e Las Vegas.

Il Robotaxi di Tesla è un progetto ambizioso annunciato da Elon Musk, CEO di Tesla, che mira a produrre veicoli altamente ottimizzati per l’autonomia. Questi veicoli non avranno né volante né pedali, il che significa che saranno completamente autonomi.

Musk ha dichiarato che Tesla prevede di lanciare i Robotaxi nel 2024. Questi veicoli saranno progettati specificamente per essere utilizzati come taxi autonomi. In precedenza, Musk aveva parlato di rendere tutti i veicoli Tesla prodotti dal 2016 in poi capaci di diventare Robotaxi attraverso un aggiornamento software.

L’obiettivo di Tesla con il progetto Robotaxi è di rivoluzionare il settore dei trasporti, rendendo i taxi autonomi più popolari delle auto guidate dagli umani. Questo progetto mette Tesla in competizione con altre aziende che stanno sviluppando tecnologie per veicoli autonomi.

Tuttavia, è importante notare che, nonostante le promesse di Musk, i veicoli Tesla attuali non sono ancora completamente autonomi.

Il software Full Self-Driving (FSD) di Tesla, che Musk ha promesso sarà in grado di fornire capacità di guida completamente autonome, non è ancora in grado di guidare da solo.

Per la terza volta in otto anni, Tesla ha annunciato i suoi piani per i robotaxi, con un annuncio previsto per l’8 agosto, presumibilmente del 2024.

Tesla aveva annunciato per la prima volta nell’ottobre 2016 che tutte le Tesla prodotte da allora sarebbero state compatibili con il Livello 5 (robotaxi), in attesa dell’aggiornamento del software.

Musk ha promesso che Tesla avrebbe avuto un milione di robotaxi sulla strada entro un anno dalla presentazione di aprile 2019.

In altre parole, entro (aprile) 2020. Bene, ora siamo nell’aprile 2024 e Tesla non ha ancora un solo robotaxi da nessuna parte.???!!!

Tesla rimane bloccata al Livello 2 di autonomia, per non parlare del Livello 3 del Livello 4. Nessun Livello 5 (robotaxi) in vista.

In effetti, Tesla non ha nemmeno iniziato a testare i robotaxi.

Vedete, le case automobilistiche devono presentare rapporti di guida alle autorità di regolamentazione, soprattutto in California (dove il lavoro di assistenza alla guida di Tesla è basato sin dall’inizio), mostrando il loro lavoro e come sta andando dal punto di vista della sicurezza.

Aziende come Waymo (di proprietà di Alphabet) e Cruise (di proprietà di General Motors) presentano questi rapporti da molti anni. A febbraio 2024, avevano riportato collettivamente 6 milioni di miglia percorse in questi test:

2023 Disengagement Reports from California

Quante miglia di prova dei robotaxi ha riportato Tesla? Guarda nel rapporto: 0 zero.

Ci sono solo due possibilità:

Tesla non ha iniziato a testare i robotaxi.

Tesla sta testando i robotaxi, ma si rifiuta di riportare i risultati dei test obbligatori alle autorità come richiesto.

A me ricorda il Conte Mascetti.

Il recente pre-annuncio del robotaxi è arrivato poche ore dopo un articolo di Reuters che sosteneva che Tesla aveva interrotto lo sviluppo del suo veicolo “Modello 2” da 25.000 dollari. Questo ha portato alcuni a speculare che ci sia un insolito livello di stress e disperazione tra i dirigenti di Tesla.

Elon Musk ha annunciato dopo la chiusura del mercato il 5 aprile che Tesla presenterà un robotaxi l’8 agosto. Non ha specificato l’anno, ma si presume che sarà il 2024.

Transcript: Elon Musk’s Autopilot 2.0 Conference Call

Molti hanno riso quando hanno visto questo annuncio, perché sembrava una reazione ovvia all’articolo di Reuters.

Dopo la pubblicazione dell’articolo di Reuters, Musk ha pubblicato una denuncia senza specificare cosa nell’articolo ritenesse sbagliato.

Un robotaxi è un’auto in grado di guidarsi da sola al 100%, con la stessa sicurezza del conducente umano medio. Guidare dove e quando? Come un conducente umano: ovunque, con qualsiasi tempo, in qualsiasi circostanza. È un compito arduo. Una cosa è guidare con il bel tempo a velocità inferiori, in un’area georecintata. Affrontare una tempesta di neve in una strada di montagna è un’altra storia.

«Questa decisione – ha commentato Dan Ives, analista di Wedbush si tradurrebbe in un momento buio per Tesla. Sarebbe un incubo se il progetto di questa auto venisse abbandonato, un duro colpo per il “toro” Tesla nei prossimi anni.

Copilot ha il suo momento Iphone

La stagione degli utili è alle porte e le grandi aziende tecnologiche si stanno preparando a pubblicare i loro ultimi risultati trimestrali per gli investitori. Con l’intelligenza artificiale (IA) che domina le discussioni del giorno, la capacità delle aziende di monetizzare questa tecnologia rivoluzionaria sarà al centro dell’attenzione degli investitori, come sottolineato da Wedbush Securities.

Dan Ives, amministratore delegato e analista azionario senior, prevede che l’intelligenza artificiale rappresenterà la trasformazione più significativa a cui il settore tecnologico abbia assistito negli ultimi 30 anni. Tracciando parallelismi con l’anno rivoluzionario del 1995, quando Internet iniziò a plasmare il nostro mondo, Ives suggerisce che l’intelligenza artificiale è destinata a ridefinire il modo in cui interagiamo con la tecnologia e i dati. Questo momento cruciale segnala un cambiamento di paradigma che trascende i settori, promettendo di sbloccare nuove potenzialità e opportunità. 

Nel corso dell’ultimo mese, Wedbush Securities ha condotto una serie di analisi sul campo a livello globale. Questi controlli hanno rafforzato la loro fiducia nel fatto che la monetizzazione della Rivoluzione dell’IA abbia ora iniziato a raggiungere la sua prossima fase di crescita. Il testimone è stato passato dalla fase semilavorata a quella software, con casi d’uso che esplodono in tutto il mondo, ha scritto l’analista Dan Ives in una nota agli investitori.

Microsoft, in particolare, è considerata uno dei maggiori beneficiari della spesa per l’intelligenza artificiale, grazie alla sua partnership con OpenAI. L’aumento della spesa per il cloud computing, insieme ai componenti aggiuntivi dell’intelligenza artificiale generativa a Copilot, ha rafforzato la posizione di Microsoft. Questo ha portato la società a raggiungere una capitalizzazione di mercato di oltre 3,1 trilioni di dollari.

Ives ha definito questo come l’“iPhone Moment” di Microsoft, con l’intelligenza artificiale destinata a cambiare la traiettoria di crescita del cloud a Redmond, sede centrale di Microsoft, nei prossimi anni. I recenti controlli effettuati da Ives confermano ulteriormente questa dinamica per il trimestre di marzo.

Microsoft ha introdotto un servizio innovativo chiamato CoPilot come parte della sua iniziativa sull’intelligenza artificiale. Nonostante sia un prodotto relativamente recente, l’investimento significativo di Microsoft nell’intelligenza artificiale sta iniziando a mostrare risultati positivi.

Le ultime previsioni sugli utili di Microsoft indicano che CoPilot sta ottenendo un notevole successo in diverse aree dell’ecosistema Microsoft. Un esempio evidente è la piattaforma di sviluppo di Microsoft, GitHub, che vanta 1,3 milioni di abbonati a CoPilot. Questo ha contribuito a un incremento del 40% delle entrate annuali di GitHub, registrato al 31 dicembre.

Un altro vantaggio di CoPilot è la sua capacità di integrarsi con le applicazioni fornite dalle principali piattaforme software aziendali, come ServiceNow e Salesforce. Questa caratteristica aumenta ulteriormente il suo valore e la sua applicabilità in un’ampia gamma di contesti aziendali.

Ives ipotizza che per ogni 100 dollari di spesa per il cloud Azure negli ultimi anni, in futuro potrebbero esserci dai 35 ai 40 dollari di spesa aggiuntiva per l’intelligenza artificiale.

Non ho azioni, opzioni o posizioni simili in nessuna delle società menzionate, e non ho piani per avviare tali posizioni nelle prossime 72 ore. Ho scritto questo articolo da solo, e esprime le mie opinioni personali. Non sto ricevendo alcuna compensazione per questo . Non ho alcuna relazione commerciale con nessuna società il cui titolo è menzionato in questo articolo

Aziende leader lanciano un consorzio per affrontare l’impatto dell’intelligenza artificiale sulla forza lavoro tecnologica

Secondo un sondaggio esaustivo condotto tra i dirigenti dalla società svizzera di collocamento The Adecco Group , l’intelligenza artificiale porterà a meno dipendenti nelle aziende nella maggior parte dei settori.

L’indagine ha rilevato che il 41% delle aziende si aspetta un minor numero di dipendenti nella propria organizzazione entro cinque anni a causa dell’intelligenza artificiale e dell’intelligenza artificiale generativa. Inoltre, solo il 46% dei datori di lavoro prevede di ridistribuire i lavoratori internamente nel caso in cui i loro posti di lavoro venissero spostati dall’intelligenza artificiale.

Il sondaggio, “Leading through the large diruption 2024”, ha coinvolto 2.000 dirigenti di alto livello in nove paesi. È stato condotto in collaborazione con Oxford Economics.

Gli autori dello studio suggeriscono che le aziende dovrebbero adottare un “approccio all’intelligenza artificiale incentrato sull’uomo”. Risulta inoltre più fattibile dal punto di vista finanziario formare i dipendenti esistenti a lavorare con nuovi strumenti di intelligenza artificiale piuttosto che assumere nuovi talenti nel campo dell’intelligenza artificiale.

“La nostra ricerca mostra che molti leader non hanno una chiara comprensione della rivoluzione che li attende”, ha affermato Denis Machuel, CEO del Gruppo Adecco. “Strategie responsabili e incentrate sull’uomo saranno fondamentali per gestire le difficoltà della crescita e costruire la forza lavoro giusta per il successo, il tutto creando opportunità di crescita personale”.

Tuttavia, questo non è il percorso che la maggior parte delle aziende sta delineando. Dal sondaggio è emerso che il 66% prevede di assumere talenti con competenze di intelligenza artificiale, mentre solo il 34% prevede di sviluppare competenze internamente. Adecco non ritiene che questa strategia sia sostenibile poiché questa mentalità di “acquisto” aumenterà i salari.

La leadership è impreparata alla disruption
Oltre la metà, ovvero il 57%, dei dirigenti intervistati non ha fiducia nelle competenze e nelle conoscenze relative all’intelligenza artificiale del proprio team dirigente.

“I leader che ricoprono ruoli strategici sono meno convinti dei vantaggi aziendali dell’intelligenza artificiale rispetto a quelli che ricoprono ruoli operativi”, rileva lo studio. “La situazione dovrà cambiare, altrimenti le aziende faranno fatica ad andare oltre la fase di sperimentazione.”

Secondo i risultati del sondaggio, una percentuale maggiore di aziende in Canada, Regno Unito e Stati Uniti è meglio preparata ad affrontare la rivoluzione dell’intelligenza artificiale rispetto ai loro concorrenti globali.

“Chi dispone di un quadro normativo ha anche compiuto progressi più significativi nella trasformazione digitale”, afferma lo studio. “Hanno anche leader più qualificati, una maggiore guida basata sull’intelligenza artificiale per i dipendenti e sono più positivi riguardo alle opportunità della forza lavoro”.

In risposta agli inevitabili licenziamenti associati all’ascesa dell’intelligenza artificiale, una serie di grandi aziende tecnologiche si sono unite al consorzio della forza lavoro ICT abilitata all’intelligenza artificiale per affrontare il problema.

Il consorzio è guidato da Cisco e comprende Accenture, Eightfold AI, Google, IBM, Indeed, Intel (INTC), Microsoft e SAP .

“La missione del nostro AI-Enabled Workforce Consortium, recentemente inaugurato, è quella di fornire alle organizzazioni conoscenze sull’impatto dell’intelligenza artificiale sulla forza lavoro e dotare i lavoratori delle competenze pertinenti”, ha affermato Francine Katsoudas, Vicepresidente esecutivo e Chief People, Policy & Purpose Officer presso Cisco.

Meta Platforms ha annunciato che sta apportando cambiamenti nel suo approccio nei confronti dei contenuti generati dall’AI

“Prevediamo di iniziare a etichettare i contenuti generati da IA a partire da maggio 2024 e smetteremo di rimuovere i contenuti esclusivamente sulla base della nostra politica sui video manipolati a luglio”, ha dichiarato Meta in un post sul blog. “Questa tempistica dà alle persone il tempo di comprendere il processo di auto-rivelazione prima che smettiamo di rimuovere la piccola sottoinsieme di media manipolati.”

La politica ora si applica a immagini, video o audio che sono stati “creati o alterati digitalmente”.

In precedenza, Meta rimuoveva i video che erano stati modificati o cambiati secondo la sua “politica sui media manipolati”.

“Siamo d’accordo con la raccomandazione del Consiglio di Supervisione che fornire trasparenza e contesto aggiuntivo è ora il modo migliore per affrontare i media manipolati e evitare il rischio di limitare inutilmente la libertà di parola, quindi manterremo questo contenuto sulle nostre piattaforme in modo da poter aggiungere etichette e contesto”, ha aggiunto Meta nel post sul blog.

Il cambiamento della politica arriva dopo che il suo Consiglio di Supervisione indipendente ha detto a febbraio che la sua politica sui media manipolati era “incoerente”.

Aggiungendo ulteriori informazioni, Meta ha annunciato che inizierà a etichettare un’ampia gamma di contenuti video, audio e immagini come “Made with AI” quando rileva indicatori di immagini AI standard del settore o quando le persone rivelano che stanno caricando contenuti generati da IA.

Questo cambiamento è stato influenzato dalle raccomandazioni del Consiglio di Supervisione e da un processo di revisione delle politiche che includeva sondaggi di opinione pubblica e consultazioni con accademici e organizzazioni della società civile.

L’impronta di carbonio dell’Intelligenza Artificiale è più grande di quanto pensi, affermano le scienziate del MIT

Non sono io a dirlo ma alcune studiose del MIT. Sasha Luccioni, con Emma Strubell e Yacine Jernite, hanno testato 88 modelli su 30 set di dati da 10 attività diverse con modalità diverse e hanno trovato cose davvero interessanti:

  • I compiti generativi e quelli che coinvolgono le immagini consumano più energia e carbonio rispetto ai compiti discriminativi e a quelli che coinvolgono il testo. Abbiamo scoperto che Stable Diffusion XL utilizza quasi 1 carica telefonica di energia per generazione.
  • La formazione continua ad essere molto più ad alta intensità di energia e di carbonio rispetto all’inferenza. Sono necessari dai 200 ai 500 milioni di deduzioni da un modello della famiglia BLOOM per raggiungere la quantità di energia utilizzata durante l’allenamento. Ma questo può essere raggiunto abbastanza velocemente per un modello popolare utilizzato da milioni di utenti, come ChatGPT.

L’utilizzo di modelli multiuso per compiti discriminativi richiede un maggiore dispendio energetico rispetto ai modelli specifici per compiti per gli stessi compiti. Ciò è particolarmente vero per l’analisi del sentiment e la risposta alle domande. La differenza può essere un fattore di 30 volte a seconda del set di dati.

Ma c’è una cosa di cui la gente non parla abbastanza, ed è l’impronta di carbonio dell’Intelligenza Artificiale. Uno dei motivi è che le grandi aziende tecnologiche non condividono l’impronta di carbonio della formazione e dell’utilizzo dei loro enormi modelli, e non disponiamo di  metodi standardizzati per misurare  le emissioni di cui è responsabile l’intelligenza artificiale. E anche se sappiamo che  addestrare modelli di Intelligenza Artificiale è altamente inquinante , le emissioni attribuibili all’utilizzo  dell’Intelligenza  Artificiale finora sono state un tassello mancante. Cioè, fino ad ora. 

In un nuovo studio condotto dai ricercatori della startup AI Hugging Face e della Carnegie Mellon University, generare un’immagine utilizzando un potente modello di Intelligenza Artificiale richiede la stessa quantità di energia necessaria per caricare completamente uno smartphone. Tuttavia, hanno scoperto che l’utilizzo di un modello di Intelligenza Artificiale per generare testo richiede molta meno energia. La creazione di testo 1.000 volte consuma solo il 16% della carica completa di uno smartphone.

Il loro lavoro, che deve ancora essere sottoposto a revisione paritaria, mostra che, sebbene l’addestramento di enormi modelli di Intelligenza Artificiale richieda un’enorme quantità di energia, è solo una parte del quadro. La maggior parte della loro impronta di carbonio deriva dal loro utilizzo effettivo.

Lo studio segna la prima volta che i ricercatori calcolano le emissioni di carbonio causate dall’utilizzo di un modello di Intelligenza Artificiale per vari compiti, secondo Sasha Luccioni, ricercatrice di intelligenza artificiale presso Hugging Face che ha guidato il lavoro. Spera che la comprensione di queste emissioni possa aiutarci a prendere decisioni informate su come utilizzare l’intelligenza artificiale in un modo più rispettoso del pianeta.

Il consumo di energia e l’impronta di carbonio dell’intelligenza artificiale sono un argomento sempre più importante con la crescita dell’uso dei sistemi di intelligenza artificiale.

Il consumo energetico dei sistemi di Intelligenza Artificiale può essere suddiviso in due fasi principali: addestramento e inferenza.

La fase di formazione, che prevede l’insegnamento del modello di Intelligenza Artificiale utilizzando grandi quantità di dati, è in genere più dispendiosa in termini di energia.

La fase di inferenza, che prevede l’utilizzo del modello addestrato per effettuare previsioni o decisioni, generalmente consuma meno energia ma può comunque accumularsi nel tempo, soprattutto per i sistemi che effettuano previsioni frequenti.

Il consumo energetico dei sistemi di Intelligenza Artificiale è in gran parte determinato dall’hardware e dall’infrastruttura che utilizzano. Ciò include i computer e i server utilizzati per l’addestramento e l’inferenza, nonché i data center che ospitano questi sistemi. Hardware e infrastrutture più efficienti dal punto di vista energetico possono ridurre significativamente il consumo di energia e l’impronta di carbonio dei sistemi di intelligenza artificiale.

La generazione di immagini è di gran lunga l’attività basata sull’Intelligenza Artificiale più dispendiosa in termini di energia e carbonio.

La generazione di 1.000 immagini con un potente modello di intelligenza artificiale, come Stable Diffusion XL, è responsabile della produzione di una quantità di anidride carbonica pari a quella di guidare l’equivalente di 4,1 miglia in un’auto media a benzina.

L’impronta di carbonio dei sistemi di Intelligenza Artificiale dipende anche dalle fonti energetiche utilizzate per alimentarli. I sistemi di Intelligenza Artificiale alimentati da fonti di energia rinnovabile, come l’energia eolica o solare, hanno un’impronta di carbonio inferiore rispetto a quelli alimentati da combustibili fossili.

ESG – La ricerca di Luccioni evidenzia anche come le emissioni legate all’uso dell’intelligenza artificiale dipenderanno da dove verrà utilizzata, afferma Jesse Dodge, ricercatore presso l’Allen Institute for AI, che non ha preso parte allo studio. L’impronta di carbonio dell’intelligenza artificiale in luoghi in cui la  rete elettrica è relativamente pulita, come la Francia , sarà molto inferiore rispetto a luoghi con una rete fortemente dipendente dai combustibili fossili, come alcune parti degli Stati Uniti.

Esistono varie strategie per rendere i sistemi di AI più efficienti dal punto di vista energetico, come l’utilizzo di modelli più piccoli, l’ottimizzazione di algoritmi per l’efficienza energetica o l’utilizzo di tecniche come la potatura o la quantizzazione per ridurre i requisiti computazionali dei modelli di AI.

Politiche e normative: le politiche e le normative possono svolgere un ruolo chiave nel ridurre il consumo di energia e l’impronta di carbonio dell’AI. Ciò potrebbe comportare la definizione di standard di efficienza energetica per i sistemi di intelligenza artificiale, l’incentivazione dell’uso di energie rinnovabili o la richiesta alle aziende di segnalare e ridurre le proprie emissioni di carbonio.

Ecco alcuni numeri che evidenziano il consumo energetico e l’impronta di carbonio dell’AI:

Uno studio pubblicato su Nature Climate Change nel 2019 ha stimato che l’addestramento di un singolo modello di intelligenza artificiale può emettere tanto carbonio quanto cinque automobili nel corso della loro vita. Ciò equivale a circa 284.000 libbre (129.000 chilogrammi) di anidride carbonica.
Secondo un rapporto del 2020 dell’Agenzia internazionale per l’energia (IEA), i data center, che ospitano molti sistemi di intelligenza artificiale, rappresentano circa l’1% del consumo globale di elettricità. Ciò equivale all’incirca al consumo di elettricità dell’intero paese dell’Australia.

Uno studio del 2020 condotto da ricercatori dell’Università del Massachusetts, Amherst, ha stimato che l’energia utilizzata per l’inferenza dell’intelligenza artificiale nei data center potrebbe rappresentare il 2,5% del consumo globale di elettricità entro il 2030.


Un rapporto del 2020 di OpenAI ha rilevato che la quantità di potenza di calcolo utilizzata nelle più grandi sessioni di formazione sull’intelligenza artificiale è raddoppiata ogni 3,4 mesi dal 2012. Tuttavia, il rapporto ha anche osservato che i miglioramenti nell’efficienza dell’hardware hanno aiutato per compensare parte di questo aumento del consumo di energia.

Alcune aziende di intelligenza artificiale stanno compensando le proprie emissioni di carbonio. Ad esempio, Google è a zero emissioni di carbonio dal 2007 e mira a operare con energia priva di emissioni di carbonio 24 ore su 24, 7 giorni su 7 in tutti i suoi data center e campus in tutto il mondo entro il 2030.

L’Unione Europea ha fissato l’obiettivo di ridurre le proprie emissioni di gas serra di almeno il 55% entro il 2030 rispetto ai livelli del 1990, e di raggiungere l’azzeramento delle emissioni nette entro il 2050. Questi obiettivi potrebbero portare a riduzioni il consumo energetico e l’impronta di carbonio dell’intelligenza artificiale nell’UE.

Nvidia’s Dominance in AI Infrastructures: A Look at the Competition and the Future of AI Chips

I believe that NVIDIA’s moat is currently quite wide, but it appears to have a significant weak point that clever researchers and well-funded newcomers are beginning to try to exploit. NVIDIA initially developed its GPUs and CPUs for non-artificial intelligence specific activities. The computing power provided turned out to be translatable into deep learning and other artificial intelligence capabilities, placing NVIDIA in a particularly strong position as demand for artificial intelligence began to increase exponentially. However, the key point here is that it developed its significant infrastructure suitable for computing activities that are not specifically designed for artificial intelligence. This does not mean that NVIDIA is not aware of it; they are absolutely and will do everything in their power to develop systems and infrastructures that commit to focusing on artificial intelligence first and foremost in the units developed in the future.

However, there is still a certain window here for new companies to potentially gain a share of the market if they challenge NVIDIA, Google, and other leading tech companies in developing chips specifically designed for AI workloads from scratch. The main competitive advantage that these AI-specific chips would have is efficiency in AI workloads, which represents a huge strength as consumers begin to expect faster inferences from AI systems. It is not unlikely that a company much smaller than NVIDIA could effectively achieve all of this, but in my opinion, it takes the right teams with the right funding and the right ingenuity to be able to properly manifest these projects and then have them adopted on a large scale.

Companies like Groq and other less well-known startups are already doing this. But in my opinion and from my research, Groq seems to have the highest advantage here and should offer a rather convincing rival to NVIDIA in the artificial intelligence market in the coming years. It offers a Tensor Streaming Processor architecture that, unlike traditional GPUs and CPUs, provides a deterministic and software-defined approach. This reduces latency and increases efficiency. Moreover, its single-core design allows for high-speed data processing, making it much more attractive for AI-based calculations. Groq’s chips are designed to deliver faster performance in certain AI activities than traditional GPUs, as they are designed to perform trillions of operations per second.

Other major competitors to NVIDIA also include Cerebras and SambaNova. Cerebras offers a very powerful single-chip processor and SambaNova offers an integrated hardware and software system powered by AI-specific chips.

Cerebras has a huge AI chip called the Wafer Scale Engine, which is much larger than traditional chips and takes up almost an entire silicon wafer. Therefore, it has unprecedented computing power and stands out as a significant competitor. Its latest version, called the Wafer Scale Engine 2, contains 2.6 trillion transistors and 850,000 cores, making it the largest chip ever built. This allows for fast and efficient AI activities while minimizing data movement.

SambaNova’s integrated hardware and software solution through its DataScale system is powered by chips that use its reconfigurable dataflow architecture. This allows for adaptable and scalable AI processing and is quite interesting as it offers flexibility to companies that need a range of different levels of processing that vary depending on the needs of their machine learning activities at specific times.

We should remember that NVIDIA will not be dethroned from its first place in AI infrastructures due to its growing moat, but the part of the market that focuses on the current large gap in NVIDIA’s strategic focus, which it now needs to bridge by readjusting, could do very well. I think the challenge will be whether the companies trying to compete with NVIDIA in this sense will be able to remain vital once NVIDIA adapts accordingly to the technological change and comes back with mass production. I believe that the only option for smaller competitors is to focus strictly on quality. I believe that ingenuity and design strength could far outperform NVIDIA, even for a long time. Even though NVIDIA might be the biggest, it might not be the best.


If NVIDIA is eventually seen as the company with the largest offering of computing infrastructures but does not offer the best AI-specific chips in terms of efficiency, at least for a while, this could mean that the stock valuation is too high at the moment. What NVIDIA offers, which I believe is compelling and its most significant competitive advantage, is a full-stack ecosystem for high-computing activities, including AI, which it continues to develop. This is probably what the market wants and requires through the very high valuation. However, if suddenly NVIDIA were seen as the main provider of this, but as the second best in terms of AI-specific workloads, I think that NVIDIA’s valuation could undergo a moderate correction. In light of this risk for NVIDIA, I think it is wise for NVIDIA shareholders to be cautious in the short-medium term. My opinion is that NVIDIA’s valuation at this moment is not too high based on the long-term dependence that the world will have on the NVIDIA ecosystem, but in the short-medium term the stock valuation could be seen as too optimistic given that some major competitors of NVIDIA are emerging that should moderately, but successfully, disrupt the idea of NVIDIA as such a dominant provider of quality in AI workloads. However, NVIDIA’s continuous AI innovations and integrations could mitigate these risks, especially considering its funding power compared to smaller and newer companies.


I think that Jensen Huang is an exceptional entrepreneur and executive. He has inspired many of my thoughts and works and it is well documented that he actively seeks out and evaluates NVIDIA’s competition daily when he realizes that it is true that other companies are trying to take away NVIDIA’s market leader position. This presents quite powerfully what other newcomers are up against, and I believe that his ethic is the foundation of the wide and growing moat that NVIDIA shareholders are getting used to. NVIDIA, without exaggeration, is an exceptional company.

As I mentioned above in my analysis of operations, I believe that NVIDIA has its strength in its full-stack ecosystem. In this area, I believe it will be substantially impossible for competitors to effectively compete for NVIDIA’s market share in a significant way. This is why I think Mr. Huang has done an excellent job in consolidating and solidifying NVIDIA’s position as the most advanced (and well-funded) technology company that develops AI tools. This is also why I believe that NVIDIA remains a fantastic long-term buy.

I believe that NVIDIA’s CUDA deserves special mention here, as it is the architecture that enables a full range of customers to enable NVIDIA’s GPUs for generic processing. I think this is incredibly smart for NVIDIA to do, as it allows them to leverage the power of their own units for multiple purposes through software integration. What it does is democratize the power of NVIDIA’s hardware infrastructure, but what Groq and other startups might be able to do is focus on the niche of AI-specific workloads and design hardware that is absolutely focused only on these tasks. Undoubtedly, this will be faster compared to moderating the high-power units for variable workloads, including AI. However, the versatility of generic GPUs offers broader applicability, which is also crucial in environments that require multiple types of workloads managed simultaneously.

While NVIDIA has to face competition from AMD (AMD), which has also developed an AI ecosystem called ROCm, AMD’s platform is significantly less complete and currently does not have a set of AI-specific features like NVIDIA’s. Instead, AMD’s main competitive focus is to provide high-performance processing from its chip designs at a competitive cost. AMD is still aggressively pursuing improvements in its GPU capabilities and the ROCm ecosystem to support AI and machine learning workloads. For some aspects, if AMD were to focus skillfully on the specific development of AI chips, as Groq does, then it could have a much more significant competitive advantage over NVIDIA. However, this should not underestimate the fact that AMD is generally strategically balancing its attention to AI in its total product portfolio. AMD, like NVIDIA, was not initially an AI company.


While NVIDIA is a leader in the field of AI computing infrastructures, it has become evident that there is a momentary opening for innovators to capture the latency in NVIDIA’s chip configurations. In the near future, I believe it is possible that NVIDIA will be seen as the largest and best AI development ecosystem, but it could find itself, at least for a period, outpaced by competition in chip design from smaller companies focused on direct market quality of chips and units specifically designed for AI. Ultimately, NVIDIA was not initially an AI company; it might take a company dedicated to AI from the beginning to truly deliver the quality that the AI consumer market is about to demand.

L’Industria dell’Intelligenza Artificiale: un investimento costoso ma necessario

Nel 2000 scoppiò la bolla delle dot-com, ponendo fine a un periodo di cinque anni di valutazioni in rialzo e di crescente entusiasmo degli investitori per le numerose applicazioni del World Wide Web. 

A partire dal 2018 si è assistito alla creazione di un boom stranamente simile, questa volta incentrato sull’Intelligenza Artificiale (AI).

L’ Organizzazione per la cooperazione e lo sviluppo economico (OCSE), stima che gli investimenti in capitale di rischio nell’Intelligenza Artificiale abbiano registrato una crescita costante dal 2012, raggiungendo i 42 miliardi di dollari (una quota del 57% del totale globale) nel 2020. 

L’industria dell’Intelligenza Artificiale sta crescendo ad un ritmo senza precedenti, alimentando l’innovazione in settori che vanno dalla sanità alla finanza.

Le stime di Dan Nystedt, riportate su X, svelano che al momento gli ordini di NVIDIA ammontano all’11% del fatturato di TSMC: nel 2023 NVIDIA avrebbe pagato 7,73 miliardi di Dollari a TSMC per i suoi chip.

Le valutazioni, sia per Nvdia produttore di chip statunitense che per i colossi tecnologici che ne fanno uso per addestrare i loro modelli di AI (un gruppo conosciuto come i Magnifici Sette) sono salite alle stelle, generando preoccupazioni tra gli investitori che temono la formazione di una bolla.

Tuttavia, dietro questa crescita c’è un costo significativo. Secondo una presentazione recente della società di venture capital Sequoia, l’industria dell’AI ha speso 50 miliardi di dollari in chip Nvidia utilizzati per addestrare modelli di AI avanzati solo l’anno scorso, ma ha generato solo 3 miliardi di dollari di entrate (dati: WSJ).

QUANTO STIAMO SPENDENDO E QUAL È L’INCIDENZA DEI COSTI INFORMATICI SULLE VARIABILI DI BUSINESS ?

L’addestramento dei modelli di AI richiede una grande quantità di potenza di calcolo. I chip Nvidia, noti per le loro capacità di elaborazione parallela, sono ampiamente utilizzati in questo campo. Tuttavia, l’acquisto di questi chip rappresenta un investimento significativo. Con 50 miliardi di dollari spesi in un anno, è chiaro che l’industria dell’Intelligenza Artificiale sta investendo pesantemente in questa tecnologia.

Il ROI Ritorno sull’Investimento

Nonostante l’ingente investimento, l’industria dell’AI ha generato solo 3 miliardi di dollari di entrate. Questo potrebbe sollevare interrogativi sulla sostenibilità di tali investimenti. Tuttavia, è importante notare che l’Intelligenza Artificiale è un campo in rapida evoluzione e gli investimenti di oggi possono portare a scoperte rivoluzionarie in futuro.

Guardando al Futuro

Lo scienziato cognitivo Guy Marcus ha affermato in un post recente che il settore dell’Intelligenza Artificiale sta attualmente affrontando tre problemi fondamentali: uno, un software che costa molto da sviluppare ma non genera rendimenti adeguati; due, il software ha profondi difetti di sicurezza; tre, le allucinazioni non scompariranno, rendendo quel software inaffidabile per una serie di casi d’uso. 

Nonostante l’apparente squilibrio tra costi e ricavi, l’industria dell’AI continua a crescere. L’investimento in tecnologia è visto come un passo necessario verso il progresso. Mentre l’Intelligenza Artificiale continua a svilupparsi, è probabile che vedremo un aumento dell’efficienza e, sperabilmente, un ritorno sull’investimento più elevato.

In conclusione, l’industria dell’AI sta facendo scommesse audaci sul futuro. Solo il tempo dirà se questi investimenti porteranno i frutti sperati. Ma una cosa è certa: l’Intelligenza Artificiale sta cambiando il mondo come lo conosciamo, e questo è un viaggio che vale la pena di fare, nonostante il costo.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Il Digital Markets Act e le implicazioni per le Big Tech: Riflessioni e Prospettive

Il Digital Markets Act (DMA) è una proposta legislativa dell’Unione Europea (UE) volta a regolare le grandi piattaforme digitali, spesso indicate come “Big Tech”, che detengono una posizione dominante nel mercato digitale. Il DMA è parte integrante del pacchetto di riforme digitali dell’UE, insieme al Digital Services Act (DSA), e mira a promuovere la concorrenza equa nel mercato digitale europeo.

In un recente articolo della Prof.ssa Paola Pisano che cosa cambia per le Bigtech dopo il DMA, evidenzia come il DMA potrebbe ridurre il potere di mercato delle Big Tech, favorendo la concorrenza e promuovendo l’innovazione nel settore tecnologico. Tuttavia, sottolinea anche le preoccupazioni riguardo alla complessità delle normative proposte e alla loro possibile efficacia nell’affrontare le preoccupazioni riguardanti il potere delle Big Tech.

Lo stesso articolo cita il Caso Groq, il suo chip Tensor Streaming Processor (TSP), progettato appositamente per accelerare il training e l’inferenza di reti neurali artificiali, il quale ha attirato l’attenzione sia degli investitori che dei giganti tecnologici grazie alla sua tecnologia di punta. Tuttavia, la startup ha anche affrontato sfide, tra cui la competizione con altre aziende nel settore dei chip AI e la necessità di dimostrare l’efficacia e l’affidabilità del suo prodotto in un mercato altamente competitivo.

Nel complesso, Groq rappresenta un interessante caso di studio nel campo dell’innovazione tecnologica, mostrando come le startup possano sfidare i giganti consolidati con idee e approcci innovativi. Il successo futuro di Groq dipenderà dalla sua capacità di continuare a sviluppare e commercializzare la sua tecnologia in un modo che risponda alle esigenze del mercato e superi la concorrenza.

Questo mi ha spinto un riflessione personale.

Nell’era digitale sempre più interconnessa in cui viviamo, le grandi piattaforme tecnologiche hanno acquisito un’influenza senza precedenti sulla nostra vita quotidiana, svolgendo un ruolo centrale nell’economia globale.

Tuttavia, con il loro crescente potere e dominio nel mercato digitale, sono emerse preoccupazioni riguardo alla mancanza di concorrenza equa, alla protezione dei dati degli utenti e alla trasparenza delle loro pratiche commerciali. In risposta a queste preoccupazioni, l’Unione Europea ha proposto il Digital Markets Act (DMA), una legislazione mirata a regolare le grandi piattaforme digitali al fine di promuovere una maggiore concorrenza e proteggere i consumatori.

Tuttavia, il DMA ha suscitato un acceso dibattito riguardo alle sue implicazioni e alla sua efficacia nel risolvere le sfide nel mercato digitale.”

Alcuni analisti finanziari potrebbero vedere il DMA come un importante passo avanti nella regolamentazione delle grandi piattaforme digitali, in quanto mira a promuovere una maggiore concorrenza nel settore e a proteggere i consumatori dai potenziali abusi di posizione dominante da parte delle Big Tech. Questi analisti potrebbero ritenere che la regolamentazione delle piattaforme digitali dominanti possa contribuire a ridurre il rischio sistematico nel settore tecnologico e promuovere una maggiore stabilità nei mercati finanziari.

Tuttavia, altri analisti potrebbero essere preoccupati per le possibili conseguenze negative del DMA sulle grandi società tecnologiche e sui mercati finanziari. Potrebbero temere che eccessive restrizioni alle attività delle Big Tech possano ridurre l’innovazione nel settore e danneggiare la competitività dell’Europa rispetto ad altre regioni del mondo. Questi analisti potrebbero anche preoccuparsi delle implicazioni per gli investitori nel settore tecnologico e per i mercati azionari europei nel loro complesso.

Un’altra area di interesse riguarda l’implementazione e l’applicazione del DMA. Considerando le sfide pratiche e le possibili disparità nell’applicazione tra gli Stati membri dell’UE, sarà fondamentale sviluppare meccanismi efficaci per garantire una regolamentazione uniforme e coerente in tutto il mercato unico digitale europeo.

Una regolamentazione non uniforme potrebbe portare alla frammentazione del mercato digitale, con regole diverse che si applicano in paesi diversi. Questo potrebbe rendere difficile per le aziende operare su più mercati e potrebbe creare un ambiente poco chiaro e confuso per gli utenti e gli operatori del mercato, una disuguaglianza di trattamento tra le grandi piattaforme digitali, a seconda del paese in cui operano e a una concorrenza sleale, con regole diverse (pensiamo alla privacy) che si applicano in diversi paesi, le grandi piattaforme digitali potrebbero trovarsi ad affrontare una maggiore complessità amministrativa e burocratica nel rispettare le diverse normative.

Se alcuni stati ad esempio UK (brexit) considerassero il DMA come un’interferenza eccessiva negli affari interni e una limitazione della sua sovranità decisionale, potrebbero opporsi attivamente alle misure proposte. Oppure vedessero le grandi piattaforme digitali come un motore importante per l’economia e l’innovazione, potrebbero essere riluttante ad adottare misure che limitino il loro potere o che possano danneggiare la loro competitività.

In un contesto di negoziati post-Brexit e di sviluppo di nuove relazioni commerciali, il Regno Unito potrebbe cercare di bilanciare le proprie posizioni politiche e diplomatiche con l’Unione Europea e altri attori internazionali, potenzialmente ostacolando l’adozione del DMA.

Al di fuori di questi scenari geopolitici iIl DMA potrebbe offrire opportunità significative per le piccole e medie imprese (PMI) e le startup nel settore tecnologico. La condivisione dei dati e altre misure proposte potrebbero consentire loro di competere in modo più equo con le Big Tech, favorendo così l’innovazione e la diversificazione nel mercato digitale.

Sarà interessante osservare le reazioni delle grandi società tecnologiche di fronte al potenziale impatto del DMA sul loro modello di business e sul loro dominio di mercato. Le strategie adottate dalle Big Tech per conformarsi alle nuove normative potrebbero avere profonde implicazioni per il futuro del settore tecnologico e per l’evoluzione del panorama digitale europeo.

Il DMA si inserisce in un contesto più ampio di sforzi internazionali per regolare le grandi piattaforme digitali e promuovere la concorrenza nel settore tecnologico.

Stati Uniti: Negli Stati Uniti, ci sono state molte discussioni e proposte legislative volte a regolare le grandi piattaforme tecnologiche. Ad esempio, ci sono state udienze antitrust al Congresso e un’indagine da parte della Federal Trade Commission (FTC) sulla condotta anticoncorrenziale di alcune di queste aziende.

Cina: Anche in Cina, dove le grandi aziende tecnologiche hanno un forte controllo sul mercato digitale, sono state adottate misure per regolare il settore. Ad esempio, ci sono stati interventi governativi per limitare il potere delle piattaforme digitali e garantire una concorrenza più equa.

G7 e G20: I paesi del G7 e del G20 hanno discusso ampiamente questioni legate alla regolamentazione delle piattaforme digitali e alla promozione della concorrenza nel settore tecnologico. Inoltre, sono state discusse strategie coordinate per affrontare le sfide globali legate al potere delle grandi piattaforme digitali.

Organizzazioni internazionali: Organizzazioni internazionali come l’Organizzazione Mondiale del Commercio (OMC) e l’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE) sono coinvolte nel dibattito sulla regolamentazione delle piattaforme digitali e lavorano per sviluppare norme e regolamenti globali in materia.

La cooperazione internazionale sarà cruciale per affrontare le sfide globali legate al potere delle Big Tech e per garantire un ambiente digitale sicuro ed equo per tutti gli utenti.

In conclusione, il Digital Markets Act rappresenta un importante passo avanti nella regolamentazione delle piattaforme digitali dominanti e nella promozione della concorrenza nel settore tecnologico europeo.

Tuttavia, sarà fondamentale monitorare da vicino l’implementazione e l’applicazione delle nuove normative, così come le reazioni delle Big Tech e le conseguenze sulle PMI e sulle startup. Solo attraverso una regolamentazione equilibrata e una collaborazione internazionale efficace sarà possibile garantire un futuro digitale prospero e inclusivo per tutti.

DMA Annual Report 2023

Microsoft Quantinuum reliable quantum computing

Microsoft e Quantinuum hanno fatto un passo avanti verso la commercializzazione dell’informatica quantistica riducendo notevolmente i tassi di errore associati ai qubit, hanno annunciato mercoledì le società.

La collaborazione tra Quantinuum e il team di computazione quantistica di Microsoft ha portato alla creazione di quattro qubit logici che dimostrano un tasso di errore 800 volte inferiore rispetto ai corrispondenti qubit fisici¹. Questo risultato rappresenta un passo avanti cruciale nel campo della computazione quantistica.

Quantinuum, nata dalla fusione di Cambridge Quantum e Honeywell Quantum Solutions, è stata scelta come partner da Microsoft per diversi motivi:

Hardware specializzato: Quantinuum utilizza l’hardware a trappola ionica della serie H-Series, che offre un’eccellente fedeltà del gate a due qubit del 99,8%. Questo hardware di alta qualità è stato fondamentale per il successo della collaborazione.

Sistema di virtualizzazione dei qubit di Microsoft: Microsoft ha sviluppato un sistema sofisticato per filtrare e correggere gli errori nei qubit. L’applicazione di questo sistema ai qubit di Quantinuum ha permesso di eseguire oltre 14.000 esperimenti indipendenti senza alcun errore.

Obiettivi comuni: Entrambe le aziende condividono la visione che la computazione quantistica affidabile possa contribuire a risolvere alcune delle sfide più urgenti dell’umanità, come il cambiamento climatico, la crisi energetica e l’insicurezza alimentare.

La scelta di Quantinuum come partner è stata guidata dalla combinazione di competenze tecniche, hardware avanzato e una visione condivisa per il futuro della computazione quantistica.

L’informatica quantistica ha la capacità di elaborare e analizzare i dati a una velocità che fa sembrare primitivi i computer basati sul silicio. Anche le mega aziende tecnologiche come Google e IBM hanno investito molto nell’informatica quantistica.

Mentre un bit, o cifra binaria, è l’unità di base dell’informazione nell’informatica classica, un qubit, abbreviazione di bit quantistico, funge da equivalente nell’informatica quantistica.

Il problema con i qubit è che sono incredibilmente delicati e il computer deve controllare i precisi stati quantistici dei singoli atomi, che in genere sono soggetti a errori.

“Stiamo ora entrando nella fase successiva per risolvere problemi significativi con computer quantistici affidabili”, ha affermato Zander. “Il nostro sistema di virtualizzazione dei qubit, che filtra e corregge gli errori, combinato con l’hardware di Quantinuum dimostra il più grande divario tra i tassi di errore fisico e logico riportato fino ad oggi.”

“Con un supercomputer ibrido alimentato da 100 qubit logici affidabili, le organizzazioni inizierebbero a vedere un vantaggio scientifico, mentre avvicinarsi a 1.000 qubit logici affidabili sbloccherebbe un vantaggio commerciale”, ha affermato Zander.

Microsoft e Quantinuum ritengono che un calcolo quantistico affidabile potrebbe aiutare a risolvere alcuni dei maggiori problemi dell’umanità, come il cambiamento climatico, la crisi energetica e l’insicurezza alimentare. Potrebbe anche rivoluzionare i campi della chimica, della scienza dei materiali, della medicina e accelerare lo sviluppo di modelli linguistici di intelligenza artificiale consapevoli del significato.

Quantinuum e Microsoft Azure Quantum collaborano da diversi anni per ridurre gli errori nel calcolo quantistico e renderlo applicabile a livello commerciale. Credono che l’annuncio di oggi li avvicini di un passo al raggiungimento di tale obiettivo.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

“La Sorveglianza di Stato nel 2024: Un Incubo Orwelliano”

Nel mondo di oggi, la tecnologia ha reso la sorveglianza di stato più facile e pervasiva che mai. Con l’avvento dell’intelligenza artificiale, dei droni e delle telecamere di sicurezza dotate di riconoscimento facciale, i governi di tutto il mondo hanno accesso a una quantità di informazioni senza precedenti sui loro cittadini. In questo contesto, il concetto di privacy è diventato sempre più un lontano ricordo.

Questa situazione ci porta a chiederci se non stiamo vivendo in un incubo orwelliano, dove lo stato controlla ogni aspetto della nostra vita. Nel suo famoso romanzo “1984”, George Orwell descriveva un mondo in cui il governo aveva il controllo totale sulla vita dei cittadini, monitorando ogni loro movimento attraverso telecamere di sorveglianza e microfoni nascosti. Oggi, sembra che quella visione distopica si stia avverando.

In Cina, ad esempio, il governo ha implementato un sistema di sorveglianza di massa che utilizza l’intelligenza artificiale per monitorare i cittadini. Il sistema, noto come “credito sociale”, assegna a ciascun cittadino un punteggio in base al loro comportamento sociale ed economico.

Il Piano di sviluppo dell’IA di nuova generazione, pubblicato nel 2017, e altri proclami ufficiali dichiarano l’intenzione della Cina di guidare il mondo nell’intelligenza artificiale entro il 2030 e ottenere un “first mover advantage” attraverso l’AI per generare un divario sempre più ampio tra Pechino e le nazioni meno capaci. In sostanza, Pechino andrebbe alla ricerca di un software in grado di funzionare in circostanze nuove, con maggiore autonomia ed efficacia, in grado di assomigliare sempre più all’intelligenza umana.

Ricordiamo anche il  Basic security requirements for generative artificial intelligence service è un documento che il TC260 cinese, l’organismo nazionale di definizione degli standard sulla sicurezza delle informazioni, ha pubblicato per fornire i requisiti di sicurezza che i fornitori di servizi basati su gAI dovranno seguire.

Tali iniziative prevedono una ricerca associata di alto livello concentrata su tre aree disciplinari:

  • l’AI “ispirata al cervello” che modella aspetti della cognizione umana;
  • i “microfoni connettivi” o mappatura del cervello;
  • le interfacce cervello-computer che collegano le due “piattaforme”, con i chip ibridi digitale-analogico “neuromorfici” che svolgerebbero un ruolo in tal senso.

Ma la Cina non è l’unico paese ad aver adottato misure di sorveglianza di massa. Negli Stati Uniti, l’NSA (National Security Agency) ha raccolto milioni di record telefonici e dati internet dei cittadini americani senza il loro consenso. Anche in Europa, alcuni governi hanno introdotto leggi che permettono la sorveglianza di massa in nome della sicurezza nazionale.

AI ACT fa riferimento all’ identificazione biometrica in tempo reale utilizzata nei luoghi pubblici. Sebbene l’uso di questa tecnologia sia considerato controverso e sia stato proibito in alcune circostanze, l’Europa ha permesso eccezioni in determinati casi. L’Europa consente ancora a ciascuno Stato membro di stabilire regole più rigide o vietare del tutto l’uso di tali sistemi.

La domanda è: dove tracciamo la linea tra la sicurezza nazionale e la privacy individuale? In un mondo in cui la tecnologia avanza a un ritmo sempre più veloce, è fondamentale trovare un equilibrio tra la necessità di proteggere i cittadini e il rispetto dei loro diritti fondamentali.

Come ha scritto Orwell, “La libertà è il diritto di dire agli altri ciò che non vogliono sentire“. Se non siamo disposti a difendere la nostra libertà e la nostra privacy, rischiamo di perdere entrambi. È giunto il momento di prendere sul serio la minaccia della sorveglianza di stato e di lavorare insieme per creare un futuro in cui la tecnologia sia utilizzata per proteggere i diritti umani, non per violarli.

Fonte immagine: Pixabay https://pixabay.com/it/illustrations/cina-cinese-bandiera-occhio-5089721/. Immagine non soggetta a Copyright.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Pagina 18 di 20

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie