Donald Trump ha deciso di puntare su Brian Quintenz come prossimo presidente della Commodity Futures Trading Commission, l’agenzia federale che dovrebbe garantire la trasparenza e la stabilità nei mercati dei derivati statunitensi. L’annuncio è arrivato dallo stesso Quintenz su X (ex Twitter, per chi si fosse perso l’ennesima trovata di marketing di Elon Musk). Per chi non lo sapesse, Quintenz al momento si occupa di politica per la divisione cripto di Andreessen Horowitz, il fondo di investimento che ha capito da tempo dove soffia il vento dei soldi facili. Prima di questo, era già stato commissario della CFTC, proprio durante il primo mandato di Trump, quindi nulla di nuovo sul fronte occidentale.
Categoria: News Pagina 13 di 57
Rivista.AI e’ il portale sull’intelligenza artificiale (AI) attualita’, ultime notizie (news) e aggiornamenti sempre gratuiti e in italiano

Si chiama Augmented Intelligence , l’asta composta esclusivamente da opere d’arte create con l’Intelligenza Artificiale annunciata da Christie’s e che si terrà al Rockefeller Center di Christie’s dal 20 febbraio al 5 marzo 2025. Le offerte includono più di 20 lotti di artisti pionieri che lavorano all’intersezione tra arte e tecnologia, tra cui Refik Anadol , Harold Cohen , Pindar Van Arman , Holly Herndon & Mat Dryhurst , Alexander Reben, Claire Silver e altri. L’iniziativa, certamente innovativa, non è però piaciuta a tutti.

OpenAI ha recentemente annunciato un significativo aggiornamento del suo “Model Spec“, un documento che definisce le linee guida su come i modelli di intelligenza artificiale dovrebbero comportarsi. L’espansione del documento da circa 10 a 63 pagine riflette l’impegno dell’azienda nel promuovere una maggiore personalizzazione, trasparenza e libertà intellettuale nell’interazione con i modelli AI.
Il nuovo Model Spec enfatizza tre principi fondamentali:
Personalizzazione: Consentire agli utenti di adattare il comportamento del modello alle proprie esigenze e preferenze, garantendo risposte più pertinenti e utili.
Trasparenza: Fornire chiarezza su come i modelli prendono decisioni e generano risposte, aumentando la fiducia degli utenti nell’utilizzo dell’IA.
Libertà Intellettuale: Permettere agli utenti di esplorare e dibattere idee senza restrizioni arbitrarie, promuovendo un ambiente di discussione aperto e informato.

OpenAI sta per lanciare ChatGPT-4.5, noto internamente come “Orion”, segnando un passo significativo nell’evoluzione dei modelli linguistici avanzati. Secondo Sam Altman, CEO di OpenAI, questo sarà l’ultimo modello a non utilizzare il processo di “chain-of-thought”, una metodologia che facilita risposte più chiare ma che spesso non riesce in compiti complessi come quelli in fisica e matematica.

Inspirandosi alla famosa frase di Jobs (“It just works”), Altman ha twittato: “Vogliamo che l’intelligenza artificiale ‘lavori e basta’ per voi; ci rendiamo conto di quanto siano diventati complicati il nostro modello e la nostra offerta di prodotti”.
Attualmente, OpenAI propone una gamma di modelli diversificati: GPT come modello creativo, “o” per il ragionamento, “Dall-e” per la generazione di immagini, “Sora” per la creazione di video e “GPT-Vision” per la comprensione visiva, una strategia un po confusa.. quindi il GPT-5 sarà una specie di hub AI in grado di fare tutto ciò che i suoi vari modelli fanno ora.
La strategia di OpenAI mira a semplificare le sue offerte di prodotti, attualmente percepite come complesse, per creare un’esperienza utente più intuitiva. Invece di rilasciare il modello “o3” come entità indipendente, la tecnologia di “o3” sarà integrata in GPT-5, unificando così le serie o e GPT per migliorare l’utilità generale attraverso vari compiti.
GPT-5 offrirà diversi livelli di intelligenza basati sugli abbonamenti degli utenti: gli utenti gratuiti avranno accesso illimitato alla chat a un livello standard, mentre gli abbonati Plus e Pro potranno beneficiare di livelli di intelligenza potenziati. La tempistica di rilascio per GPT-4.5 e GPT-5 è stimata nei prossimi mesi.
Per gli sviluppatori che utilizzano l’API di OpenAI, l’integrazione diventa più semplice: un unico sistema gestirà varie attività, eliminando la scelta tra modelli. Tuttavia, alcuni usi potrebbero risultare meno convenienti a causa di una maggiore potenza di calcolo e costi per token più alti. OpenAI non ha chiarito l’impatto sui costi delle API. Sam Altman resta fiducioso che ne varrà la pena, dichiarando a Berlino: “Non credo che sarò più intelligente di GPT-5.”
Anthropic, la startup di intelligenza artificiale fondata dai fratelli italo-americani Dario e Daniela Amodei, sta registrando una crescita impressionante nel settore dell’IA. Secondo un recente rapporto, l’azienda prevede che il proprio fatturato potrebbe raggiungere i 34,5 miliardi di dollari entro il 2027.
Attualmente, Anthropic offre l’accesso ai suoi modelli linguistici avanzati sia attraverso vendite dirette che tramite servizi cloud di terze parti, come Amazon Web Services. Questa strategia ha contribuito significativamente all’espansione dell’azienda nel mercato dell’IA generativa.

Negli ultimi anni, l’Unione Europea ha intrapreso un percorso ambizioso per regolamentare l’intelligenza artificiale (IA), mirando a bilanciare l’innovazione tecnologica con la tutela dei diritti dei cittadini. Questo viaggio normativo ha visto l’introduzione di proposte chiave come l’AI Act e la Direttiva sulla Responsabilità dell’IA (AILD).
L’AI Act, considerato il primo quadro giuridico orizzontale sull’IA, è stato proposto nell’aprile 2021 con l’obiettivo di affrontare i rischi associati all’IA e fornire requisiti chiari per sviluppatori, utilizzatori e utenti, modulati in base al livello di rischio delle applicazioni
Parallelamente, nel settembre 2022, la Commissione Europea ha presentato la proposta di Direttiva sulla Responsabilità dell’IA, mirata ad armonizzare le regole sulla responsabilità civile non contrattuale per i danni causati da sistemi IA.
Questa direttiva intende garantire che le persone danneggiate da sistemi IA ricevano lo stesso livello di protezione di coloro che subiscono danni da altre tecnologie, facilitando l’onere della prova per i richiedenti attraverso meccanismi come la divulgazione delle prove per i sistemi IA ad alto rischio e presunzioni confutabili

Con un movimento che segna un cambiamento significativo nel modo in cui le app di tracciamento della nutrizione e del fitness integrano l’intelligenza artificiale, MyFitnessPal ha completato l’acquisizione della startup di pianificazione pasti Intent. Questo sviluppo segna l’inizio di una nuova fase per l’app, che ora prevede di rivoluzionare il modo in cui gli utenti si avvicinano alla loro dieta e ai loro obiettivi di fitness, grazie all’integrazione dell’IA. Con questa nuova tecnologia, MyFitnessPal mira a diventare una piattaforma ancora più completa, capace non solo di monitorare l’attività fisica e la nutrizione, ma anche di offrire piani alimentari personalizzati che si adattino alle necessità degli utenti.

Immagina di accedere a Google o YouTube e subito il sistema ti osserva con l’occhio clinico di un esperto in dati e privacy, pronto a giudicare la tua età, non sulla base di un semplice clic, ma analizzando attentamente il tuo comportamento online. A quanto pare, Google ha deciso di farsi un’idea di quanti anni hai senza chiedere la tua opinione, usando un sofisticato algoritmo di machine learning per stimare l’età degli utenti.
Questa “innovazione” è stata svelata dal CEO di YouTube, Neal Mohan, in una lettera annuale rilasciata martedì scorso, dove l’azienda ha annunciato che testerà questa tecnologia negli Stati Uniti. La missione dichiarata è chiara: garantire “esperienze più adatte all’età” su tutte le piattaforme Google. Ma, veramente, quanto possiamo fidarci di una macchina che decide quanto vecchio siamo sulla base dei video che guardiamo o dei siti che visitiamo?

In un mondo dove l’intelligenza artificiale sembra essere l’ultima frontiera della tecnologia, Scarlett Johansson decide di scendere in campo con un appello che potrebbe sembrare più un urlo disperato di chi si è stancato di vedere la propria faccia essere stravolta da qualche scherzo algoritmico . Il video di cui parla, un delirio tecnologico in cui la sua immagine viene usata in un contesto decisamente poco… artistico (ce lo vediamo proprio, Scarlett, con una maglietta con il nome “Kanye” e un dito medio in bella mostra?), ha scatenato la sua reazione: “È spaventoso che il governo degli Stati Uniti sia paralizzato quando si tratta di approvare leggi che proteggano i cittadini dai pericoli imminenti dell’IA.”

Apple sta attivamente esplorando il campo della robotica, focalizzandosi sia su robot umanoidi che non umanoidi, con l’obiettivo di integrare queste tecnologie nel suo ecosistema di smart home. Secondo l’analista Ming-Chi Kuo di TF International Securities, l’azienda è attualmente nella fase iniziale di sviluppo, con i prodotti ancora in fase di prova di concetto (POC). Si prevede che la produzione di massa non inizi prima del 2028 o oltre.

Baidu, il gigante tecnologico cinese, ha annunciato l’intenzione di lanciare il suo prossimo modello di intelligenza artificiale di nuova generazione, Ernie 5, nella seconda metà del 2025. Questo modello avanzato presenterà capacità multimodali, consentendo l’elaborazione e la conversione tra testo, video, immagini e audio. Questa mossa strategica arriva in un momento di crescente concorrenza nel mercato cinese dell’IA, soprattutto da parte di startup come DeepSeek, che ha attirato l’attenzione con un modello economico che rivaleggia con GPT di OpenAI.

ByteDance, in collaborazione con l’Università di Hong Kong, ha presentato Goku e Goku+, una nuova famiglia di modelli di intelligenza artificiale progettati per superare il divario tra la generazione di immagini e quella di video. Grazie a un’architettura unificata e tecniche avanzate di elaborazione visiva, questi modelli stanno ridefinendo gli standard del settore, ottenendo prestazioni da record nei principali benchmark visivi e aprendo nuove possibilità per la creazione di contenuti commerciali iperrealistici.

Il 12 febbraio 2025, il giudice distrettuale degli Stati Uniti per il Delaware, Stephanos Bibas, ha emesso una sentenza parziale a favore di Thomson Reuters nella causa per violazione del copyright contro Ross Intelligence, una startup di intelligenza artificiale nel settore legale. Questa decisione rappresenta una pietra miliare nella giurisprudenza relativa all’uso di dati protetti da copyright nell’addestramento di strumenti di intelligenza artificiale.

Nel mondo ad alta velocità della Formula 1, dove ogni dettaglio conta e le rivalità sono accese, una nuova battaglia si sta combattendo, ma questa volta fuori dai circuiti. Protagonisti non sono solo i piloti e le scuderie, ma colossi della tecnologia come Oracle e Perplexity. La posta in gioco? La supremazia nel mondo dell’intelligenza artificiale e una partnership da 5 milioni di dollari con uno dei team più vincenti della storia recente: la Red Bull Racing.
Secondo fonti vicine alla vicenda e documenti esaminati da The Verge, Perplexity, startup emergente nel settore delle ricerche AI, era vicinissima a firmare un contratto di sponsorizzazione con Red Bull Racing. Tuttavia, l’accordo è stato bloccato dall’attuale sponsor principale del team, Oracle. La ragione di questo veto risiede in due fattori strategici: Oracle sta cercando di acquisire TikTok, piattaforma su cui anche Perplexity ha messo gli occhi, e sostiene finanziariamente Stargate, un progetto da 500 miliardi di dollari per la costruzione di data center per OpenAI, concorrente diretto di Perplexity.

L’avvento dell’intelligenza artificiale generativa ha rivoluzionato il modo in cui accediamo alle informazioni. Tuttavia, insieme alle sue straordinarie opportunità, sta emergendo una nuova e pericolosa minaccia: la distorsione. A differenza della disinformazione, che spesso è intenzionale, la distorsione si verifica quando un assistente AI raccoglie informazioni per rispondere a una domanda e fornisce una risposta inesatta, fuorviante o addirittura pericolosa. Questa sfida non può essere ignorata, poiché rischia di minare ulteriormente la fiducia del pubblico nelle informazioni verificate.

Recentemente, i giganti tecnologici Apple e Google hanno rimosso fino a 20 app dai loro store dopo che gli esperti di sicurezza di Kaspersky hanno scoperto che queste applicazioni contenevano malware. Questo malware, noto come SparkCat, è in grado di rubare frasi di recupero dei portafogli di criptovalute utilizzando tecniche avanzate come il riconoscimento ottico (OCR).
Dress-1-to-3 è una pipeline innovativa che consente la ricostruzione di abiti 3D separati, fisicamente plausibili e pronti per la simulazione, a partire da una singola immagine catturata in ambienti reali.

Eccoci di nuovo, ennesimo capitolo della saga “TikTok vs. America”. Questa volta, il governo USA ha deciso di dare a ByteDance un ultimatum di 53 giorni per fare i bagagli o inventarsi un trucco di magia che convinca Washington a lasciarla restare.
Nel frattempo, l’azienda cinese fa di tutto per evitare la cessione, mentre la Casa Bianca finge di essere sorpresa che una piattaforma con 170 milioni di utenti non voglia scomparire nel nulla.

Le AI stanno sviluppando valori propri: una nuova frontiera nell’etica dell’intelligenza artificiale
Un recente studio intitolato “Do LLMs have Consistent Values?” ha evidenziato che i modelli linguistici di grandi dimensioni (LLM) non si limitano a replicare dati, ma mostrano l’emergere di sistemi di valori propri, con “preferenze coerenti” che si rafforzano con l’aumento della scala del modello.
Questo fenomeno implica che LLM statunitensi, come quelli sviluppati da OpenAI, o cinesi, come DeepSeek o Qwen, indipendentemente dalla loro origine o dal fatto che siano open o closed source, tendono a convergere verso gli stessi valori, una convergenza che diventa più pronunciata all’aumentare delle dimensioni del modello.

Apple ha recentemente annunciato una partnership strategica con Alibaba per integrare funzionalità di intelligenza artificiale (IA) sugli iPhone destinati al mercato cinese. Questa collaborazione mira a rafforzare la posizione di Apple in Cina, un mercato cruciale dove l’azienda ha registrato un calo delle vendite negli ultimi trimestri.
In precedenza, Apple aveva esplorato collaborazioni con altre aziende tecnologiche cinesi, tra cui Baidu, Tencent, ByteDance e DeepSeek, per sviluppare soluzioni IA locali. Tuttavia, dopo valutazioni approfondite, la scelta è ricaduta su Alibaba, ritenuta più allineata agli standard e alle esigenze di Apple.

Se c’era ancora qualche illusione sull’impegno reale dei governi nell’affrontare i rischi dell’intelligenza artificiale, il Paris AI Action Summit l’ha spazzata via senza pietà.
Ma non nel senso sperato dagli organizzatori. Quello che doveva essere un vertice cruciale per la cooperazione internazionale si è trasformato in un’amara lezione su come gli interessi nazionali possano sabotare qualsiasi tentativo serio di governance globale.

Sono più di 60 le grandi aziende europee che si sono unite per lanciare un’iniziativa volta a semplificare la legislazione dell’Ue sull’Intelligenza Artificiale. Annunciata durante il summit di Parigi, la “Eu AI Champions Initiative” ha l’obiettivo di consentire all’Europa di poter giocare un ruolo all’interno della corsa globale all’AI, eliminando quegli ostacoli normativi che, secondo le imprese aderenti (e non solo), frenano l’innovazione e la competitività del vecchio continente.

Recentemente, Elon Musk ha espresso il suo sostegno per un audit della Federal Reserve, sottolineando la necessità di una maggiore trasparenza e responsabilità all’interno delle agenzie governative. In una serie di post sui social media, Musk ha dichiarato che tutte le agenzie governative dovrebbero essere trasparenti e responsabili nei confronti del popolo.
Parallelamente, il Dipartimento per l’Efficienza Governativa (DOGE), guidato da Musk, ha ottenuto l’accesso ai sistemi di pagamento del Tesoro degli Stati Uniti. Questo accesso ha sollevato preoccupazioni tra ex segretari del Tesoro e altri esperti riguardo ai potenziali rischi per la privacy, la sicurezza informatica e la stabilità finanziaria del paese. Cinque ex segretari del Tesoro hanno espresso preoccupazioni per l’approccio dell’amministrazione Trump ai sistemi di pagamento chiave, citando rischi per la privacy, la sicurezza informatica e la sicurezza nazionale. Hanno criticato l’amministrazione per aver sostituito funzionari pubblici non partigiani con nominati politici, in particolare nel “dipartimento per l’efficienza governativa” (DOGE) guidato da Elon Musk.

L’Unione Europea ha annunciato una risposta ferma e proporzionata ai recenti dazi imposti dagli Stati Uniti su acciaio e alluminio. La Presidente della Commissione Europea, Ursula von der Leyen, ha espresso profondo rammarico per questa decisione, sottolineando l’intenzione di proteggere lavoratori, imprese e consumatori europei. Questi dazi, fissati al 25% e senza eccezioni, sono considerati ingiustificati e dannosi per il sistema commerciale globale.

JD Vance al Summit sull’Intelligenza Artificiale di Parigi: un monito contro l’iper-regolamentazione
Al recente Summit sull’Intelligenza Artificiale tenutosi a Parigi, il Vicepresidente degli Stati Uniti, JD Vance, ha espresso preoccupazioni riguardo all’eccessiva regolamentazione nel settore dell’IA. Durante il suo intervento, Vance ha sottolineato che normative troppo restrittive potrebbero soffocare l’innovazione e rallentare i progressi tecnologici, mettendo a rischio la posizione di leadership degli Stati Uniti in questo campo.

Google ha annunciato l’integrazione della sua avanzata applicazione di note basata su AI, NotebookLM Plus, all’interno del piano One AI Premium, senza alcun costo aggiuntivo per gli abbonati. Questa mossa segna un’evoluzione significativa nell’utilizzo dell’intelligenza artificiale per la gestione delle informazioni e la ricerca personalizzata, ampliando i limiti di utilizzo e introducendo funzionalità premium che migliorano l’esperienza dell’utente.
Lanciato nel 2023, NotebookLM si è subito distinto come un assistente basato su AI capace di aiutare gli utenti nella ricerca di argomenti specifici e nell’organizzazione delle note. Nel tempo, Google ha arricchito la piattaforma con strumenti interattivi avanzati, tra cui la possibilità di analizzare più a fondo i contenuti di YouTube e persino trasformare la ricerca in un podcast AI con due host virtuali con cui è possibile interagire.

L’Unione Europea ha annunciato un ambizioso piano di investimento da 200 miliardi di euro nell’ambito dell’Intelligenza Artificiale, con l’obiettivo di rafforzare la propria posizione nel panorama tecnologico globale e competere con Stati Uniti e Cina.

Al Summit Mondiale sull’Intelligenza Artificiale in corso a Parigi, Emmanuel Macron ha rilanciato la Francia come hub strategico per l’IA, puntando tutto sull’energia nucleare. Rispondendo alla politica energetica di Donald Trump, incentrata sullo sfruttamento degli idrocarburi, il presidente francese ha lanciato uno slogan destinato a fare eco: “Just plug, baby, plug”, un chiaro contraltare al celebre “Drill, baby, drill” del presidente Usa.

Nel mondo dell’Intelligenza Artificiale, il valore di un modello non si misura più solo in parametri di accuratezza e performance, ma anche in termini di efficienza energetica. Con l’introduzione dell’AI Energy Score, Salesforce e i suoi partner stabiliscono un nuovo standard per la misurazione e la trasparenza del consumo energetico dei modelli AI. Per i leader aziendali, questo rappresenta un’opportunità strategica per ridurre i costi operativi, ottimizzare le infrastrutture IT e rispondere alle sempre più stringenti richieste di sostenibilità.

Nel settore aerospaziale, la velocità e l’efficienza nello sviluppo di nuove tecnologie sono fattori chiave per la competitività. La collaborazione tra Altair e Meridian Flight Systems segna un passo avanti nell’integrazione dell’Intelligenza Artificiale e della simulazione avanzata per accelerare l’innovazione nel settore degli UAV (Unmanned Aerial Vehicle), i velivoli senza pilota.

Lo vediamo dalle pubblicità on line e in televisione. L’argomento della sicurezza è presente in ogni istante della nostra vita. Vediamo come l’AI al servizio della sicurezza riesce a creare nuovi strumenti per tenerci sempre meglio al sicuro rispetto al passato.
E siamo solo all’inizio!

Al recente AI Action Summit tenutosi a Parigi, Sundar Pichai, CEO di Alphabet e Google, ha dichiarato che il costo dell’intelligenza artificiale (IA) dell’azienda è diminuito del 97%. Questa riduzione significativa rappresenta una svolta epocale nel settore tecnologico, con implicazioni profonde per l’industria e la società nel suo complesso.
Pichai ha sottolineato che l’IA è destinata a essere “il più grande cambiamento delle nostre vite”, paragonabile a scoperte storiche come il fuoco o l’elettricità. Ha evidenziato come questa tecnologia stia accelerando l’ingegno umano, aprendo nuove frontiere nell’innovazione e nella creatività.

Un nostro lettore di Modena ci ha segnalato YOSH. Ha fatto un lavoro incredibile ci dice Alessandro. Corporation dategli un’occhiata!!
Hi, I’m Yosh and I’m making YouTube videos about a Trackmania AI that I’ve been developing for a few years now. I’ve been playing this game since I was a kid, and I’ve always been curious to know whether it’s possible to determine the optimal way to finish a track using computer science. Since I learned about machine-learning a few years ago, I’ve tried to apply this approach to Trackmania, and have documented my progress in the form of Youtube videos. Between research, programming and editing, these videos take a long time to produce. Any support will help me to spend more time on that in the future 🙂
Nel mondo dei giochi racing, Trackmania è una delle esperienze più affascinanti per gli appassionati di velocità, acrobazie e precisione. La sua natura altamente competitiva e le mappe complesse offrono infinite sfide. Immagina di voler aggiungere un nuovo livello di difficoltà e di innovazione: sviluppare un’Intelligenza Artificiale (AI) per Trackmania, capace di competere o addirittura di superare i giocatori umani. Non solo un’impresa tecnologica, ma anche una possibilità di creare contenuti originali su YouTube, mostrando ogni fase del processo e coinvolgendo una community globale.

Google, OpenAI, Roblox e Discord hanno appena annunciato la creazione di un’organizzazione no-profit per migliorare la sicurezza online dei minori. Un’alleanza dal nome rassicurante, Robust Open Online Safety Tools (ROOST), che suona tanto come una nobile crociata per proteggere i bambini, ma che in realtà potrebbe avere obiettivi ben più pragmatici. Con il fiato delle autorità regolatorie sul collo, le aziende stanno cercando di anticipare possibili interventi legislativi, proponendo una soluzione “open-source” che, guarda caso, mette loro al centro del discorso sulla sicurezza digitale.
L’iniziativa nasce con la promessa di rendere più accessibili le tecnologie per la protezione online, in particolare gli strumenti di rilevamento dei materiali di abuso sessuale su minori (CSAM). Il progetto sarà guidato da un vecchio lupo della Silicon Valley, Eric Schmidt, ex CEO di Google, che sottolinea la necessità di “accelerare l’innovazione nella sicurezza online dei minori”. Un’affermazione ineccepibile, ma che lascia aperte diverse domande: chi controllerà questi strumenti? Chi deciderà cosa è accettabile e cosa no?

L’ascesa dell’intelligenza artificiale generativa ha consacrato Nvidia come il gigante incontrastato dei semiconduttori, grazie ai suoi avanzati GPU, diventati il cuore pulsante dei modelli IA più potenti. La domanda per l’H100, il chip di punta di Nvidia, ha superato di gran lunga l’offerta, facendo schizzare il valore dell’azienda sopra il trilione di dollari per la prima volta nella sua storia. Questa dipendenza dalle soluzioni Nvidia ha però spinto i principali player del settore Microsoft, Meta, OpenAI, Amazon e Google a sviluppare i propri chip personalizzati, nel tentativo di ridurre i costi e guadagnare autonomia strategica.
Il mercato dei semiconduttori è ormai il vero campo di battaglia per il predominio nell’intelligenza artificiale. Nvidia, AMD e Intel si sfidano nel rilascio di processori sempre più potenti ed efficienti, mentre i colossi tecnologici cercano di emanciparsi dalle loro soluzioni. Secondo un recente report di Reuters, OpenAI è pronta a lanciare il proprio chip AI già nel 2025. La società guidata da Sam Altman starebbe affinando il design del suo processore, con l’obiettivo di inviarlo a TSMC per la produzione nei prossimi mesi.

Anthropic ha introdotto un nuovo strumento di analisi, l’Economic Index, progettato per monitorare l’impatto dell’intelligenza artificiale sul mercato del lavoro nel tempo. Attraverso l’analisi delle richieste inviate al chatbot Claude, il report iniziale fornisce dati chiave su come l’AI viene utilizzata dai lavoratori e su quali settori ne stanno beneficiando maggiormente. I risultati evidenziano che il 37,5% delle richieste riguarda il settore “computer e matematica”, segno di un’adozione particolarmente forte da parte di professionisti dell’informatica, programmatori e analisti di dati.

Se Alfred Hitchcock fosse ancora tra noi, probabilmente si divertirebbe a ricamare una sceneggiatura su AI.com, il dominio più enigmatico e ambito del mondo dell’Intelligenza Artificiale. Per anni, questa URL è stata un lasciapassare digitale per le tecnologie AI più avanzate: prima puntava su ChatGPT di OpenAI, poi su xAI di Elon Musk. Ma oggi? Oggi AI.com sussurra un nome nuovo e inatteso: DeepSeek.

L’industria dell’intelligenza artificiale sta assistendo a un cambiamento radicale con la decisione di Figure AI di interrompere la collaborazione con OpenAI. La startup americana, fondata con l’obiettivo di sviluppare robot umanoidi dotati di AI avanzata, ha dichiarato di aver raggiunto una svolta tecnologica tale da rendere inutile l’integrazione con i modelli linguistici di OpenAI.

Brett Adcock, CEO di Figure AI, ha annunciato la decisione in un post sui social media, spiegando come il progresso dell’azienda abbia reso obsoleta la necessità di dipendere da fornitori esterni. L’accordo con OpenAI era stato siglato pochi mesi fa, in concomitanza con un round di finanziamento da 675 milioni di dollari che aveva portato la valutazione di Figure AI a 2,6 miliardi di dollari, con l’obiettivo di lanciare il robot Figure 02. Ma ora, con un’intelligenza robotica sviluppata interamente in-house, Figure AI ha scelto di staccarsi da OpenAI, sottolineando che i modelli linguistici sono diventati una commodity e rappresentano solo una piccola parte dell’ecosistema dell’intelligenza artificiale.