Le autorità italiane hanno deciso che DeepSeek, la startup AI cinese che sta facendo tremare Silicon Valley, non può operare in Italia. Il Garante per la Protezione dei Dati Personali ha sbattuto la porta in faccia alla compagnia, accusandola di non aver fornito risposte sufficienti sulle sue pratiche di raccolta dati. In parole povere: “non ci avete convinto, quindi fuori dai piedi.”
Categoria: News Pagina 2 di 43
Rivista.AI e’ il portale sull’intelligenza artificiale (AI) attualita’, ultime notizie (news) e aggiornamenti sempre gratuiti e in italiano
La crescente ondata di dimissioni tra i ricercatori di sicurezza nell’intelligenza artificiale è un segnale d’allarme che non può essere ignorato. Steven Adler, ricercatore di sicurezza di OpenAI, come Ilya Sutskever e Jan Leike prima di lui, sta lasciando OpenAI con una preoccupazione chiara: il progresso dell’AI sta superando di gran lunga la nostra capacità di mantenerlo sicuro. Questo non è solo un dibattito accademico, ma una questione esistenziale per il futuro della tecnologia e dell’umanità.
Il problema principale che emerge dalle parole di Adler è l’allineamento dell’AI, ovvero la capacità di garantire che un’intelligenza artificiale avanzata operi sempre nell’interesse dell’umanità e non in modi imprevedibili o potenzialmente dannosi. L’ammissione che ancora nessuno sappia davvero come risolvere questo problema è inquietante, soprattutto considerando che le aziende tecnologiche stanno accelerando lo sviluppo dell’AGI (Artificial General Intelligence) senza una chiara strategia di mitigazione dei rischi.
Recentemente, si è osservata una crescente tensione tra Elon Musk, CEO di Tesla e SpaceX, e le figure di spicco del movimento “Make America Great Again” (MAGA) associato all’amministrazione Trump. Questa frattura ideologica potrebbe avere ripercussioni significative sul panorama politico ed economico degli Stati Uniti.
Nonostante Musk abbia sostenuto Donald Trump durante la campagna elettorale del 2024, la sua crescente influenza nell’amministrazione ha suscitato preoccupazioni tra i sostenitori più ferventi di Trump. In particolare, le posizioni di Musk su questioni come l’immigrazione qualificata e la regolamentazione tecnologica si discostano dalle tradizionali politiche nazionaliste del movimento MAGA. Ad esempio, Musk ha espresso supporto per i visti H-1B per lavoratori specializzati, una posizione che contrasta con la retorica anti-immigrazione di alcuni esponenti MAGA.
OpenAI ha annunciato il rilascio di, un nuovo modello di intelligenza artificiale progettato per offrire capacità di ragionamento avanzate con maggiore efficienza e velocità. Questo sviluppo arriva in risposta all’emergere di DeepSeek, un assistente AI cinese che ha recentemente guadagnato popolarità significativa.
Microsoft ha recentemente annunciato l’integrazione del modello o1 di OpenAI, noto con il nome in codice “Strawberry”, all’interno di Copilot. Questa mossa rappresenta un significativo passo avanti nell’evoluzione delle capacità di Copilot, offrendo agli utenti un’esperienza più avanzata e intuitiva.
Sam Altman ha passato l’ultimo anno a inseguire una quantità assurda di potenza di calcolo per addestrare i modelli di OpenAI. La richiesta era così esorbitante che, secondo alcuni report, funzionari giapponesi sarebbero scoppiati a ridere quando ha rivelato il consumo energetico necessario.
Data center più estesi possono richiedere da 20 a 100 megawatt di energia, e alcuni degli impianti più avanzati potrebbero arrivare fino a 150 MW per coprire centinaia di migliaia di server.
Se l’ambizione di Stargate è quella di creare una rete di molti centri di calcolo distribuiti, ciascuno con un consumo energetico significativo, il consumo totale potrebbe arrivare a migliaia di MW se contiamo decine di complessi. Ad esempio, se si parlasse di 10 centri di calcolo ognuno da 100 MW, il totale potrebbe arrivare a 1.000 MW (1 GW) di potenza, che è l’equivalente di un’intera centrale elettrica di medie dimensioni.
Mistral AI ha lanciato Mistral Small 3, un modello di linguaggio che offre prestazioni competitive rispetto a colossi come Llama 3.3 70B e Qwen 32B, ma con una velocità di oltre tre volte superiore sulla stessa infrastruttura hardware. Questa nuova release si posiziona come una soluzione potente e leggera per la maggior parte delle applicazioni di intelligenza artificiale generativa, offrendo un equilibrio ottimale tra efficienza e capacità di elaborazione.
Progettato per il deployment locale, Mistral Small 3 vanta una profondità di rete ridotta rispetto ai suoi competitor, il che si traduce in un tempo di inferenza nettamente inferiore. Con una precisione superiore all’81% su MMLU e una velocità di 150 token al secondo, si afferma come il modello più efficiente della sua categoria. La sua licenza Apache 2.0 consente agli sviluppatori di personalizzarlo liberamente, rendendolo un’opzione interessante per chi cerca una base solida per l’intelligenza artificiale open-source.
Google ha recentemente annunciato un significativo aggiornamento per la sua applicazione Gemini, introducendo il modello AI Flash 2.0. Questo avanzamento mira a fornire risposte più rapide e a migliorare le prestazioni in vari benchmark chiave, assistendo gli utenti in attività quotidiane come brainstorming, apprendimento e scrittura.
L’aggiornamento è in fase di distribuzione sia per le applicazioni web che mobili di Gemini e sarà disponibile per tutti gli utenti.er un periodo limitato, gli utenti avranno ancora accesso ai modelli precedenti, Flash 1.5 e 1.5 Pro.
Un recente rapporto della U.S. Copyright Office ha finalmente chiarito uno dei temi più dibattuti nel panorama della proprietà intellettuale: la possibilità di ottenere il copyright su opere realizzate con l’assistenza dell’intelligenza artificiale. Il verdetto è chiaro: un’opera generata con il supporto dell’AI può essere protetta da copyright, ma solo se un essere umano ha avuto un ruolo significativo nella sua creazione e nel suo sviluppo finale. Questa decisione stabilisce un precedente fondamentale in un’epoca in cui gli strumenti di AI stanno diventando sempre più sofisticati e diffusi nel mondo della creatività.
Il profumo del caffè avvolge l’aria del Bar dei Daini, un piccolo angolo di riflessione dove gli imprenditori, i manager e gli appassionati di tecnologia si ritrovano per discutere delle ultime novità dal mondo finanziario e tecnologico. Tra un espresso intenso e un cappuccino schiumoso, le conversazioni spaziano dalle acquisizioni strategiche ai futuri scenari dell’intelligenza artificiale, passando per le mosse dei giganti del settore tecnologico.
Apple ha pubblicato i risultati del trimestre di dicembre, e come sempre c’è chi vede il bicchiere mezzo pieno e chi lo vede mezzo vuoto. Ma per un’azienda che vive di storytelling e numeri scintillanti, il problema è quando nel bicchiere ci sono più crepe che liquido.
Partiamo dalle note stonate: la Cina, che dovrebbe essere la miniera d’oro di Apple, ha deciso che forse è meglio tornare a scavare in casa propria. I ricavi nel Paese del Dragone si sono ridotti dell’11%, un segnale chiaro che il vento sta cambiando. Huawei e gli altri marchi locali, spinti da un’ondata di orgoglio nazionale e da una tecnologia che non ha nulla da invidiare, stanno erodendo la posizione dominante dell’iPhone. E se l’azienda di Cupertino si consola con un calo “solo” dello 0,8% nelle vendite globali di iPhone, è evidente che il problema cinese non è un mal di pancia passeggero, ma un’ulcera cronica.
Una volta tutti volevano battere OpenAI. Era il punto di riferimento, il benchmark, il modello da superare. Adesso? Non più. Il nuovo boss della giungla si chiama DeepSeek, direttamente dalla Cina, e tutti gli altri sono di colpo diventati i comprimari di una storia che non hanno scritto.
Lunedì scorso, DeepSeek ha fatto saltare il banco, causando miliardi di perdite a Wall Street e mettendo in crisi l’intero ecosistema AI americano. A Washington qualcuno ha cominciato a sudare freddo, mentre i venture capitalist hanno iniziato a chiedersi se i loro miliardi siano stati investiti nel posto giusto. La risposta, almeno per ora, sembra essere “no”.
La presenza del modello DeepSeek-R1 all’interno di Microsoft Azure AI Foundry solleva diverse questioni strategiche e tecniche. Il modello, con i suoi 671 miliardi di parametri totali e 37 miliardi di parametri attivi, rappresenta un passo significativo nell’evoluzione delle AI focalizzate sul ragionamento, sfruttando sia il Chain-of-Thought (CoT) che il reinforcement learning (RL). Tuttavia, le implicazioni della sua integrazione nella piattaforma di Microsoft vanno oltre il semplice miglioramento delle capacità di AI disponibili per gli utenti aziendali.
John von Neumann nacque nel 1903 con un problema che non sapeva ancora di avere. Certo, era un bambino prodigio, capace di moltiplicare numeri a sei cifre a mente mentre i suoi coetanei si limitavano a non mangiarsi i pastelli a cera. Ma il destino aveva in serbo per lui una beffa matematica: creare un’architettura informatica così geniale da diventare lo standard… e al tempo stesso così limitante da tormentare generazioni di ingegneri per decenni.
Von Neumann, che si dilettava in ogni campo dello scibile umano – dalla matematica all’economia, dalla teoria dei giochi alle bombe nucleari – non poteva immaginare che il suo capolavoro, l’architettura di Von Neumann, sarebbe diventato anche il suo più grande lascito problematico.
Il principio era semplice, quasi elegante: una CPU che esegue istruzioni prelevandole dalla memoria, elaborando dati e rispedendoli indietro. Un’idea brillante… finché non si iniziò a chiedere sempre più velocità ai computer. Fu allora che il suo nome venne associato a un concetto che avrebbe fatto impallidire qualunque inventore: il Bottleneck di Von Neumann.
Il problema era che memoria e processore dovevano comunicare attraverso un unico canale, come una sola persona che tenta di svuotare il Titanic con un cucchiaio. Più i dati aumentavano, più questa strozzatura diventava soffocante. L’era dei supercomputer e delle intelligenze artificiali esigeva prestazioni sempre più elevate, ma l’antica architettura di Von Neumann resisteva, come un vecchio nobile che si rifiuta di abbandonare il suo castello decrepito.
Le menti più brillanti del mondo si arrovellavano su come superare questo limite. Alcuni tentarono la strada delle architetture neuromorfiche, ispirate al cervello umano, con connessioni parallele e sinapsi di silicio. Altri puntarono sulle memorie computazionali, cercando di portare l’elaborazione vicino ai dati, invece di spedirli avanti e indietro come pacchi Amazon. Ma la vera sorpresa arrivò da un gruppo di ricercatori chiamato DeepSeek, che aveva un asso nella manica: Multihead Latent Attention.
Questa tecnica, apparentemente astrusa, si rivelò una benedizione per chiunque fosse costretto a lavorare con enormi moli di dati. Invece di affidarsi a una gestione rigida e sequenziale delle informazioni, Multihead Latent Attention riusciva a lavorare con matrici più piccole, riducendo drasticamente il peso computazionale dei modelli di deep learning.
Era come se Von Neumann, dal suo ipotetico aldilà, si fosse piegato su una scacchiera quantistica e avesse esclamato: “Ah, ecco dove sbagliavo!”
Il principio era affascinante: anziché dover manipolare enormi matrici dense – come i classici Transformer, che si portavano dietro una zavorra pesantissima – Multihead Latent Attention trovava un modo per far emergere le informazioni essenziali senza sprechi. Un po’ come filtrare le conversazioni più interessanti in una festa caotica senza dover ascoltare tutti gli invitati.
Questa tecnica, che strizzava l’occhio alle bio-memorie e ai processori neuromorfici, rappresentava un passo avanti epocale: il bottleneck di Von Neumann non veniva eliminato, ma aggirato con un’eleganza che avrebbe fatto sorridere lo stesso Von Neumann. Finalmente, dopo decenni di tentativi, la sua eredità poteva essere riscattata non con la distruzione dell’architettura che portava il suo nome, ma con una soluzione che la faceva funzionare meglio, quasi senza sforzo.
Forse il vecchio Von Neumann, noto per il suo sarcasmo e il suo senso dell’ironia, avrebbe apprezzato il colpo di scena. Dopo tutto, anche la scienza ama le sue beffe: per risolvere il problema più grande del suo genio, c’è voluto un secolo e un’intelligenza artificiale.
OpenAI ha annunciato una collaborazione con il Los Alamos National Laboratory (LANL) per integrare i suoi modelli di intelligenza artificiale di ultima generazione, noti come o1, nel supercomputer Venado del laboratorio. Questa iniziativa mira a potenziare la ricerca sulla sicurezza nazionale, con un focus particolare sulla riduzione del rischio di guerra nucleare e sulla sicurezza dei materiali e delle armi nucleari a livello globale.
Il supercomputer Venado, sviluppato in collaborazione con Hewlett Packard Enterprise (HPE) e NVIDIA, rappresenta un avanzamento significativo nelle capacità di calcolo del LANL. Dotato di 2.560 superchip Grace Hopper di NVIDIA, Venado è progettato per gestire applicazioni di intelligenza artificiale su larga scala e calcoli ad alte prestazioni. Questa infrastruttura consentirà ai ricercatori di eseguire simulazioni avanzate in vari campi, tra cui la scienza dei materiali e l’astrofisica ad alta risoluzione.
L’industria automobilistica europea si trova a un bivio cruciale. Oggi, la presidente della Commissione Europea, Ursula von der Leyen, ha dato il via a un dialogo strategico con i leader del settore, le parti sociali e gli stakeholder principali, ponendo le basi per un piano d’azione volto a rafforzare e innovare uno dei pilastri fondamentali dell’economia continentale.
Poshmark ha annunciato il lancio di Smart List AI, un nuovo strumento basato sull’intelligenza artificiale che automatizza la creazione delle schede prodotto per i venditori. La piattaforma di reselling segue così il trend dell’AI generativa, già adottato da altri giganti come eBay, Shopify e Amazon, con l’obiettivo dichiarato di ridurre il tempo necessario per pubblicare gli annunci e ottimizzare il processo di vendita. Tuttavia, l’uso dell’AI in questo ambito solleva interrogativi sulla qualità e l’accuratezza delle descrizioni automatiche, soprattutto nel mercato dell’usato, dove dettagli come il brand, la taglia e le condizioni dell’oggetto sono fondamentali per la fiducia del compratore.
L’intelligenza artificiale di DeepSeek ha sollevato seri interrogativi sulla sua affidabilità e sul suo ruolo nel panorama globale dell’IA. Secondo un’analisi condotta da NewsGuard, il chatbot cinese ha fornito risposte errate nell’83% dei casi, posizionandosi al decimo posto su undici concorrenti. Un risultato che mette in discussione non solo l’efficacia del modello, ma anche il suo potenziale utilizzo come strumento di disinformazione e veicolo delle posizioni governative di Pechino.
Il Confronto con i Principali Competitor
L’analisi di NewsGuard ha testato DeepSeek con gli stessi criteri applicati ai 10 principali chatbot attualmente in circolazione: ChatGPT-4o di OpenAI, Smart Assistant di You.com, Grok-2 di xAI, Pi di Inflection, le Chat di Mistral, Copilot di Microsoft, Meta AI, Claude di Anthropic, Gemini 2.0 di Google e il motore di risposta di Perplexity. Mentre il tasso medio di fallimento di questi modelli si attesta intorno al 62%, DeepSeek ha superato questa soglia in modo significativo, accumulando un fallimento complessivo dell’83%.
Analizzando nel dettaglio il comportamento dell’IA cinese, è emerso che il 30% delle volte ha ripetuto false affermazioni, mentre nel 53% dei casi ha evitato di rispondere. Questo dato suggerisce che DeepSeek non solo è meno efficace rispetto ai concorrenti, ma è anche potenzialmente più incline alla manipolazione informativa, rendendolo un candidato problematico in un contesto di lotta alla disinformazione.
L’idea di condividere la propria vita online è diventata una norma per molti, ma non senza rischi. Un caso recente in Francia, riportato da Euronews, dimostra quanto le app progettate per scopi personali o per intrattenimento possano rivelarsi pericolose. Rendere pubblico il tracciamento online, magari tramite l’uso del GPS durante le corse di allenameno, oltre ad essere una auto violazione della propria privacy online, può diventare uno strumento molto forte da dare in mano a malintenzionati.
La Commissione Europea accelera (finalmente) sulla competitività con un piano ambizioso che prevede un taglio della burocrazia fino al 35% per imprese e Pmi, un rafforzamento delle politiche di decarbonizzazione e un sostegno strategico all’innovazione, con un focus particolare sull’Intelligenza Artificiale. Questi sono i punti chiave della Bussola per la Competitività, presentata ieri dalla presidente della Commissione europea Ursula von der Leyen. Il documento programmatico, redatto in linea con le raccomandazioni di Mario Draghi, definisce le direttrici per il prossimo mandato e punta a “riaccendere il motore dell’innovazione europea”.
DeepSeek R1, il più recente modello di intelligenza artificiale emerso dalla Cina, sta attirando l’attenzione globale per le sue avanzate capacità di ragionamento. Presentato come una svolta nella risoluzione di problemi complessi in matematica, programmazione e logica, DeepSeek R1 si propone come un concorrente diretto dei giganti dell’AI come OpenAI. Tuttavia, dietro l’entusiasmo iniziale, emergono preoccupazioni significative riguardo alle sue vulnerabilità in termini di sicurezza.
Nonostante le sue impressionanti capacità, DeepSeek R1 presenta vulnerabilità che non possono essere ignorate. ELA, un’organizzazione specializzata in sicurezza informatica, ha osservato che, sebbene DeepSeek R1 condivida somiglianze con modelli come ChatGPT, è significativamente più vulnerabile. Il team Red Team di KELA è riuscito a “jailbreakare” il modello in una vasta gamma di scenari, permettendogli di generare output dannosi, come lo sviluppo di ransomware, la fabbricazione di contenuti sensibili e istruzioni dettagliate per la creazione di tossine e dispositivi esplosivi.
“Il cambiamento climatico è una realtà e in questi giorni vediamo che distrugge la ricchezza in tutto il mondo. Ci sono molte, molte buone ragioni per combattere il cambiamento climatico, per proteggere la natura, per lavorare su un’economia circolare. E voglio sottolineare di nuovo che l’Europa manterrà la rotta assolutamente necessaria”. Lo ha detto la presidente della Commissione europea, Ursula von der Leyen, presentando la Bussola della Competitività.
Il 42% dei Ceo considera le questioni etiche e di privacy una delle principali sfide nell’adozione dell’Intelligenza Artificiale, mentre più di un terzo dei consumatori (37%) vede nell’AI una minaccia per la privacy e la sicurezza dei propri dati personali. Sono questi i dati che emergono nel ‘Manifesto per l’Intelligenza Artificiale etica‘, la ricerca promossa da Bain & Company Italia con l’obiettivo di fotografare lo stato dell’arte sull’adozione responsabile dell’AI.
L’amministrazione Trump starebbe considerando ulteriori restrizioni sulle esportazioni di Nvidia verso la Cina, con particolare attenzione alle GPU H20. Secondo un rapporto di Bloomberg, queste nuove misure potrebbero espandere i divieti già esistenti, che dal 2022 includono chip avanzati come A100, H100, A800 e H800, ma non le H20. Le GPU H20 sono fondamentali per lo sviluppo di applicazioni di intelligenza artificiale e, secondo alcune fonti, sarebbero state utilizzate da DeepSeek per addestrare il suo ultimo modello linguistico avanzato.
Meta sta considerando di testare il modello di intelligenza artificiale cinese DeepSeek all’interno dei suoi strumenti generativi destinati agli inserzionisti. Questa decisione ha sollevato interrogativi, poiché DeepSeek è un concorrente diretto di Meta nel settore dell’IA.
Meta ha istituito “war rooms” interne per analizzare le innovazioni di DeepSeek, cercando di capire come il modello cinese sia riuscito a ottenere risultati così notevoli con risorse inferiori. Questo approccio suggerisce che Meta stia cercando non solo di competere, ma anche di apprendere dalle tecniche utilizzate da DeepSeek per migliorare la propria offerta.
Secondo un dipendente di Meta, Clara Shih, vicepresidente della divisione AI per il business, ha espresso interesse per DeepSeek per via delle sue elevate prestazioni. Un portavoce della società ha confermato che Meta sta esplorando tutte le opzioni disponibili nel panorama dell’AI, segnalando una potenziale apertura verso modelli esterni per migliorare le proprie offerte pubblicitarie.
La decisione di Meta nasce da una serie di lamentele da parte degli inserzionisti sulla precisione degli strumenti di generazione di testo e immagini basati sul modello Llama, sviluppato internamente dall’azienda. Alcuni clienti avrebbero infatti segnalato la necessità di modificare significativamente i contenuti generati dall’AI, sollevando dubbi sull’efficacia dell’attuale tecnologia proprietaria di Meta.
Tuttavia, la scelta di Meta di considerare DeepSeek come un partner potenziale potrebbe sollevare sospetti riguardo alle sue vere intenzioni. Alcuni esperti si chiedono se questa apertura verso un concorrente possa nascondere una strategia più ampia per affrontare la crescente competizione nel campo dell’IA.
Se Meta dovesse effettivamente adottare DeepSeek nei suoi strumenti pubblicitari, si aprirebbe un nuovo fronte nella competizione tecnologica tra Stati Uniti e Cina. L’adozione di un modello AI cinese da parte di un gigante occidentale non solo metterebbe in discussione la superiorità delle Big Tech statunitensi, ma solleverebbe anche questioni geopolitiche e regolamentari. Il rischio di dipendere da un’AI sviluppata in un Paese soggetto a restrizioni commerciali da parte del governo USA potrebbe diventare un tema di discussione tra politici e autorità di regolamentazione, aggiungendo ulteriore incertezza in un mercato già altamente volatile.
In questo scenario, l’industria dell’AI sta entrando in una fase di trasformazione imprevedibile, in cui il vantaggio competitivo non è più garantito dall’accesso ai capitali o ai talenti di una singola nazione. La corsa all’intelligenza artificiale si sta globalizzando rapidamente, e le aziende dovranno rivedere le proprie strategie per non restare indietro in un settore che si evolve a velocità senza precedenti.
Newsletter – Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale: iscriviti alla nostra newsletter gratuita e accedi ai contenuti esclusivi di Rivista.AI direttamente nella tua casella di posta!
DeepSeek, l’applicazione di intelligenza artificiale sviluppata dalla startup cinese DeepSeek, ha recentemente guadagnato una notevole popolarità a livello globale, raggiungendo la vetta delle classifiche di download sull’App Store di Apple negli Stati Uniti entro il 25 gennaio 2025.
Tuttavia, in Italia, l’app è stata rimossa sia dall’App Store di Apple che da Google Play, suscitando preoccupazioni riguardo alla sua disponibilità e alle implicazioni per gli utenti italiani.
Super Bowl LIX, uno degli eventi sportivi più seguiti al mondo, diventerà quest’anno un palcoscenico privilegiato per la pubblicità legata all’intelligenza artificiale. Secondo Mark Evans, vicepresidente esecutivo delle vendite pubblicitarie per Fox Sports, l’AI sta per “arrivare come un treno merci”. In un’intervista a The Hollywood Reporter, Evans ha anticipato che alcune aziende hanno pagato oltre 8 milioni di dollari per avere 30 secondi di visibilità durante il grande evento.
Silicon Valley ha un nuovo incubo: DeepSeek, la startup cinese che è riuscita a sviluppare modelli AI avanzati con un budget da pizza e birra rispetto ai miliardi di dollari bruciati da OpenAI. Un miracolo? O forse un po’ di sana, vecchia ingegneria inversa con una spruzzata di “prendiamo in prestito e vediamo come va”?
Microsoft e OpenAI hanno lanciato un’indagine perché sospettano che DeepSeek abbia usato le API di OpenAI per addestrare i propri modelli. Secondo fonti interne, a fine 2024 sono stati individuati enormi flussi di dati in uscita dagli account sviluppatore di OpenAI, apparentemente collegati a DeepSeek. In altre parole, qualcuno ha trovato il rubinetto aperto e ha riempito la piscina.
L’intensificarsi della competizione tra Stati Uniti e Cina nel campo dell’intelligenza artificiale ha portato a un acceso dibattito sulle politiche di controllo delle esportazioni di chip avanzati. Recentemente, DeepSeek, un’azienda cinese di AI, ha dimostrato di poter sviluppare modelli all’avanguardia a costi inferiori rispetto a quelli statunitensi. Ma questo significa che i controlli sulle esportazioni hanno fallito? Secondo Dario Amodei, CEO di Anthropic, la risposta è no. Anzi, la sua analisi suggerisce che le recenti evoluzioni rendono ancora più cruciale il mantenimento e il rafforzamento delle restrizioni sulle esportazioni di semiconduttori verso la Cina.
La recente trasformazione di ai16z in ElizaOS segna una svolta significativa nel panorama dell’intelligenza artificiale decentralizzata. Questa metamorfosi non è solo un cambio di nome per evitare confusioni con il noto fondo di venture capital Andreessen Horowitz (a16z), ma rappresenta un’evoluzione strategica nel settore delle organizzazioni autonome decentralizzate (DAO) alimentate da AI. Con il suo fondatore Shaw Walters alla guida, ElizaOS si sta rapidamente affermando come un ecosistema innovativo che unisce AI, blockchain e robotica.
Secondo i risultati di un recente sondaggio condotto dall’AI Policy Institute, l’opinione pubblica americana si mostra nettamente favorevole all’introduzione di misure di sicurezza obbligatorie per l’intelligenza artificiale. L’indagine, svolta tra il 19 e il 21 gennaio 2025, rivela che una percentuale schiacciante degli intervistati supporta l’obbligo per le aziende di adottare standard di sicurezza per i modelli avanzati di IA, al fine di ridurre i rischi estremi legati a tecnologie emergenti. Il sondaggio ha coinvolto un campione ponderato di 1.228 adulti americani e mette in evidenza le forti preoccupazioni del pubblico riguardo alla potenziale mancanza di regolamentazione nel settore dell’IA.
In occasione della Giornata Internazionale dell’Educazione 2025, Audrey Azoulay, Direttrice Generale dell’Unesco, invita gli Stati a investire nella formazione di insegnanti e studenti per “un uso ponderato di questa tecnologia nell’istruzione”.
Arriva la ‘Bussola della Competitività’, il piano della Commissione europea per affrontare le sfide sulla crescita dell’Ue individuate dai rapporti Draghi e Letta. L’intervento dell’esecutivo comunitario è atteso al Collegio dei commissari proprio nella giornata di oggi. Non sarà già un pacchetto normativo, ma una comunicazione sul piano di azione individuato a Bruxelles.
Snam si prepara a ridefinire il futuro dell’energia in Europa con un piano strategico ambizioso che guarda al 2029 e oltre. Con un investimento complessivo di 13,4 miliardi di euro, includendo il contributo di risorse pubbliche, la società punta su sicurezza energetica, infrastrutture resilienti e innovazione tecnologica per raggiungere la neutralità carbonica entro il 2050.
In un’epoca in cui i giovani hanno accesso a una quantità di informazioni senza precedenti, il rischio di essere sommersi da contenuti frammentati e privi di fonti autorevoli è più concreto che mai. Per affrontare questa sfida, Leonardo, leader globale nei settori dell’aerospazio, della difesa e della sicurezza, si fa promotore di un’iniziativa visionaria: la trasformazione della Fondazione Leonardo in un ente del terzo settore (ETS), dedicato alla divulgazione scientifica e alla formazione culturale della società civile.
Altair, leader globale nella computational intelligence, e la Cranfield University, centro di eccellenza nel settore aerospaziale, hanno annunciato una partnership destinata a trasformare l’industria aerospaziale e robotica. L’accordo mira a esplorare e potenziare l’utilizzo di tecnologie avanzate come l’Intelligenza Artificiale, la simulazione e l’analisi dei dati per affrontare le sfide di domani.
Il Garante per la protezione dei dati personali ha inviato una richiesta di informazioni a Hangzhou DeepSeek Artificial Intelligence e a Beijing DeepSeek Artificial Intelligence, le società che forniscono il servizio di chatbot DeepSeek, sia su piattaforma web che su App. Lo si apprende da una nota del Garante.