Alibaba Group Holding Ltd ha recentemente registrato una notevole crescita delle entrate, attribuita principalmente ai progressi nell’intelligenza artificiale (AI) e nel commercio elettronico. Nel trimestre conclusosi a dicembre 2024, l’azienda ha riportato un aumento dell’8% delle entrate, raggiungendo 280,2 miliardi di yuan (38,38 miliardi di dollari), con un utile netto di 48,9 miliardi di yuan (6,71 miliardi di dollari). Questi risultati hanno portato a un incremento del 12% del valore delle azioni di Alibaba.
Autore: Dina Pagina 1 di 26
Direttore senior IT noto per migliorare le prestazioni, contrastare sfide complesse e guidare il successo e la crescita aziendale attraverso leadership tecnologica, implementazione digitale, soluzioni innovative ed eccellenza operativa.
Con oltre 20 anni di esperienza nella Ricerca & Sviluppo e nella gestione di progetti di crescita, vanto una solida storia di successo nella progettazione ed esecuzione di strategie di trasformazione basate su dati e piani di cambiamento culturale.

Nel dibattito sempre più acceso sull’intelligenza artificiale, una domanda divide filosofi, ingegneri e visionari del futuro: una superintelligenza può esistere senza sviluppare anche un’altrettanto superba intelligenza emotiva?
Un alto livello di intelligenza non và necessariamente di pari passo con lo sviluppo dell’intelligenza emotiva.
Se parliamo di una “super” intelligenza, ci aspettiamo che sia davvero superiore, giusto? Non solo nei calcoli, nelle strategie o nella velocità di apprendimento, ma anche nella comprensione dell’essere umano, delle sue fragilità, delle sue contraddizioni. Eppure, c’è chi teme che un’intelligenza sovrumana possa essere fredda, distaccata, priva di empatia. Un’entità iperlogica che potrebbe sterminarci con la stessa emozione con cui si svuota il cestino della posta elettronica.
Ma questa paura ha senso? O è solo un riflesso delle nostre stesse paure interiori?

Sakana AI, una startup giapponese con sede a Tokyo, ha annunciato lo sviluppo di un sistema innovativo in grado di accelerare il processo di sviluppo e implementazione dell’intelligenza artificiale fino a 100 volte. Il cuore di questa rivoluzione è AI CUDA Engineer, un sistema avanzato che automatizza la creazione del codice utilizzato per il controllo delle GPU di Nvidia, riducendo drasticamente i tempi di addestramento e inferenza dei modelli di AI.
L’idea alla base di AI CUDA Engineer si fonda su un concetto chiave: utilizzare l’AI per sviluppare AI più potenti e performanti. La startup ha delineato la propria visione nel blog ufficiale, sottolineando come la vera innovazione consista nell’automazione dello sviluppo dell’intelligenza artificiale stessa. Il sistema si basa su un framework agentico che sfrutta i modelli linguistici di ultima generazione (LLM) per tradurre automaticamente il codice PyTorch standard in kernel CUDA altamente ottimizzati.

STMicroelectronics ha annunciato oggi il lancio di un nuovo chip fotonico sviluppato in collaborazione con Amazon Web Services, destinato al mercato dei data center per l’intelligenza artificiale (AI). Questo chip innovativo utilizza la luce anziché l’elettricità per migliorare la velocità e ridurre il consumo energetico nei ricetrasmettitori, componenti essenziali nei data center avanzati focalizzati sull’AI.
La partnership con AWS prevede l’implementazione di questa tecnologia nell’infrastruttura di Amazon, con la produzione prevista entro la fine dell’anno. Inoltre, STMicroelectronics sta collaborando con un importante fornitore di soluzioni ottiche per sviluppare le future generazioni di ricetrasmettitori, anche se il nome di questo partner non è stato divulgato.

Technically, il mio agente ha comprato tutta la mia infrastruttura Google Cloud per me, usando Gcloud da riga di comando. Siamo già lì, è vero. Ma la vera domanda è: quanto è veramente autonomo il tuo agente?
Ecco il punto. Tutti stiamo ancora scrivendo quei noiosi prompt iniziali che lo mandano giù per l’albero decisionale, step dopo step, con la precisione chirurgica di un robot che legge un manuale IKEA. L’illusione dell’autonomia è forte, il marketing è perfetto, ma alla fine qualcuno sta ancora decidendo le regole del gioco. E quel qualcuno non è un’intelligenza artificiale.

Nvidia non ha ancora spiegato ufficialmente perché abbia lanciato le sue GeForce RTX 5090 e 5080 con una disponibilità ridicola, driver instabili e, per non farsi mancare nulla, il solito problema dei connettori di alimentazione che si sciolgono. Ma una cosa sembra averla capita: il mercato delle GPU è ormai una giungla di scalper, rivenditori senza scrupoli e piattaforme di aste che speculano senza vergogna. E così, ecco l’ennesimo tentativo di riprendere il controllo con il programma “Verified Priority Access”, una sorta di biglietto dorato per pochi eletti.

Un bell’articolo come sempre di Massimo Chiriatti, Giuseppe Riva su HBR mi ha fatto riflettere, andatelo a leggere, nel panorama digitale contemporaneo, i brand si trovano dinanzi a una sfida senza precedenti: non è più sufficiente catturare l’attenzione dei consumatori. Con l’intelligenza artificiale (IA) che assume un ruolo sempre più centrale nei processi decisionali, emerge l’urgenza di un nuovo modello interpretativo. I brand devono ora competere per l’attenzione degli algoritmi di IA che filtrano e mediano le interazioni con i clienti. Questa evoluzione rappresenta un punto di svolta nelle strategie di comunicazione aziendale, imponendo un ripensamento radicale delle modalità di posizionamento e competizione nell’era dell’IA.
Ti piaceva pensare di avere ancora il controllo sulle tue scelte? Che carino. Ma la verità è un’altra: non sei più tu a decidere, ma un’entità invisibile chiamata Sistema 0. Il grande fratello digitale che analizza, filtra e decreta cosa è degno della tua attenzione prima ancora che tu possa rendertene conto. Il marketing? Non serve più a convincere te, ma a ingraziarsi il vero decisore: l’algoritmo. Se il tuo brand non sa parlare il suo linguaggio, auguri non esisti più.

Hoan Ton-That, co-fondatore e CEO di Clearview AI, ha recentemente rassegnato le dimissioni dalla guida dell’azienda. Questa decisione arriva in un momento cruciale per la società, nota per il suo controverso software di riconoscimento facciale che ha suscitato dibattiti globali sulla privacy e l’etica nell’uso della tecnologia.

L’intelligenza artificiale è ovunque. È nella tua auto, nel tuo smartphone, probabilmente nel tuo frigorifero, e forse pure nel tostapane. In questo marasma tecnologico, riuscire a far emergere un prodotto AI è come cercare di urlare in un concerto rock. Ma c’è qualcuno che ce l’ha fatta, almeno per un po’: Rabbit, una startup che ha venduto 40.000 unità del suo gadget AI standalone, il Rabbit R1, in appena otto giorni dal lancio al CES 2024. Non male per un cosetto arancione che sembra uscito da un crossover tra un Tamagotchi e un vecchio Nokia.

Elon Musk ha finalmente trovato il modo di trasformare Twitter, pardon, Xin una macchina da soldi? Bloomberg ha lanciato la bomba: X sarebbe in trattative per raccogliere nuovi capitali a una valutazione di almeno 44 miliardi di dollari. Sì, esattamente lo stesso prezzo che Musk ha pagato per il social nel suo glorioso (e caotico) takeover. Il cerchio si chiude? O è solo un altro giro sulle montagne russe della finanza muschiana?

Nel contesto economico attuale, l’Europa è chiamata ad affrontare sfide enormi, tra cui il crescente debito pubblico che, in particolare per l’Italia, ha superato i 3.000 miliardi di euro. Questo rapporto debito/PIL, che ha raggiunto il 136,8%, rappresenta sia un segno tangibile delle difficoltà finanziarie del paese, sia una spinta per cercare soluzioni innovative che possano risollevare l’economia e, allo stesso tempo, risolvere problematiche strutturali. Una via che sta emergendo come fondamentale è l’investimento strategico in tecnologie innovative, soprattutto nel settore IT, un campo in cui l’Italia e l’Europa hanno il potenziale per eccellere, stimolando la crescita economica, l’occupazione e riducendo al contempo la dipendenza da attori esterni, come gli Stati Uniti.

La rapida ascesa dell’intelligenza artificiale generativa (GenAI) ha suscitato un entusiasmo crescente, ma le parole del Vicepresidente per la Supervisione della Federal Reserve, Michael Barr, sollevano importanti interrogativi sui suoi effetti reali sull’economia e sul settore finanziario. In un intervento al Council on Foreign Relations di New York, Barr ha delineato due scenari ipotetici che esplorano come l’adozione di questa tecnologia potrebbe evolversi, con implicazioni fondamentali per i mercati finanziari e per le strategie delle imprese.
Nel primo scenario, Barr immagina una progressiva integrazione della GenAI, dove l’intelligenza artificiale non porta a cambiamenti radicali, ma si limita a migliorare e potenziare le capacità umane esistenti. Anche se tale evoluzione potrebbe tradursi in guadagni di produttività diffusi, la vera sfida potrebbe risiedere nelle aspettative non soddisfatte. Il rischio è che le aspettative di valore generato dalla GenAI possano essere eccessivamente ottimistiche, conducendo a una correzione dei mercati azionari per le imprese che hanno investito pesantemente in questa tecnologia. Barr paragona questa situazione a quanto accaduto durante la bolla delle dot-com alla fine degli anni ’90, un periodo caratterizzato da una rapida espansione del mercato seguita da una serie di fallimenti, sovra-capacità di capitale e un clima di investimento aziendale più cauto.

Microsoft ha annunciato oggi un significativo progresso nel campo del calcolo quantistico con l’introduzione di Majorana 1, il primo chip quantistico al mondo basato su una nuova architettura denominata Topological Core. Questo sviluppo promette di rendere i computer quantistici capaci di risolvere problemi industriali su larga scala in pochi anni, anziché decenni.
Il cuore di questa innovazione è il topoconductor, un nuovo tipo di materiale in grado di osservare e controllare le particelle di Majorana per produrre qubit più affidabili e scalabili, i mattoni fondamentali dei computer quantistici. Analogamente a come l’invenzione dei semiconduttori ha reso possibili gli odierni dispositivi elettronici, i topoconductor e il nuovo chip che essi abilitano offrono una via per sviluppare sistemi quantistici scalabili fino a un milione di qubit, capaci di affrontare i problemi industriali e sociali più complessi.

Ricordate quando i videogiochi erano fatti da esseri umani con idee geniali, mani sudate sui controller e notti insonni davanti ai monitor? Bene, Microsoft vuole cambiare tutto questo con Muse, il suo nuovo modello di intelligenza artificiale “generativa” pensato per creare parti di giochi. Secondo Redmond, Muse potrebbe addirittura preservare e migliorare i classici del passato, rendendoli compatibili con l’hardware moderno. L’ennesimo passo verso un futuro in cui l’IA si impossessa anche della creatività?

Per noi Europei questa notizia ha dell’irreale. Nel fine settimana, migliaia di dipendenti in prova del Dipartimento di Salute e Servizi Umani (HHS) hanno ricevuto notifiche di licenziamento, in linea con i tagli di massa imposti dal Dipartimento per l’Efficienza Governativa (DOGE) guidato da Elon Musk. Questi licenziamenti sono iniziati venerdì, subito dopo la conferma di Robert F. Kennedy Jr. come nuovo Segretario della Salute da parte del Senato. Kennedy aveva precedentemente promesso di eliminare
migliaia di posizioni all’interno dell’agenzia, che comprende enti come i Centers for Disease Control and Prevention (CDC), la Food and Drug Administration (FDA) e i National Institutes of Health (NIH). Tutti e tre sono stati colpiti dai licenziamenti.
Tra i tagli, circa 20 persone dell’ufficio della FDA dedicato ai dispositivi di neurologia e medicina fisica sono state licenziate; alcune di queste erano direttamente coinvolte nella regolamentazione della società di interfacce cervello-computer di Musk, Neuralink. Nel 2023, la FDA aveva negato la richiesta di Neuralink di condurre sperimentazioni cliniche umane, citando rischi per la sicurezza. Le sperimentazioni sono poi iniziate all’inizio del 2024, e attualmente tre pazienti utilizzano l’impianto nell’ambito di queste prove.
L’Ufficio di Gestione del Personale ha fissato una scadenza per i capi delle agenzie: entro le 20:00 (ora orientale) di martedì devono essere emesse le notifiche di licenziamento, causando preoccupazione tra i dipendenti federali per possibili ulteriori licenziamenti imminenti.

Hewlett Packard (HP) ha recentemente annunciato l’acquisizione di risorse chiave di Humane, la startup dietro l’innovativo ma sfortunato dispositivo AI Pin, per una cifra di 116 milioni di dollari. Questa mossa strategica include l’integrazione della piattaforma Cosmos AI di Humane, progettata per alimentare l’AI Pin, oltre a oltre 300 brevetti e al team di dipendenti dell’azienda. L’accordo, previsto per la chiusura entro la fine di febbraio 2025, segna un’importante espansione delle capacità di intelligenza artificiale di HP.

Il dibattito sull’energia nucleare si è spesso concentrato sui rischi e sulle sfide legate alla sicurezza e allo smaltimento delle scorie. Tuttavia, una nuova generazione di tecnologie sta trasformando questo paradigma, rendendo il nucleare non solo più sicuro e sostenibile, ma anche estremamente versatile. Tra le innovazioni più promettenti, troviamo lo sviluppo di microreattori e l’utilizzo delle scorie nucleari come combustibile, con aziende come OKLO e Nano Nuclear in prima linea in questa rivoluzione.

Una delle grandi ironie dell’era dell’intelligenza artificiale è la capacità delle aziende di investire miliardi nella ricerca sulla superintelligenza, salvo poi dichiarare con serafica ingenuità che no, non stravolgerà il loro modello di business. Non ci sarà alcun licenziamento di massa, nessuna rivoluzione nel lavoro umano. Solo un piccolo aiuto, un supporto, un maggiordomo digitale che, giura il CEO di turno, non ha intenzione di prendere il tuo posto… almeno fino alla prossima trimestrale.

L’impatto dell’intelligenza artificiale (AI) sul consumo energetico globale è al centro del report “Electricity 2025” dell’International Energy Agency (IEA), che offre un’analisi dettagliata su come la crescente domanda di AI stia trasformando i data center, con un focus particolare sulla Cina. La rapida adozione dell’AI e l’espansione delle applicazioni avanzate stanno aumentando esponenzialmente il consumo di elettricità nei data center, un fenomeno destinato a cambiare radicalmente il panorama energetico globale nei prossimi anni.
Nel panorama in rapida evoluzione dell’intelligenza artificiale, OpenAI ha recentemente svelato una strategia innovativa per ottimizzare le interazioni con i suoi modelli di ragionamento avanzati della serie o. Contrariamente all’approccio tradizionale che prevedeva istruzioni dettagliate e complesse, l’azienda ha scoperto che l’uso di prompt diretti e concisi migliora significativamente le risposte dell’IA.

Dopo sei anni di silenzio glaciale e due di repressione normativa che hanno fatto tremare i polsi ai colossi del tech cinese, Xi Jinping ha deciso di organizzare un simposio a Pechino. Non un incontro qualsiasi, ma un’elegante rimpatriata con gli stessi magnati che, fino a poco tempo fa, erano nel mirino delle autorità. Un evento da segnare sul calendario, soprattutto per chi pensava che la “mano invisibile” del mercato in Cina fosse stata amputata in nome del controllo statale.
Lo scenario era di quelli solenni, quasi teatrali: Jack Ma, il fondatore di Alibaba Group che fino a ieri sembrava scomparso in una dimensione parallela, è riapparso come per magia. Seduto in prima fila, al fianco di Pony Ma di Tencent e di Liang Wenfeng di DeepSeek, ha ascoltato in silenzio il “discorso importante” di Xi. La Xinhua News Agency, fedele alla sua vocazione narrativa criptica, ha evitato dettagli su quel discorso, lasciando spazio all’immaginazione: un elogio velato del capitalismo con caratteristiche cinesi o un monito paternalistico a non dimenticare chi tiene davvero il timone?
Eccoci di nuovo, con Elon Musk che fa saltare il banco con un’altra delle sue trovate da showman dell’era tech. Questa volta tocca a Grok-3, l’ultima creatura di xAI, un modello di linguaggio che Musk definisce “scary smart”. Se stai pensando che sia l’ennesimo tentativo di Musk di dominare anche l’intelligenza artificiale, beh, hai perfettamente ragione. La presentazione è stata una celebrazione dell’elefantiasi tecnologica: 200.000 GPU, un supercomputer chiamato “Colossus” – nome azzeccato quanto modesto – e una promessa di potenza di calcolo senza precedenti.
Colossus non è solo un supercomputer, ma un monolite di 200.000 GPU Nvidia, il più grande cluster di addestramento AI del mondo, costruito in soli 122 giorni. Per rendere le cose ancora più teatrali, Musk ha sottolineato come la sfida maggiore non sia stata sviluppare Grok-3, ma assemblare questo mostro informatico. A sentirlo parlare, sembrerebbe quasi che il codice si sia scritto da solo per paura di finire schiacciato sotto tutto quel silicio.

Nel panorama tecnologico globale, le mosse strategiche delle principali aziende delineano il futuro dell’innovazione. ByteDance, la società madre di TikTok, ha recentemente compiuto un passo significativo in questa direzione assumendo Yonghui Wu Google Fellow, un veterano con 17 anni di esperienza in Google, per guidare la ricerca e lo sviluppo nell’ambito dell’intelligenza artificiale (IA).
Yonghui Wu ha iniziato la sua carriera in Google nel settembre 2008 come ingegnere specializzato nel miglioramento dell’algoritmo di ranking del motore di ricerca. Nel gennaio 2015, è entrato a far parte del team di Google Brain, focalizzandosi sull’apprendimento profondo e le sue applicazioni. Le sue aree di ricerca includono il recupero di informazioni, il machine learning, la traduzione automatica e l’elaborazione del linguaggio naturale. Tra i suoi contributi più rilevanti, Wu ha co-autore di pubblicazioni chiave come “Google’s Neural Machine Translation System: Bridging the Gap between Human and Machine Translation” e “Conformer: Convolution-augmented Transformer for Speech Recognition”.
La decisione di ByteDance di integrare Wu nel proprio team non è solo una mossa per acquisire talento, ma rappresenta una dichiarazione d’intenti nell’arena dell’IA. Con Wu che riporta direttamente al CEO Liang Rubo, ByteDance dimostra la volontà di rafforzare la propria posizione nel settore tecnologico globale, puntando su competenze di alto livello per guidare l’innovazione e lo sviluppo di prodotti all’avanguardia.
Questa assunzione si inserisce in un contesto più ampio di investimenti strategici da parte di ByteDance nell’IA generativa. Negli ultimi due anni, l’azienda ha intensificato gli sforzi per reclutare esperti di primo piano e ha effettuato significativi investimenti in hardware avanzato, diventando uno dei principali clienti di Nvidia in Cina. Queste mosse sottolineano l’impegno di ByteDance nel consolidare la propria leadership nel campo dell’IA e nel competere efficacemente sia a livello nazionale che internazionale.
L’arrivo di Wu potrebbe accelerare lo sviluppo di modelli multimodali avanzati, simili alla famiglia di modelli Gemini di Google, che integrano diverse forme di dati per migliorare le capacità di comprensione e generazione dell’IA. Con la sua vasta esperienza, Wu è posizionato in modo ideale per guidare ByteDance attraverso le sfide e le opportunità che caratterizzano il panorama in rapida evoluzione dell’intelligenza artificiale.

In un mondo sempre più dominato dall’intelligenza artificiale, arriva una ricerca che potrebbe far crollare qualche certezza. Un gruppo di neurologi israeliani e britannici ha deciso di sottoporre alcuni dei più avanzati modelli di linguaggio artificiale – ChatGPT 4 e 4o di OpenAI, Claude 3.5 di Anthropic e Gemini 1.0 e 1.5 di Alphabet – al test cognitivo Montreal Cognitive Assessment (MoCA), lo stesso utilizzato per diagnosticare il decadimento cognitivo lieve negli esseri umani. I risultati? Ecco l’amara verità: anche le macchine invecchiano e, a quanto pare, lo fanno pure male.
ChatGPT 4o si è piazzato al primo posto con un punteggio di 26 su 30, appena sufficiente per non essere considerato “cognitivamente compromesso”. Seguono ChatGPT 4 e Claude con 25 punti. Ma è con Gemini 1.0 che la situazione si fa drammatica: un punteggio di 16 su 30, un risultato che nei pazienti umani potrebbe indicare uno stato di decadimento cognitivo avanzato. In altre parole, Gemini 1.0 si comporta come un anziano paziente smemorato e confuso.

Richard Stallman non ha bisogno di presentazioni, ma di un aggiornamento software forse sì. Classe 1953, programmatore, informatico e attivista statunitense, è noto per essere uno dei principali esponenti del movimento del software libero. La sua carriera iniziò al laboratorio di intelligenza artificiale del MIT, dove sviluppò l’editor di testi Emacs nel 1975. Poi, nel settembre 1983, lanciò il progetto GNU con l’obiettivo di creare un sistema operativo completamente libero da copyright, e da allora ha insistito ossessivamente sul fatto che Linux a meno che non si parli esclusivamente del kernel – debba essere chiamato GNU/Linux. Una crociata quasi religiosa, che ancora oggi lo porta a rimarcare questa differenza con una passione degna di miglior causa.

Il lancio di DeepSeek-R1 ha scosso temporaneamente il mercato tecnologico, con i creatori che si vantavano di aver sviluppato un modello di ragionamento all’avanguardia a una frazione del costo rispetto ai concorrenti, richiedendo meno potenza di calcolo per l’addestramento e l’esecuzione. Insomma, una rivoluzione che promette di cambiare tutto. O almeno, questo è ciò che vogliono farci credere.
Proprio questa settimana, Qualcomm ha pubblicato un white paper in cui si legge che l’ascesa di DeepSeek rappresenta un possibile punto di svolta per lo sviluppo dell’intelligenza artificiale. Un documento che sembra più una trovata di marketing che un’analisi tecnica, ma tant’è. Secondo Qualcomm, stiamo assistendo a un’ondata di innovazione che punta su modelli linguistici e multimodali più piccoli, più “intelligenti” e, soprattutto, più economici da produrre. E tutto questo aprirà le porte a nuove applicazioni commerciali e all’inferenza direttamente sui dispositivi. Certo, perché chi non vorrebbe un’intelligenza artificiale super-potente e compatta nel proprio frigorifero?

Il Frugal AI Challenge, organizzato in collaborazione con l’AI Action Summit, HuggingFace, Data for Good France e il Ministero della Transizione Ecologica francese, ha promosso lo sviluppo di modelli di intelligenza artificiale energeticamente efficienti per affrontare le sfide climatiche più urgenti. Durante il mese di gennaio 2025, accademici e professionisti del settore si sono sfidati per creare algoritmi che non solo offrissero alte prestazioni, ma che fossero anche sostenibili dal punto di vista energetico, ribaltando la narrativa tradizionale delle competizioni di Machine Learning, spesso focalizzate esclusivamente sulle prestazioni.


La conferenza di Giorgio Parisi: Conferenza istituzionale – “Le radici fisiche della moderna intelligenza artificiale”, presso l’ Accademia dei Lincei, ci ha guidato attraverso un affascinante viaggio nella storia dell’intelligenza artificiale, svelandoci le radici fisiche e biologiche che ne hanno permesso lo sviluppo.
Dalle scoperte neuroscientifiche fondamentali ai modelli matematici e fisici, ogni passo di questo percorso ha contribuito a plasmare l’IA che conosciamo oggi. Comprendere queste radici è essenziale per affrontare le sfide e le opportunità che l’IA ci presenta nel futuro, consentendoci di sviluppare tecnologie sempre più intelligenti, efficienti e al servizio dell’umanità.

Joshua Kushner, fondatore di Thrive Capital, ha recentemente condiviso con lo staff di OpenAI le sue riflessioni sulle sfide e le opportunità legate all’uscita dall’azienda per intraprendere una nuova startup. Kushner, noto per il suo investimento significativo in OpenAI, ha sottolineato l’importanza di valutare attentamente le implicazioni di una tale decisione, considerando sia i potenziali benefici che i rischi associati.
In un contesto in cui OpenAI sta attraversando una fase di trasformazione significativa, passando da un’organizzazione senza scopo di lucro a una entità a scopo di lucro, le parole di Kushner assumono particolare rilevanza. Questa transizione ha suscitato dibattiti intensi, con figure come Elon Musk che hanno espresso preoccupazioni riguardo alle implicazioni etiche e strategiche di tale cambiamento.

Italia Leader dell’Identità Digitale in Europa: Il Ruolo di FBK e il Successo di APTITUDE e WE BUILD
L’Italia si afferma come leader nell’identità digitale in Europa grazie al trionfo dei consorzi APTITUDE e WE BUILD, vincitori della nuova call for proposals della Commissione Europea sui portafogli digitali. Questo successo non è solo un riconoscimento dell’eccellenza tecnologica italiana, ma anche del ruolo strategico svolto dal Dipartimento per la trasformazione digitale, che ha contribuito attivamente alla candidatura, influenzando le linee guida per il futuro dell’identità digitale a livello europeo.
Questa iniziativa rappresenta l’evoluzione naturale del percorso iniziato nel 2022 con i Large Scale Pilot (LSP), che hanno avviato sperimentazioni nei settori chiave come pagamenti digitali, documenti di viaggio, credenziali accademiche e previdenziali, eGovernment e gestione delle identità digitali. L’Italia ha avuto un ruolo centrale in questa fase, partecipando ai progetti NOBID e POTENTIAL attraverso il Dipartimento per la trasformazione digitale (DTD), che ha agito come Single Point of Contact (SPOC) per il Paese.

Notizie dagli USA.
La recente nomina di Scale AI come primo valutatore terzo autorizzato dall’Istituto per la Sicurezza dell’Intelligenza Artificiale degli Stati Uniti (AISI) rappresenta un passo significativo verso una maggiore sicurezza e affidabilità nello sviluppo dei modelli di intelligenza artificiale.
Questa collaborazione mira a sviluppare metodi avanzati per testare i modelli di frontiera dell’IA, includendo valutazioni congiunte tra l’AISI e il Safety, Evaluation, and Alignment Lab (SEAL) di Scale AI. Attraverso questi metodi, i costruttori di modelli di diverse dimensioni potranno accedere volontariamente a nuove forme di test affidabili, con la possibilità di condividere i risultati con una rete globale di istituti di sicurezza dell’IA.
Questa partnership non solo rafforza la posizione di Scale AI nel panorama dell’IA, ma suggerisce anche una visione ottimistica per il futuro dell’AISI. È improbabile che Scale AI avrebbe intrapreso questo accordo se ci fossero stati dubbi sulla stabilità o sulla continuazione dell’istituto, indipendentemente dalle dinamiche politiche attuali o future.

Negli ultimi due anni, la crescita esponenziale dell’intelligenza artificiale ha messo i colossi tecnologici di fronte a un dilemma di proporzioni titaniche: come soddisfare la vorace domanda di elettricità dei loro data center senza devastare ulteriormente il pianeta? La risposta, ovviamente, non si trova nelle energie rinnovabili tanto decantate nei loro rapporti di sostenibilità, ma in un’opzione molto più controversa: l’energia nucleare.
Amazon, sempre in prima linea quando si tratta di mettere le mani su soluzioni “innovative”, sembra aver trovato la sua scappatoia a circa 200 miglia a sud-est del suo quartier generale, su un terreno arido di Richland, Washington.

La scorsa settimana abbiamo parlato di nuovo di techiche di Prompting usando un esempio utile per una accademia della MODA, ora che conosci il funzionamento standard: fai una domanda e ottieni una risposta. Ma cosa succede se hai bisogno di qualcosa di più, come fare domande di follow-up prima di rispondere o passare da un compito all’altro in base alle tue esigenze? Ecco dove entrano in gioco i GPT Multi-Prompt.
Un flusso comune per un GPT è quello di raccogliere informazioni da te prima di eseguire un’azione. Supponiamo che tu voglia che scriva un’email: ti aspetteresti che chieda il destinatario, il tono e i punti chiave prima di generare l’email. Tuttavia, a volte i GPT si affrettano e fanno tutte le domande in una volta sola, rendendo l’esperienza macchinosa e innaturale. Finisci per essere sopraffatto da una lunga lista di domande invece di avere una conversazione fluida.

Nel panorama dell’intelligenza artificiale, spesso dominato da colossi con budget stratosferici, emerge una notizia che sa di beffa: un consorzio internazionale di ricercatori, riuniti sotto il nome di Open Thoughts, ha presentato OpenThinker-32B, un modello che non solo eguaglia, ma in alcuni casi supera, uno dei sistemi di IA più avanzati della Cina, DeepSeek.
Con un’accuratezza del 90,6% sul benchmark MATH500, OpenThinker-32B supera l’89,4% di DeepSeek. Nei compiti di problem-solving generale, ottiene un punteggio di 61,6 sul benchmark GPQA-Diamond, rispetto al 57,6 di DeepSeek. Tuttavia, va notato che DeepSeek mantiene un vantaggio nei benchmark AIME, che misurano la competenza matematica avanzata.

Nel panorama in rapida evoluzione dell’Intelligenza Artificiale, i Modelli Linguistici di Grandi Dimensioni (LLMs) stanno rivoluzionando il modo in cui interagiamo con la tecnologia, dalle chatbot ai sistemi di supporto decisionale. Tuttavia, l’utilizzo massiccio di dati sensibili durante l’addestramento e l’implementazione di questi modelli ha sollevato preoccupazioni significative riguardo alla privacy degli utenti. La capacità degli LLMs di elaborare ed estrarre informazioni da enormi volumi di dati comporta inevitabilmente rischi di esposizione di informazioni personali e sensibili, rendendo la privacy una priorità imprescindibile per chi sviluppa queste tecnologie.

Il governo italiano sta valutando una newco tra Enel, Ansaldo e Leonardo per garantire stabilità al sistema. Ma sarà sufficiente?
Le audizioni parlamentari sul nucleare in Italia hanno evidenziato un crescente interesse per gli Small Modular Reactor (Smr) come soluzione per garantire adeguatezza e flessibilità al sistema energetico nel medio-lungo termine. Secondo Edison, gli Smr potrebbero contribuire per l’11-22% al mix energetico nazionale entro il 2050, offrendo continuità produttiva e minori costi di rete rispetto alle rinnovabili.
Tuttavia, i costi restano un punto critico: il prezzo dell’energia prodotta potrebbe aggirarsi intorno ai 100 euro per Megawattora, con un costo capitale tra 3 e 5 milioni di euro per Megawatt, per un totale stimato tra 4,8 e 8 miliardi di euro per 1,6 Gigawatt attesi tra il 2035 e il 2040.
Studi ci dicono che entro il 2030 (source IFP), l’addestramento dei modelli di intelligenza artificiale di frontiera richiederà data center capaci di consumare cinque gigawatt di potenza, l’equivalente dell’energia necessaria per alimentare 10 città come Milano (0,6975). Questo scenario prospetta una domanda energetica senza precedenti, che pone interrogativi cruciali sull’infrastruttura e la sostenibilità.

Nel corso dell’ultimo decennio, la figura dell’eticista dell’intelligenza artificiale ha visto una crescita significativa nel mercato ICT. Nonostante ciò, sono pochi gli studi che si sono interessati a questo profilo professionale e che abbiano fornito una discussione normativa sulle sue competenze e abilità.
Who is an AI Ethicist? An empirical study of expertise, skills, and profiles to build a competency framework, disponibile su: Springer Nature Link.
L’articolo di Mariangela Zoe Cocchiaro, Jessica Morley, Claudio Novelli,
Enrico Panai, Alessio Tartaro & Luciano Floridi intende avviare questa discussione, analizzando l’importanza di definire con maggiore precisione il ruolo di questo professionista e le competenze richieste.
Gli autori sostengono che gli eticisti dell’intelligenza artificiale dovrebbero essere esperti e che esista un metodo utile per identificarli. Il focus dell’articolo è specificamente sulle competenze morali degli eticisti dell’intelligenza artificiale, prendendo spunto da parallelismi con l’esperienza degli eticisti in ambito sanitario e dalla letteratura bioetica.
Vengono esplorate le differenze tra gli eticisti nell’ambito sanitario e quelli nell’ambito dell’IA, derivando competenze e abilità sulla base dei ruoli che un eticista dell’IA dovrebbe ricoprire all’interno di un’organizzazione.