Al recente AI Action Summit tenutosi a Parigi, Sundar Pichai, CEO di Alphabet e Google, ha dichiarato che il costo dell’intelligenza artificiale (IA) dell’azienda è diminuito del 97%. Questa riduzione significativa rappresenta una svolta epocale nel settore tecnologico, con implicazioni profonde per l’industria e la società nel suo complesso.
Pichai ha sottolineato che l’IA è destinata a essere “il più grande cambiamento delle nostre vite”, paragonabile a scoperte storiche come il fuoco o l’elettricità. Ha evidenziato come questa tecnologia stia accelerando l’ingegno umano, aprendo nuove frontiere nell’innovazione e nella creatività.
Un nostro lettore di Modena ci ha segnalato YOSH. Ha fatto un lavoro incredibile ci dice Alessandro. Corporation dategli un’occhiata!!
Hi, I’m Yosh and I’m making YouTube videos about a Trackmania AI that I’ve been developing for a few years now. I’ve been playing this game since I was a kid, and I’ve always been curious to know whether it’s possible to determine the optimal way to finish a track using computer science. Since I learned about machine-learning a few years ago, I’ve tried to apply this approach to Trackmania, and have documented my progress in the form of Youtube videos. Between research, programming and editing, these videos take a long time to produce. Any support will help me to spend more time on that in the future 🙂
Nel mondo dei giochi racing, Trackmania è una delle esperienze più affascinanti per gli appassionati di velocità, acrobazie e precisione. La sua natura altamente competitiva e le mappe complesse offrono infinite sfide. Immagina di voler aggiungere un nuovo livello di difficoltà e di innovazione: sviluppare un’Intelligenza Artificiale (AI) per Trackmania, capace di competere o addirittura di superare i giocatori umani. Non solo un’impresa tecnologica, ma anche una possibilità di creare contenuti originali su YouTube, mostrando ogni fase del processo e coinvolgendo una community globale.
Google, OpenAI, Roblox e Discord hanno appena annunciato la creazione di un’organizzazione no-profit per migliorare la sicurezza online dei minori. Un’alleanza dal nome rassicurante, Robust Open Online Safety Tools (ROOST), che suona tanto come una nobile crociata per proteggere i bambini, ma che in realtà potrebbe avere obiettivi ben più pragmatici. Con il fiato delle autorità regolatorie sul collo, le aziende stanno cercando di anticipare possibili interventi legislativi, proponendo una soluzione “open-source” che, guarda caso, mette loro al centro del discorso sulla sicurezza digitale.
L’iniziativa nasce con la promessa di rendere più accessibili le tecnologie per la protezione online, in particolare gli strumenti di rilevamento dei materiali di abuso sessuale su minori (CSAM). Il progetto sarà guidato da un vecchio lupo della Silicon Valley, Eric Schmidt, ex CEO di Google, che sottolinea la necessità di “accelerare l’innovazione nella sicurezza online dei minori”. Un’affermazione ineccepibile, ma che lascia aperte diverse domande: chi controllerà questi strumenti? Chi deciderà cosa è accettabile e cosa no?
L’ascesa dell’intelligenza artificiale generativa ha consacrato Nvidia come il gigante incontrastato dei semiconduttori, grazie ai suoi avanzati GPU, diventati il cuore pulsante dei modelli IA più potenti. La domanda per l’H100, il chip di punta di Nvidia, ha superato di gran lunga l’offerta, facendo schizzare il valore dell’azienda sopra il trilione di dollari per la prima volta nella sua storia. Questa dipendenza dalle soluzioni Nvidia ha però spinto i principali player del settore Microsoft, Meta, OpenAI, Amazon e Google a sviluppare i propri chip personalizzati, nel tentativo di ridurre i costi e guadagnare autonomia strategica.
Il mercato dei semiconduttori è ormai il vero campo di battaglia per il predominio nell’intelligenza artificiale. Nvidia, AMD e Intel si sfidano nel rilascio di processori sempre più potenti ed efficienti, mentre i colossi tecnologici cercano di emanciparsi dalle loro soluzioni. Secondo un recente report di Reuters, OpenAI è pronta a lanciare il proprio chip AI già nel 2025. La società guidata da Sam Altman starebbe affinando il design del suo processore, con l’obiettivo di inviarlo a TSMC per la produzione nei prossimi mesi.
Anthropic ha introdotto un nuovo strumento di analisi, l’Economic Index, progettato per monitorare l’impatto dell’intelligenza artificiale sul mercato del lavoro nel tempo. Attraverso l’analisi delle richieste inviate al chatbot Claude, il report iniziale fornisce dati chiave su come l’AI viene utilizzata dai lavoratori e su quali settori ne stanno beneficiando maggiormente. I risultati evidenziano che il 37,5% delle richieste riguarda il settore “computer e matematica”, segno di un’adozione particolarmente forte da parte di professionisti dell’informatica, programmatori e analisti di dati.
Se Alfred Hitchcock fosse ancora tra noi, probabilmente si divertirebbe a ricamare una sceneggiatura su AI.com, il dominio più enigmatico e ambito del mondo dell’Intelligenza Artificiale. Per anni, questa URL è stata un lasciapassare digitale per le tecnologie AI più avanzate: prima puntava su ChatGPT di OpenAI, poi su xAI di Elon Musk. Ma oggi? Oggi AI.com sussurra un nome nuovo e inatteso: DeepSeek.
L’industria dell’intelligenza artificiale sta assistendo a un cambiamento radicale con la decisione di Figure AI di interrompere la collaborazione con OpenAI. La startup americana, fondata con l’obiettivo di sviluppare robot umanoidi dotati di AI avanzata, ha dichiarato di aver raggiunto una svolta tecnologica tale da rendere inutile l’integrazione con i modelli linguistici di OpenAI.
Brett Adcock, CEO di Figure AI, ha annunciato la decisione in un post sui social media, spiegando come il progresso dell’azienda abbia reso obsoleta la necessità di dipendere da fornitori esterni. L’accordo con OpenAI era stato siglato pochi mesi fa, in concomitanza con un round di finanziamento da 675 milioni di dollari che aveva portato la valutazione di Figure AI a 2,6 miliardi di dollari, con l’obiettivo di lanciare il robot Figure 02. Ma ora, con un’intelligenza robotica sviluppata interamente in-house, Figure AI ha scelto di staccarsi da OpenAI, sottolineando che i modelli linguistici sono diventati una commodity e rappresentano solo una piccola parte dell’ecosistema dell’intelligenza artificiale.
Salesforce, leader globale nel settore del software per la gestione delle relazioni con i clienti (CRM), ha annunciato un investimento strategico di 500 milioni di dollari in Arabia Saudita, focalizzato sullo sviluppo dell’intelligenza artificiale (AI). Questa mossa sottolinea l’impegno dell’azienda nel promuovere l’innovazione tecnologica e nel rafforzare la propria presenza nel Medio Oriente.
Parte integrante di questo investimento è l’introduzione di Hyperforce, l’architettura di piattaforma di Salesforce, nel mercato saudita. Attraverso una partnership strategica con Amazon Web Services, Hyperforce offrirà alle aziende locali una piattaforma scalabile e sicura per gestire le loro operazioni CRM, facilitando l’adozione di soluzioni AI avanzate.
L’Italia entra ufficialmente nella corsa all’intelligenza artificiale avanzata con Vitruvian-1 (V1), un modello sviluppato da ASC27 s.r.l., allenato interamente in Italia e capace di comprendere e rispondere nelle principali lingue europee. Un passo fondamentale per posizionare il nostro Paese e l’Europa tra i protagonisti dello sviluppo tecnologico globale, dimostrando che l’innovazione può nascere anche al di fuori delle grandi multinazionali americane e cinesi.
Vitruvian-1 non è un semplice chatbot, ma un modello AI con capacità di reasoning. A differenza delle tradizionali IA conversazionali, V1 non è progettato per sostenere dialoghi casuali, bensì per risolvere problemi complessi in ambiti come matematica, fisica, chimica e medicina. Può operare sia in modalità CHAT che RAG (Retrieval-Augmented Generation), consentendo agli utenti di sottoporgli documenti e ottenere risposte basate su informazioni specifiche.
Nonostante le dimensioni più contenute rispetto ai colossi da 1500 miliardi di parametri, V1 si distingue per la sua efficienza e la capacità di affrontare problemi con un livello di ragionamento avanzato, arrivando dove modelli più grandi e costosi falliscono. Con i suoi 14 miliardi di parametri, è un compromesso ottimale tra potenza computazionale e sostenibilità economica, rendendolo accessibile per l’utilizzo in ambito industriale ed enterprise.
Negli ultimi anni, l’intelligenza artificiale è diventata il fulcro della trasformazione digitale globale, con OpenAI che ha assunto una posizione dominante nel mercato grazie a prodotti come ChatGPT. Tuttavia, questa leadership si basa su un modello di business chiuso e altamente lucrativo, che ora è messo in discussione da una nuova ondata di innovatori che stanno ribaltando il paradigma. Uno di questi è DeepSeek, un’azienda cinese che ha deciso di rendere l’AI accessibile a tutti, senza barriere economiche o restrizioni proprietarie.
Mentre OpenAI chiede 20 dollari al mese per l’accesso alle sue funzionalità avanzate, DeepSeek offre gratuitamente il proprio modello, dimostrando che è possibile costruire LLM (Large Language Models) senza investimenti miliardari. La strategia di DeepSeek non è solo una questione di accessibilità, ma rappresenta anche un duro colpo per l’oligopolio dell’AI dominato da OpenAI, Google e Microsoft.
Nel panorama in continua evoluzione della robotica indossabile, il progetto JIZAI ARMS emerge come una pietra miliare, offrendo una visione tangibile di un futuro in cui l’integrazione tra uomo e macchina diventa sempre più armoniosa. Sviluppato da un team di ricerca dell’Università di Tokyo, questo sistema rappresenta un passo significativo verso la realizzazione di “cyborg digitali” che operano in simbiosi con le tecnologie avanzate.
Il sistema JIZAI ARMS è costituito da un’unità base indossabile dotata di sei terminali ai quali possono essere collegati bracci robotici modulari e rimovibili. Questa configurazione permette agli utenti di personalizzare il numero e la disposizione dei bracci in base alle esigenze specifiche, offrendo una flessibilità senza precedenti nelle interazioni uomo-macchina. I bracci possono essere controllati sia dall’utente che da un operatore esterno, aprendo nuove prospettive per la collaborazione e l’interazione sociale tra più individui dotati di tali dispositivi.
Il gruppo Iliad ha annunciato un investimento da 3 miliardi di euro nell’intelligenza artificiale, ribadendo la propria ambizione di diventare un leader industriale nel settore in Europa. L’annuncio arriva in occasione del Summit for Action on Artificial Intelligence, che prende il via oggi a Parigi.
Emmanuel Macron, intervenuto su France 2 proprio oggi, domenica 9 febbraio, ha annunciato investimenti in Francia nell’intelligenza artificiale per “109 miliardi di euro nei prossimi anni”.
Google ha recentemente introdotto una funzionalità innovativa in Google Workspace che consente agli utenti di generare immagini fotorealistiche di persone utilizzando l’intelligenza artificiale. Questa capacità, inizialmente lanciata in accesso anticipato lo scorso anno, è ora disponibile per tutti gli account Workspace.
La tecnologia alla base di questa funzione è il modello Imagen 3, parte integrante del sistema Gemini di Google. Imagen 3 rappresenta un significativo avanzamento nella generazione di immagini tramite IA, offrendo dettagli eccezionali e una qualità superiore rispetto alle versioni precedenti. Gli utenti possono ora creare immagini fotorealistiche di persone, paesaggi e molto altro, direttamente all’interno dei loro documenti e presentazioni.
Per utilizzare questa funzione in Google Docs, è sufficiente aprire un documento, selezionare il punto in cui si desidera inserire l’immagine e cliccare su “Inserisci” > “Immagine” > “Aiutami a creare un’immagine”. Nel pannello laterale, si può inserire una descrizione testuale dell’immagine desiderata, ad esempio: “Illustrazione gioiosa di una scrivania con un laptop, una tazza di caffè e piante davanti a una finestra con il sole che entra”. Dopo aver fornito la descrizione, l’IA genererà diverse opzioni tra cui scegliere.
Nel panorama tecnologico odierno, i giganti americani come Amazon, Alphabet (la società madre di Google), Microsoft e Meta stanno pianificando di investire oltre 300 miliardi di dollari in infrastrutture per l’intelligenza artificiale nel 2025. Questo rappresenta un aumento significativo rispetto ai 230 miliardi spesi l’anno precedente, evidenziando l’importanza strategica attribuita all’AI da queste aziende.
Amazon prevede di guidare questa ondata di investimenti con una spesa di 100 miliardi di dollari, focalizzandosi principalmente su Amazon Web Services (AWS), la sua divisione cloud. Il CEO Andy Jassy ha sottolineato che l’IA rappresenta un’opportunità tecnologica storica, paragonabile all’avvento di Internet, e ha evidenziato la necessità di garantire una potenza di calcolo sufficiente per lo sviluppo e l’operatività dei modelli AI.
Il concetto di AI sovrana (o Sovereign AI) è una di quelle idee che suonano nobili sulla carta, ma che nella pratica possono diventare un cocktail esplosivo di protezionismo digitale, geopolitica dell’innovazione e burocrazia da incubo. L’idea di fondo è semplice: invece di lasciare che le aziende americane (leggi: OpenAI, Google, Microsoft) e cinesi (Tencent, Baidu, Huawei) dominino il mercato dell’intelligenza artificiale, ogni nazione dovrebbe sviluppare la propria AI “indipendente”, addestrata sui propri valori, la propria cultura e soprattutto sotto il proprio controllo. Una bella utopia, no?
Ma dove ci porterà davvero questa corsa alla sovranità digitale? In un paradiso di AI nazionali iper-localizzate che comprendono perfettamente il nostro contesto sociale e culturale, o in un inferno di intelligenze artificiali burocratizzate, inefficienti e talvolta decisamente orwelliane? Andiamo con ordine.
535 anni dopo, il messaggio di Leonardo da Vinci è più vivo che mai: il potere non è nella penna, ma nella mano che la regge. Non nella carta, ma nell’idea che la riempie. E se oggi abbiamo strumenti che sembrano parlare, scrivere, persino pensare, ricordiamoci che essi sono, e sempre saranno, un tributo all’ingegno umano, a quell’eterna fiamma che Leonardo, con la sua carta e la sua penna, contribuì a tenere viva.
Il benchmarking non è solo una questione di numeri, di metriche, di curve che salgono e scendono su grafici colorati. È una lotta contro l’imperfezione, una corsa verso un ideale che forse non esiste, ma che vale la pena inseguire. È il confronto con se stessi, con i limiti del possibile, con la realtà che spesso si rivela più complessa, più ostinata, di quanto si potesse immaginare.
La clonazione vocale basata sull’intelligenza artificiale ha fatto enormi passi avanti negli ultimi anni, permettendo la replica delle voci umane con un realismo sorprendente. Questo progresso, se da un lato ha aperto nuovi orizzonti per l’innovazione tecnologica, dall’altro ha sollevato preoccupazioni riguardo all’uso improprio di queste capacità. Un esempio eclatante di questa problematica è emerso recentemente in Italia, con una truffa ai danni di diversi imprenditori, ingannati dalla voce clonata del ministro della Difesa Guido Crosetto. La truffa ha dimostrato quanto siano facili, per i malintenzionati, sfruttarela manipolazione e ottenere vantaggi illeciti, anche se è stato negato l’uso dell’Ai, vogliamo mettere in guardia i nostri lettori. Non è dato sapere se effettivamente esista il caso in cui è stata usata una voce clonata. Non è certo che fosse la voce di Crosetto; potrebbe essere stata ottenuta tramite un imitatore o una registrazione modificata del ministro, selezionando parole pronunciate in contesti ufficiali o come singola frase.
Uso questo mezzo per dare pubblicità ad una grave truffa in corso. Un’assurda vicenda che inizia martedì con la chiamata di un amico, grande imprenditore, che mi chiede perché la mia Segreteria avesse chiamato la sua per avere il suo cellulare. Gli dico che era assurdo, avendolo…
L’intelligenza artificiale. Quella cosa che un giorno ci governerà, ma per ora si accontenta di risolvere equazioni, scrivere codice e cercare di capire perché 2+2 fa 4 (spoiler: perché sì). Ma come fa un modello AI a diventare così bravo? Semplice: con un bel po’ di dataset distillati, ovviamente. Ecco una lista di 7 dataset che sembrano usciti direttamente da un laboratorio di scienziati pazzi, pronti a far ragionare le macchine meglio di un filosofo ubriaco.
OpenAI continua la sua espansione globale con l’apertura di un nuovo ufficio a Monaco di Baviera, rafforzando la propria presenza in Europa. La scelta della città tedesca non è casuale: Monaco è da tempo considerata la “Silicon Valley della Germania”, un hub di innovazione tecnologica che attrae aziende di primo livello nel settore dell’intelligenza artificiale.
Recentemente, è emerso uno scandalo in Italia riguardante l’uso di Graphite per spiare giornalisti e attivisti. Meta, la società madre di WhatsApp, ha scoperto che il software veniva installato attraverso messaggi o chiamate su WhatsApp, permettendo di rubare informazioni senza che l’utente dovesse cliccare su alcun link. In Italia, almeno sette persone sono state colpite, tra cui Francesco Cancellato, direttore del quotidiano digitale Fanpage, e Luca Casarini, attivista della ONG Mediterranea. Il governo italiano ha negato qualsiasi coinvolgimento, ma Paragon ha sospeso il suo contratto con l’Italia a causa di violazioni del “quadro etico” dell’accordo.
WhatsApp ha denunciato una campagna di cyberspionaggio che ha coinvolto circa 90 giornalisti e attivisti in una ventina di paesi, realizzata utilizzando spyware dell’azienda israeliana Paragon Solutions. La campagna, interrotta nel dicembre 2024, prevedeva l’invio di file PDF dannosi per accedere illegalmente ai dati personali degli utenti. WhatsApp ha notificato le vittime e ha esortato Paragon a cessare le sue attività, non escludendo azioni legali.
Il crescente utilizzo dei modelli di linguaggio, come GPT-4, in ambiti sempre più complessi come la risoluzione di problemi algoritmici, ha portato alla necessità di un’analisi approfondita delle strategie di prompting per ottimizzare le performance. Un recente studio intitolato “Benchmarking GPT-4 on Algorithmic Problems: A Systematic Evaluation of Prompting Strategies” si concentra su come le diverse tecniche di prompting influenzino l’efficacia di GPT-4 nel risolvere problemi algoritmici. La ricerca ha esplorato vari approcci, evidenziando l’importanza di una progettazione strategica dei prompt per migliorare l’accuratezza e l’efficienza del modello.
Il Paris AI Action Summit di lunedì si preannuncia come l’ennesima occasione per i leader mondiali di fingere di avere il controllo su una tecnologia che sfugge loro di mano. Con Emmanuel Macron e Narendra Modi a fare da padroni di casa, il summit dovrebbe delineare un vago quadro etico sull’intelligenza artificiale. Ma, a giudicare dalla lista degli ospiti, sembra più un evento di facciata che un vertice decisivo.
Politico definisce la lineup “mediocre”, e a ben vedere non ha torto. Il nome di maggiore peso, al di là dei due co-presidenti, è il senatore americano JD Vance, noto più per le sue posizioni populiste che per una visione chiara sul futuro dell’IA. Presenti anche il cancelliere tedesco Olaf Scholz e la presidente della Commissione Europea Ursula von der Leyen, ma il premier britannico Keir Starmer ha scelto di snobbare l’evento, mandando al suo posto Peter Kyle, una figura di secondo piano. Un’assenza che suggerisce quanto poco il Regno Unito creda nell’efficacia di questa riunione.
Il Financial Times, come molte testate occidentali, ha un approccio analitico al mondo della tecnologia e dell’IA, che noi adoriamo, ma è anche influenzato dalle dinamiche finanziarie e geopolitiche che interessano i suoi lettori. L’articolo su DeepSeek lancia messaggi ben calibrati, con un sottotesto che merita di essere analizzato attentamente.
La notizia principale è la rapida ascesa di DeepSeek, un chatbot cinese che sta scuotendo il mercato, superando ChatGPT come app gratuita più scaricata. Il tono iniziale sembra quasi entusiastico: il chatbot è veloce, efficiente, potente nel problem-solving tecnico e matematico.
Il nuovo documento amplia la sezione sui rischi legati all’allineamento ingannevole, segnalando una crescente consapevolezza—o forse solo la necessità di dimostrarla.
In un passaggio che suona come il massimo sforzo regolatorio che un’azienda possa permettersi senza compromettere il business, DeepMind afferma che “l’adozione dei protocolli descritti in questo Framework potrebbe dipendere dal fatto che [altri sviluppatori di intelligenza artificiale] nel settore adottino protocolli simili”. Tradotto: ci regoliamo, ma solo se lo fanno anche gli altri.
Nel frattempo, con perfetto tempismo, Google ha rimosso dalle sue linee guida etiche l’impegno a non utilizzare l’intelligenza artificiale per scopi militari o di sorveglianza.
Alla domanda se OpenAI avrebbe iniziato a rilasciare i pesi dei modelli, Sam Altman ha dato una risposta preoccupante :
“Sì, ne stiamo discutendo. Personalmente penso che siamo stati dalla parte sbagliata della storia e che dobbiamo elaborare una strategia open source diversa; non tutti in OpenAI condividono questa visione e non è nemmeno la nostra massima priorità attuale”.
L’AI 100 è l’elenco annuale di CB Insights delle principali aziende private di intelligenza artificiale nel mondo. Dalle nuove architetture AI alla produzione di precisione, i vincitori di quest’anno stanno affrontando alcune delle sfide più difficili nei vari settori. Mi è sempre piaciuta, è gratis e mi, vi aiuta a definire la Tassonomia e l’Ontologia delle tecnologie.
Mentre l’IA ha catturato l’attenzione dei media, è solo una parte di un più ampio slancio tecnologico. Start-up e giganti della tecnologia stanno facendo progressi in settori diversi come l’energia pulita, l’esplorazione spaziale e la longevità umana. Il rapporto di CB Insights Game Changers 2025 evidenzia altresi’ 9 tecnologie emergenti che potrebbero trasformare il nostro modo di vivere, lavorare e interagire con l’ambiente nei prossimi 5-10 anni e oltre. Queste includono:
Perforazione ultra-profonda: Tecniche di perforazione avanzate che possono raggiungere profondità maggiori per sbloccare l’energia delle rocce supercalde
Mercati di agenti AI: Consente l’integrazione dinamica e la collaborazione di agenti specializzati su piattaforme software
Portafogli ottimizzati quantistici: Utilizzo del calcolo quantistico per costruire portafogli più performanti, più rapidamente
Riprogammazione cellulare ed epigenetica: Alterare l’espressione genica delle cellule per prolungare la durata della vita umana in salute
Sistemi di navigazione senza GPS: Approcci che migliorano la resilienza e l’accuratezza dei servizi di posizionamento critici per l’infrastruttura globale
DeepSeek ha recentemente introdotto DeepSeek-VL2-Small, un modello avanzato progettato per l’analisi simultanea di documenti e immagini. Questo modello è ora disponibile per test gratuiti su Hugging Face, offrendo agli sviluppatori l’opportunità di esplorare le sue capacità senza costi iniziali.
DeepSeek-VL2-Small fa parte di una serie di modelli che includono anche DeepSeek-VL2-Tiny e DeepSeek-VL2, con rispettivamente 1,0 miliardi, 2,8 miliardi e 4,5 miliardi di parametri attivati. Questa gamma permette agli sviluppatori di scegliere il modello più adatto alle loro esigenze specifiche, bilanciando complessità e prestazioni.
Palantir ha appena svelato una novità che potrebbe segnare un punto di svolta nell’evoluzione della tecnologia AI e dei sistemi di analisi dei dati: Grok, un sistema AI sviluppato in collaborazione con X, la piattaforma di social media precedentemente conosciuta come Twitter, di proprietà di Elon Musk. e azioni di Palantir hanno raggiunto il massimo storico giovedì, l’annuncio è stato accolto con grande attenzione, poiché unisce due dei protagonisti più influenti nel mondo della tecnologia: Palantir, una delle aziende leader nella gestione dei dati e analisi predittiva, e Musk, un imprenditore visionario noto per la sua audacia nel campo dell’intelligenza artificiale, dei trasporti e dell’energia.
Gli analisti della Bank of America hanno suggerito che il nuovo Dipartimento per l’efficienza governativa di Elon Musk e l’attenzione dell’amministrazione Trump sull’intelligenza artificiale potrebbero rappresentare una “grande opportunità” per Palantir.
Grok è destinato a rivoluzionare la raccolta e l’analisi dei dati, permettendo alle aziende di fare previsioni molto più precise e prendere decisioni strategiche in tempo reale. La potenza di Grok deriva dal fatto che integra l’intelligenza artificiale avanzata con i vasti flussi di dati generati ogni giorno dagli utenti sulla piattaforma X, fornendo alle aziende una capacità unica di analizzare non solo i dati tradizionali ma anche quelli generati da interazioni sociali e comportamentali online. Questo tipo di approccio unisce il meglio delle tecnologie di big data con l’intelligenza artificiale, una combinazione che ha il potenziale di trasformare settori come il marketing, la sicurezza, l’analisi finanziaria e molto altro.
Il panorama pubblicitario in America sta attraversando una trasformazione significativa, con l’intelligenza artificiale che gioca un ruolo sempre più centrale nel modo in cui i marchi si connettono con i consumatori. Un esempio recente di questa evoluzione è l’introduzione da parte di Google di due nuovi spot per il Super Bowl, che vedono l’intelligenza artificiale come una tecnologia che ha raggiunto una familiarità tale da diventare parte integrante della vita quotidiana, al pari di dispositivi come smartphone e computer. La mossa di Google non solo riflette la crescente importanza dell’AI, ma offre anche uno spunto interessante per analizzare come la pubblicità stia cambiando grazie a questa tecnologia.
Il settore pubblico si sta sempre più orientando verso l’adozione di soluzioni basate sull’intelligenza artificiale per modernizzare e migliorare l’efficienza nelle operazioni amministrative. Recentemente, un report di Wired ha sollevato l’attenzione su come il DOGE, una figura emergente nel panorama dell’innovazione tecnologica, stia sviluppando un chatbot personalizzato per la General Services Administration (GSA), una delle agenzie più importanti per la gestione dei contratti governativi negli Stati Uniti. Questo chatbot, denominato GSAi, potrebbe rappresentare un salto significativo nel modo in cui vengono analizzati i dati relativi ai contratti e agli appalti pubblici, facilitando una gestione più trasparente ed efficiente.
Secondo le fonti (scoop di Wired), l’obiettivo di DOGE è quello di sfruttare l’intelligenza artificiale per elaborare vasti volumi di dati relativi ai contratti governativi, un’area che tradizionalmente ha comportato un gran numero di complessità burocratiche. Con l’introduzione del GSAi, l’analisi di queste enormi quantità di informazioni potrebbe diventare più rapida e precisa, consentendo di ottenere insight in tempo reale e di ottimizzare le decisioni relative agli appalti e alle procedure di procurement. La visione di DOGE sembra essere quella di trasformare il modo in cui vengono gestiti i dati all’interno della GSA, creando un sistema più agile e dinamico, capace di rispondere alle necessità dei funzionari pubblici e di ottimizzare l’uso delle risorse.
Nel panorama odierno, dominato dalla tecnologia, ci si aspetta che le decisioni automatizzate siano imparziali, prive delle inclinazioni umane che spesso portano a discriminazioni. Tuttavia, la realtà si dimostra ben più complessa. Luciano Floridi, eminente filosofo dell’informazione, osserva che l’espansione dell’IA “esacerba vecchi problemi etici, ne rimodella alcuni e ne crea di nuovi”
Un esempio emblematico è rappresentato dall’esperienza di un utente di Gmail, il quale, senza preavviso, si è visto negare l’accesso al proprio account con l’accusa di aver inviato spam. Nonostante le ripetute richieste di appello, il sistema automatizzato ha mantenuto il blocco, senza fornire spiegazioni dettagliate o possibilità di interazione umana.
In un’epoca in cui la rapidità conta più dell’innovazione, il team di Hugging Face ha deciso di dimostrare che clonare è meglio che creare. In sole 24 oreperché perdere tempo con dettagli inutili? ha replicato il sistema Deep Research di OpenAI, ribattezzandolo con l’originalissimo nome di Open Deep Research. L’ironia del prefisso “Open” è tutta da gustare, considerando che il progetto nasce come una versione alternativa di qualcosa che, in teoria, dovrebbe già essere aperto.
Il gioiellino di Hugging Face si distingue per la sua capacità di navigare autonomamente sul web e generare report di ricerca, un’abilità che oggi persino un adolescente con ChatGPT e un motore di ricerca potrebbe padroneggiare. Eppure, nonostante la fretta con cui è stato assemblato, Open Deep Research può già vantare un onorevole 55,15% di accuratezza nel benchmark GAIA, poco distante dal 67,36% dell’originale di OpenAI. Insomma, non è il massimo, ma nemmeno una figuraccia totale.
Benvenuti nell’era dell’IA che si allena su sé stessa, creando un paradosso degno di Escher: più si ripete, meno capisce. L’Università di Pisa assieme alla Scuola Siperiore di Pisa ISTI-CNR e Victoria University, Wellington, New Zealand, ha messo il dito nella piaga con uno studio (Characterizing Model Collapse in Large Language Models Using Semantic Networks and Next-Token Probability, Gambetta, Gizem Gezici , Fosca Giannotti, Dino Pedreschi, Alistair Knott, Luca Pappalardo) che analizza il “model collapse“, ovvero il degrado progressivo della qualità dei modelli linguistici quando vengono addestrati con il loro stesso output. DeepSeek, il nuovo arrivato nell’arena dell’IA, ha deciso di ribaltare le fasi di training e il risultato sembra un esperimento da laboratorio di Frankenstein.
Oggi siamo stati invitati al convegno Medicina Digitale, Telemedicina e Responsabilità civile, moderato da Gianluca Marmorato, Coordinatore GdL Privacy AiSDeT e aperto da Massimo Caruso, Segretario generale AiSDeT.
La digitalizzazione della sanità sta rivoluzionando il modo in cui pensiamo alla responsabilità medica. Telemedicina, intelligenza artificiale e condivisione dei dati sollevano domande cruciali: chi è responsabile se un errore di diagnosi avviene online o se un algoritmo sbaglia?
Le normative esistenti, pensate per la medicina tradizionale, sembrano insufficienti per queste nuove realtà. Per questo motivo, eventi multidisciplinari come tavole rotonde sono fondamentali per discutere come adattare le leggi alle tecnologie emergenti e proteggere sia i pazienti che i professionisti sanitari coinvolti nei processi di cura digitale.
È il momento di aprire un dibattito ampio e inclusivo per garantire che la medicina digitale sia sicura ed efficace. Non siamo noi di Rivista.AI dei giuristi ma proviamo a cogliere alcuni aspetti dibattuti durante l’evento.
Nel mondo scintillante dell’intelligenza artificiale, dove le grandi aziende si sfidano a colpi di miliardi per costruire il cervello sintetico definitivo, un gruppo di ricercatori di Stanford e dell’Università di Washington ha deciso di rovinare la festa. Con un budget ridicolo e un po’ di ingegno, hanno creato un modello AI di ragionamento che rivaleggia con OpenAI, spendendo meno di una cena in un ristorante mediocre.
Il modello in questione, chiamato “s1” (forse per sottolineare quanto sia basilare rispetto ai colossi da miliardi di dollari), è stato addestrato con la sorprendente cifra di… 1.000 domande. Già, niente terabyte di dati segreti o infrastrutture da capogiro, solo un piccolo set di domande ben selezionate. Il tutto è costato meno di 50 dollari e ha richiesto la bellezza di 26 minuti per essere raffinato. Tempi difficili per chi ancora pensa che servano budget illimitati per ottenere risultati nel campo dell’IA.
E chi l’avrebbe mai detto? L’intelligenza artificiale, quella meravigliosa creatura di Big Tech nata per rendere il mondo un posto migliore, sta finendo nelle mani sbagliate. Stando a quanto riportato da Bleeping Computer, il Threat Intelligence Group (GTIG) di Google ha fatto una scoperta che ha dell’incredibile (o forse no?): gruppi di cybercriminali sponsorizzati dai governi stanno usando Gemini per pianificare i loro attacchi con una precisione chirurgica. E non parliamo di ragazzini annoiati nel seminterrato, ma di squadre di hacker professionisti che puntano dritti alle infrastrutture critiche e ad altri obiettivi di alto valore. In pratica, invece di essere solo uno strumento di produttività, l’AI si sta rivelando un prezioso alleato per chi vuole seminare il caos.
Oracle ha annunciato nuovi Agenti AI basati sui ruoli all’interno di Oracle Fusion Cloud Human Capital Management (HCM) per aiutare i responsabili delle risorse umane e i manager a migliorare la cosiddetta employee experience e ottimizzare la produttività individuale.
Disponibili per i clienti a partire da oggi, i nuovi Agenti AI automatizzano le attività lavorative più noiose in modo da liberare il potenziale delle persone e consentire loro di dedicare il proprio tempo a compiti più significativi.
OpenAI ha annunciato l’introduzione della data residency in Europa per gli utenti Enterprise, Edu e la piattaforma API. Questa novità aiuterà le aziende che operano in Europa a soddisfare i requisiti locali di sovranità dei dati durante l’utilizzo d prodotti OpenAI all’interno delle loro aziende e nello sviluppo di nuove soluzioni basate sull’Intelligenza Artificiale.
Grazie alla data residency, i clienti API potranno scegliere di elaborare i dati in Europa, mentre ai nuovi clienti ChatGPT Enterprise ed Edu verrà data la possibilità di scegliere di conservare i contenuti dei clienti in Europa.
Questo annuncio è il risultato del continuo lavoro per rendere le funzionalità di OpenAI compliant in materia di privacy, sicurezza e conformità dei dati, che oggi supportano centinaia di aziende europee che collaborano con OpenAI.
Il 2024 ha segnato un anno straordinario per la ricerca sulla sicurezza informatica, con un livello di innovazione senza precedenti. Dall’hijacking di OAuth ai nuovi exploit nei web server Apache, queste scoperte non solo ridefiniscono le minacce esistenti, ma introducono anche nuove classi di attacchi che i professionisti della sicurezza dovranno affrontare nei prossimi anni.
Google ha deciso di interrompere la pratica di fissare obiettivi di assunzione specifici per dipendenti appartenenti a gruppi storicamente sottorappresentati, segnando un cambiamento significativo nella sua strategia di diversità e inclusione. La decisione, comunicata ai dipendenti mercoledì e riportata dal Wall Street Journal, riflette un adattamento delle politiche di Alphabet, la società madre di Google, che ha anche eliminato un passaggio chiave dal suo rapporto annuale. In esso, l’azienda affermava il proprio impegno a rendere la diversità, l’equità e l’inclusione elementi centrali della sua cultura aziendale e a costruire una forza lavoro più rappresentativa degli utenti che serve.