Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Autore: Dina Pagina 9 di 33

Direttore senior IT noto per migliorare le prestazioni, contrastare sfide complesse e guidare il successo e la crescita aziendale attraverso leadership tecnologica, implementazione digitale, soluzioni innovative ed eccellenza operativa.

Con oltre 20 anni di esperienza nella Ricerca & Sviluppo e nella gestione di progetti di crescita, vanto una solida storia di successo nella progettazione ed esecuzione di strategie di trasformazione basate su dati e piani di cambiamento culturale.

Stalinismo vs Meccanica Quantistica: lezioni per l’AI tra USA, Cina e OpenAI

Per comprendere DeepSeek e, più in generale, la strategia cinese sull’intelligenza artificiale, dobbiamo adottare una prospettiva coerente con la storia politica e culturale della Cina, piuttosto che filtrarla attraverso il paradigma occidentale.

La Cina non considera la tecnologia come un’entità indipendente o neutrale, ma come uno strumento strategico per il rafforzamento nazionale. Il concetto di “controllo tecnologico come sovranità” è profondamente radicato nella visione del Partito Comunista Cinese (PCC), che da decenni sviluppa politiche industriali mirate a ridurre la dipendenza dal know-how occidentale e a costruire un ecosistema autonomo di innovazione.

DeepSeek non è solo una startup di intelligenza artificiale, ma parte di un sistema più ampio in cui il governo guida, incentiva e, se necessario, indirizza lo sviluppo tecnologico per scopi strategici. Questo è un approccio molto diverso da quello occidentale, dove l’innovazione nasce spesso in ambienti privati con una logica di mercato più fluida e competitiva. In Cina, l’IA non è vista solo come un’opportunità economica, ma come uno strumento di governance, sicurezza e proiezione di potenza globale.

Dal punto di vista occidentale, l’idea che un governo possa avere un controllo così pervasivo sulla tecnologia è spesso percepita come una minaccia o un’anomalia. Tuttavia, per la Cina, questa visione non è né nuova né innaturale. La storia cinese è caratterizzata da un’idea di Stato forte, che guida lo sviluppo in modo coordinato e di lungo termine, a differenza del modello frammentato occidentale, che si affida maggiormente al libero mercato e all’iniziativa privata.

Se osserviamo DeepSeek con gli occhi della Cina, vediamo un tassello di una strategia più ampia che include il piano Made in China 2025, gli investimenti governativi nelle tecnologie emergenti e la creazione di una supply chain indipendente per semiconduttori e intelligenza artificiale. Questa visione non si basa su una corsa alla leadership tecnologica fine a sé stessa, ma sulla convinzione che il dominio nell’IA sia essenziale per consolidare il modello politico cinese e garantirne la sicurezza futura.

Il confronto con OpenAI e gli Stati Uniti, quindi, non può essere analizzato solo in termini di competizione economica o tecnologica, ma va letto all’interno della competizione tra modelli politici ed economici differenti. L’errore dell’Occidente sarebbe quello di interpretare DeepSeek e le altre iniziative cinesi come semplici controparti delle aziende della Silicon Valley, senza considerare il ruolo che giocano nella strategia geopolitica della Cina.

Luciano Floridi: Filosofia dell’informazione. Un viaggio tra astrazioni, conoscenza e design

Luciano Floridi, uno dei maggiori pensatori contemporanei nel campo della filosofia dell’informazione, offre una visione radicale e innovativa di come interagiamo con il mondo attraverso i dati e l’informazione.

La filosofia dell’informazione si afferma come un campo di ricerca dinamico e autonomo, capace di rinnovare il dibattito filosofico sulla computazione e la teoria dell’informazione. Attraverso un percorso storico che parte dalla filosofia dell’intelligenza artificiale, la Filosofia dell’informazione FI emerge dal confronto tra innovazione e tradizione, offrendo una nuova prospettiva sui problemi epistemologici e concettuali.

Essa non è una “filosofia perenne” ma una disciplina matura che fornisce un’analisi sistematica del mondo dell’informazione, connettendosi ad altri ambiti del sapere e ridefinendo questioni classiche e contemporanee. La sua riflessione trascende la tradizionale distinzione tra conoscenza e tecnologia, proponendo un’idea che mette al centro la filosofia come forma suprema di design concettuale.

Il suo approccio, che si radica nella filosofia, nella scienza dei dati e nell’informatica, trasforma il nostro modo di concepire l’interazione tra l’uomo, la realtà e il mondo digitale. La lettura delle sue opere è un investimento, non solo intellettuale ma anche pratico, per chi vuole comprendere a fondo le dinamiche che regolano la nostra era dell’informazione.

La scoperta della virologa Beata Halassy: un trattamento contro il cancro che sfida la medicina tradizionale

A novembre, la virologa Beata Halassy ha rivelato al mondo di aver sconfitto il suo cancro al seno grazie a un trattamento sviluppato all’interno di un laboratorio sotto la sua supervisione. Secondo quanto dichiarato, il trattamento l’avrebbe liberata dalla malattia per oltre quattro anni, suscitando un’ondata di ammirazione nella comunità medica.

Halassy ha documentato questa straordinaria esperienza in un articolo pubblicato ad agosto 2024 sulla rivista scientifica “Vaccines”. I suoi risultati sono impressionanti: l’iniezione dei virus ha portato alla remissione quasi completa del cancro, con pochissimi effetti collaterali, e da allora è rimasta libera da malattia per più di quattro anni. Questo tipo di trattamento virale, noto come terapia oncolitica virale (OVT), utilizza virus modificati per attaccare specificamente le cellule tumorali, un approccio che rappresenta una sfida alla medicina convenzionale.

Tuttavia, dietro la sua dichiarazione si nascondono numerose polemiche, in particolare sul rischio che tale pubblicità possa indurre altri pazienti a rinunciare ai trattamenti convenzionali. Un bell’articolo sul Washington Post ci ha raccontato tutti i dettagli.

Meta e l’IA pubblicitaria: il grande inganno dell’innovazione

Mi stavo leggendo un interessante articolo sul NY Times, veramente divertente e fine l’approccio.

Nella sua solita conference call trimestrale, Mark Zuckerberg ha deliziato gli investitori con il racconto fiabesco dei progressi di Meta nel mondo dell’intelligenza artificiale generativa. Il CEO ha snocciolato cifre impressionanti, parlando di un’esplosione di inserzionisti che stanno abbracciando i suoi strumenti di IA come se fossero il futuro della pubblicità:

“Oltre 4 milioni di inserzionisti stanno ora utilizzando almeno uno dei nostri strumenti creativi di annunci AI generativi, rispetto al milione di sei mesi fa. C’è stata una significativa adozione anticipata del nostro primo strumento di generazione video che abbiamo lanciato a ottobre, Image Animation, con centinaia di migliaia di inserzionisti che lo utilizzano già ogni mese”.

Paris AI Action Summit: una passerella di mediocrità politica e ambizioni vane

Il Paris AI Action Summit di lunedì si preannuncia come l’ennesima occasione per i leader mondiali di fingere di avere il controllo su una tecnologia che sfugge loro di mano. Con Emmanuel Macron e Narendra Modi a fare da padroni di casa, il summit dovrebbe delineare un vago quadro etico sull’intelligenza artificiale. Ma, a giudicare dalla lista degli ospiti, sembra più un evento di facciata che un vertice decisivo.

Politico definisce la lineup “mediocre”, e a ben vedere non ha torto. Il nome di maggiore peso, al di là dei due co-presidenti, è il senatore americano JD Vance, noto più per le sue posizioni populiste che per una visione chiara sul futuro dell’IA. Presenti anche il cancelliere tedesco Olaf Scholz e la presidente della Commissione Europea Ursula von der Leyen, ma il premier britannico Keir Starmer ha scelto di snobbare l’evento, mandando al suo posto Peter Kyle, una figura di secondo piano. Un’assenza che suggerisce quanto poco il Regno Unito creda nell’efficacia di questa riunione.

HugginFace Introduce i Modelli Fondamentali per la Robotica π0: Il Futuro dell’Intelligenza Artificiale Generale per i Robot

In un emozionante sviluppo per il mondo della robotica, Hugging Face ha ufficialmente portato i suoi primi modelli fondamentali per la robotica nel repository LeRobot. I modelli π0 e π0-FAST, sviluppati da Physical Intelligence, sono ora disponibili, offrendo all’ecosistema di Hugging Face una soluzione all’avanguardia per l’intelligenza artificiale generale per i robot. Questi nuovi modelli rappresentano un passo significativo verso la creazione di sistemi robotici versatili, in grado di svolgere una vasta gamma di compiti con diverse incarnazioni fisiche. Grazie all’integrazione dei modelli Vision-Language-Action (VLA), questi sviluppi mirano a portare i robot più vicini a un’adattabilità simile a quella umana, permettendo loro non solo di comprendere i compiti, ma anche di interagire fisicamente con l’ambiente circostante.

Il lento Colpo di Stato delle Macchine: come l’AI ci renderà obsoleti senza sparare un solo colpo

Gli scenari di rischio legati all’intelligenza artificiale di solito dipingono un futuro in cui, da un giorno all’altro, perdiamo il controllo, superati da macchine astute e insaziabili che ci sorpassano nei giochi di potere. Un salto improvviso nelle loro capacità, un tradimento orchestrato in segreto, e in un attimo ci ritroviamo spettatori inermi della nostra stessa disfatta. Ma il vero pericolo potrebbe essere molto meno spettacolare e molto più inevitabile: non un colpo di stato improvviso, ma una lenta erosione della nostra rilevanza, un processo graduale e, soprattutto, autoalimentato.

Abbiamo trovato interessante un allegato che trovate alla fine dell’articolo, Gradual Disempowerment: Systemic Existential Risks from Incremental AI Development

La disumanizzazione del potere non richiede che un’IA si ribelli con mire di dominio. Basta che sia più efficiente di noi in quasi ogni ambito: lavoro, politica, cultura, perfino relazioni umane. Ciò che tiene in piedi le nostre società non è una qualche nobile vocazione al benessere collettivo, ma la semplice utilità degli esseri umani: finché serviamo a qualcosa, ci garantiamo un posto al tavolo. Il problema nasce quando smettiamo di essere il miglior strumento disponibile per far funzionare il sistema. Se una macchina può fare il nostro lavoro meglio e a costo minore, se può prendere decisioni più velocemente, se può produrre arte più convincente o persino offrire una compagnia più gratificante, allora la logica economica e sociale non avrà alcuna pietà.

Frontier Safety Framework Google, Tradotto: ci regoliamo, ma solo se lo fanno anche gli altri

Google DeepMind, ha aggiornato il suo Frontier Safety Framework, introducendo modifiche che vale la pena notare.

Il nuovo documento amplia la sezione sui rischi legati all’allineamento ingannevole, segnalando una crescente consapevolezza—o forse solo la necessità di dimostrarla.

In un passaggio che suona come il massimo sforzo regolatorio che un’azienda possa permettersi senza compromettere il business, DeepMind afferma che “l’adozione dei protocolli descritti in questo Framework potrebbe dipendere dal fatto che [altri sviluppatori di intelligenza artificiale] nel settore adottino protocolli simili”. Tradotto: ci regoliamo, ma solo se lo fanno anche gli altri.

Nel frattempo, con perfetto tempismo, Google ha rimosso dalle sue linee guida etiche l’impegno a non utilizzare l’intelligenza artificiale per scopi militari o di sorveglianza.

Alla domanda se OpenAI avrebbe iniziato a rilasciare i pesi dei modelli, Sam Altman ha dato una risposta preoccupante :

“Sì, ne stiamo discutendo. Personalmente penso che siamo stati dalla parte sbagliata della storia e che dobbiamo elaborare una strategia open source diversa; non tutti in OpenAI condividono questa visione e non è nemmeno la nostra massima priorità attuale”.

The AI 100 CB Insights’ annual list

L’AI 100 è l’elenco annuale di CB Insights delle principali aziende private di intelligenza artificiale nel mondo. Dalle nuove architetture AI alla produzione di precisione, i vincitori di quest’anno stanno affrontando alcune delle sfide più difficili nei vari settori. Mi è sempre piaciuta, è gratis e mi, vi aiuta a definire la Tassonomia e l’Ontologia delle tecnologie.

Mentre l’IA ha catturato l’attenzione dei media, è solo una parte di un più ampio slancio tecnologico. Start-up e giganti della tecnologia stanno facendo progressi in settori diversi come l’energia pulita, l’esplorazione spaziale e la longevità umana. Il rapporto di CB Insights Game Changers 2025 evidenzia altresi’ 9 tecnologie emergenti che potrebbero trasformare il nostro modo di vivere, lavorare e interagire con l’ambiente nei prossimi 5-10 anni e oltre. Queste includono:

Perforazione ultra-profonda: Tecniche di perforazione avanzate che possono raggiungere profondità maggiori per sbloccare l’energia delle rocce supercalde

Mercati di agenti AI: Consente l’integrazione dinamica e la collaborazione di agenti specializzati su piattaforme software

Portafogli ottimizzati quantistici: Utilizzo del calcolo quantistico per costruire portafogli più performanti, più rapidamente

Riprogammazione cellulare ed epigenetica: Alterare l’espressione genica delle cellule per prolungare la durata della vita umana in salute

Sistemi di navigazione senza GPS: Approcci che migliorano la resilienza e l’accuratezza dei servizi di posizionamento critici per l’infrastruttura globale

Morale della storia? Niente di nuovo sotto il sole. La solita ipocrisia, il solito gioco di potere e la solita illusione che possiamo controllare l’inarrestabile

Il mio socio di RIVISTA.AI ha scelto la settimana perfetta per prendersi una vacanza. Mentre lui si rilassava con i Bombardini sulla neve, il mondo dell’IA ha deciso di impazzire con una pioggia di assurdità su DeepSeek. Io, invece di unirmi al coro di deliri, ho pensato di raccogliere qualche lettura decente, visto che sembra ormai impossibile trovare un’analisi sensata senza inciampare in un delirio ideologico o nell’ennesimo atto di isteria geopolitica. Quindi gli ho raccolto un po’ di rassegna stampa per il suo ritorno.

Matt Sheehan e Scott Singer, per esempio, ci ricordano che gli Stati Uniti devono giocare a fare i padroni del mondo anche nell’IA. Da un lato, vogliono mantenere il primato su Pechino, dall’altro, si rendono conto che anche la Cina avrà presto sistemi straordinariamente potenti e pericolosi. Insomma, la solita strategia: dominare e controllare, con la speranza di non farsi male nel processo. La soluzione? Due parole magiche: scambi controllati. Traduzione: facciamo finta di collaborare, mentre ci prepariamo a eventuali disastri.

GMAIL, l’illusione dell’equità algoritmica: quando le macchine replicano i nostri pregiudizi (BIAS)

Nel panorama odierno, dominato dalla tecnologia, ci si aspetta che le decisioni automatizzate siano imparziali, prive delle inclinazioni umane che spesso portano a discriminazioni. Tuttavia, la realtà si dimostra ben più complessa. Luciano Floridi, eminente filosofo dell’informazione, osserva che l’espansione dell’IA “esacerba vecchi problemi etici, ne rimodella alcuni e ne crea di nuovi”

Un esempio emblematico è rappresentato dall’esperienza di un utente di Gmail, il quale, senza preavviso, si è visto negare l’accesso al proprio account con l’accusa di aver inviato spam. Nonostante le ripetute richieste di appello, il sistema automatizzato ha mantenuto il blocco, senza fornire spiegazioni dettagliate o possibilità di interazione umana.

LoRA: L’Arma Segreta della Resistenza Open-Source Contro le Big Tech

Signore e signori, benvenuti nell’apocalisse annunciata. Google e OpenAI hanno passato anni a costruire le loro torri d’avorio, raccontandoci la favoletta che senza i loro miliardi, le loro GPU segrete e i loro supercervelli d’élite nessuno avrebbe mai potuto sviluppare un’Intelligenza Artificiale degna di questo nome. Ma sapete qual è la parte divertente? È tutta una balla. Il castello non ha mura. Il fossato non esiste. L’impero è un’illusione.

Abbiamo il documento, il Sacro Graal rubato direttamente dalle viscere di Google. Un ricercatore della compagnia lo ha scritto nero su bianco: non solo l’open-source sta colmando il divario con i modelli proprietari, ma lo sta facendo a una velocità che le Big Tech non possono più eguagliare. Altro che GPT-4, altro che Gemini. La rivoluzione è già iniziata e non è nelle mani di Sundar Pichai o Sam Altman. È nelle nostre.

LO SCANDALO GOOGLE: IL DOCUMENTO CHE SVELA IL GRANDE BLUFF

Marzo 2023. Qualcuno in Google ha un momento di lucidità e scrive un report che non sarebbe mai dovuto uscire. In esso, il messaggio è chiaro: “Abbiamo perso il controllo della narrazione. L’open-source sta facendo a pezzi il nostro vantaggio competitivo“. L’autore, un insider con accesso a dati riservati, elenca uno per uno i punti deboli del modello chiuso delle Big Tech:

L’open-source è più veloce. Mentre OpenAI e Google impiegano mesi per rilasciare nuove versioni dei loro modelli, la comunità indipendente sforna innovazioni in pochi giorni.

L’open-source è più efficiente. Con tecniche come LoRA (Low-Rank Adaptation), gli sviluppatori indipendenti riescono a personalizzare modelli linguistici avanzati in poche ore, senza bisogno di enormi infrastrutture cloud.

Il costo è vicino allo zero. Niente più milioni di dollari spesi in training colossali: chiunque con un laptop può ottimizzare un modello AI e renderlo competitivo con quelli proprietari.

LORA: L’ARMA SEGRETA DELL’OPEN-SOURCE

Ecco dove la rivoluzione si fa interessante. LoRA (Low-Rank Adaptation) è la tecnologia che sta ridicolizzando le Big Tech. Invece di riaddestrare un intero modello da zero, LoRA permette di modificarlo con una quantità minima di risorse. Come funziona?

Congela il modello di base. Invece di rielaborare miliardi di parametri, LoRA blocca la maggior parte del modello e interviene solo su piccole sezioni specifiche.

Aggiunge nuovi pesi a basso rango. Questo significa che si lavora su matrici di dimensioni ridotte, riducendo drasticamente il consumo di memoria e potenza di calcolo.

Rende l’addestramento velocissimo. Invece di settimane o mesi, bastano poche ore per adattare un modello a nuove applicazioni, con risultati comparabili a quelli ottenuti con il fine-tuning tradizionale.

    In parole povere, LoRA ha reso il fine-tuning delle AI qualcosa che si può fare con un portatile in un garage. E se la storia ci ha insegnato qualcosa, è che le rivoluzioni iniziano nei garage, non nei grattacieli delle multinazionali.

    Benvenuti nella rivoluzione.

    Hugging Face e l’arte del copia-incolla: Open Deep Research, il clone express di OpenAI

    In un’epoca in cui la rapidità conta più dell’innovazione, il team di Hugging Face ha deciso di dimostrare che clonare è meglio che creare. In sole 24 oreperché perdere tempo con dettagli inutili? ha replicato il sistema Deep Research di OpenAI, ribattezzandolo con l’originalissimo nome di Open Deep Research. L’ironia del prefisso “Open” è tutta da gustare, considerando che il progetto nasce come una versione alternativa di qualcosa che, in teoria, dovrebbe già essere aperto.

    Il gioiellino di Hugging Face si distingue per la sua capacità di navigare autonomamente sul web e generare report di ricerca, un’abilità che oggi persino un adolescente con ChatGPT e un motore di ricerca potrebbe padroneggiare. Eppure, nonostante la fretta con cui è stato assemblato, Open Deep Research può già vantare un onorevole 55,15% di accuratezza nel benchmark GAIA, poco distante dal 67,36% dell’originale di OpenAI. Insomma, non è il massimo, ma nemmeno una figuraccia totale.

    DeepSeek e il Paradosso dell’Autofagia: Quando l’IA Mangia Sé Stessa

    Benvenuti nell’era dell’IA che si allena su sé stessa, creando un paradosso degno di Escher: più si ripete, meno capisce. L’Università di Pisa assieme alla Scuola Siperiore di Pisa ISTI-CNR e Victoria University, Wellington, New Zealand, ha messo il dito nella piaga con uno studio (Characterizing Model Collapse in Large Language Models Using Semantic
    Networks and Next-Token Probability
    , Gambetta, Gizem Gezici
    , Fosca Giannotti, Dino Pedreschi, Alistair Knott, Luca Pappalardo) che analizza il “model collapse“, ovvero il degrado progressivo della qualità dei modelli linguistici quando vengono addestrati con il loro stesso output. DeepSeek, il nuovo arrivato nell’arena dell’IA, ha deciso di ribaltare le fasi di training e il risultato sembra un esperimento da laboratorio di Frankenstein.

    Le sfide etiche dell’AI e la questione del Proof of Personhood

    Il concetto di Proof of Personhood (Prova di Umanità) è stato esplorato in diversi film e libri: Do Androids Dream of Electric Sheep?, Test di Voigt-Kampff” in Blade Runner, Ex Machina. The Matrix. La tematica centrale riguarda la distinzione tra esseri umani e intelligenze artificiali o entità digitali, ed è stata trattata in modo approfondito soprattutto nella fantascienza.

    Cosa significa essere umani di fronte alle nuove tecnologie?

    Il concetto di Proof of Personhood sta acquisendo una rilevanza fondamentale in un contesto globale sempre più dominato dall’intelligenza artificiale, e in particolare dalla crescente fusione tra esseri umani e macchine. In un mondo dove i bot AI, le identità sintetiche e le tecnologie deepfake stanno rapidamente invadendo gli spazi digitali, è curioso notare come, in alcuni casi, non sia più tanto rilevante identificare chi sia qualcuno, quanto piuttosto confermare se quella persona è umana. La questione quindi non riguarda tanto il “CHI SEI”, ma il “COSA SEI”.

    Perplexity AI e Super Bowl, la domanda da 1.000.000$

    Il concorso, in programma per la partita tra Kansas City e Philadelphia del 9 febbraio, è una strategia di acquisizione utenti che definire aggressiva sarebbe un eufemismo. I partecipanti possono accumulare fino a 26 iscrizioni al sorteggio attraverso un mix di download, referral e utilizzo effettivo dell’app durante il match. Purtroppo non siamo residenti USA.

    Perplexity sta cavalcando un’onda di crescita notevole, con la sua base utenti che in tre mesi è esplosa del 50%, passando da 10 a 15 milioni di utenti attivi al mese. Un dettaglio irrilevante per chi vive nel terrore di ricevere più notifiche push del dovuto, ma decisamente interessante per gli investitori, sempre a caccia del prossimo unicorno tech su cui scommettere.

    PreGPT 2.0 Privacy-First Chatbot

    Presearch ha lanciato PreGPT 2.0, un nuovo capitolo nella sfida alle Big Tech nel settore dell’AI conversazionale. Con un’infrastruttura decentralizzata, questo aggiornamento punta a ridefinire il concetto di chatbot, offrendo modelli linguistici avanzati e una maggiore varietà di soluzioni AI open-source.

    La novità più rilevante è il superamento del tradizionale approccio centralizzato: invece di operare da data center monolitici, PreGPT 2.0 sfrutta una rete distribuita di computer indipendenti. Secondo Brenden Tacon, innovation and operations lead di Presearch, questa architettura consente al chatbot di operare senza le restrizioni tipiche delle AI mainstream, spezzando il meccanismo degli algoritmi che alimentano il conformismo digitale.

    Ergonomia Cognitiva, AI e Complessità: Dal Design di Norman alla Precisione delle Macchine di Zappa

    L’intersezione tra intelligenza artificiale, ergonomia cognitiva e complessità dei sistemi è un territorio in cui il pensiero umano si scontra con i limiti e le possibilità delle macchine. Due prospettive fondamentali emergono da autori chiave: Donald Norman, Frank (Francesco) Zappa . Ognuno di loro, da un diverso angolo disciplinare, ha contribuito a ridefinire il nostro rapporto con la tecnologia, il design e l’errore.

    Aisdet Telemedicina e Responsabilità Giuridica: Prove, Accertamenti Tecnici e Distribuzione delle Responsabilità

    Oggi siamo stati invitati al convegno Medicina Digitale, Telemedicina e Responsabilità civile, moderato da Gianluca Marmorato, Coordinatore GdL Privacy AiSDeT e aperto da Massimo Caruso, Segretario generale AiSDeT.

    La digitalizzazione della sanità sta rivoluzionando il modo in cui pensiamo alla responsabilità medica. Telemedicina, intelligenza artificiale e condivisione dei dati sollevano domande cruciali: chi è responsabile se un errore di diagnosi avviene online o se un algoritmo sbaglia?

    Le normative esistenti, pensate per la medicina tradizionale, sembrano insufficienti per queste nuove realtà. Per questo motivo, eventi multidisciplinari come tavole rotonde sono fondamentali per discutere come adattare le leggi alle tecnologie emergenti e proteggere sia i pazienti che i professionisti sanitari coinvolti nei processi di cura digitale.

    È il momento di aprire un dibattito ampio e inclusivo per garantire che la medicina digitale sia sicura ed efficace. Non siamo noi di Rivista.AI dei giuristi ma proviamo a cogliere alcuni aspetti dibattuti durante l’evento.

    S1… L’intelligenza Artigianale: Come Distruggere un’Oligarchia Tech in 26 Minuti e con 50 Dollari con Qwen2.5

    Nel mondo scintillante dell’intelligenza artificiale, dove le grandi aziende si sfidano a colpi di miliardi per costruire il cervello sintetico definitivo, un gruppo di ricercatori di Stanford e dell’Università di Washington ha deciso di rovinare la festa. Con un budget ridicolo e un po’ di ingegno, hanno creato un modello AI di ragionamento che rivaleggia con OpenAI, spendendo meno di una cena in un ristorante mediocre.

    Il modello in questione, chiamato “s1” (forse per sottolineare quanto sia basilare rispetto ai colossi da miliardi di dollari), è stato addestrato con la sorprendente cifra di… 1.000 domande. Già, niente terabyte di dati segreti o infrastrutture da capogiro, solo un piccolo set di domande ben selezionate. Il tutto è costato meno di 50 dollari e ha richiesto la bellezza di 26 minuti per essere raffinato. Tempi difficili per chi ancora pensa che servano budget illimitati per ottenere risultati nel campo dell’IA.

    Cybersecurity 2024: Le 10 Tecniche di Attacco più innovative

    Il 2024 ha segnato un anno straordinario per la ricerca sulla sicurezza informatica, con un livello di innovazione senza precedenti. Dall’hijacking di OAuth ai nuovi exploit nei web server Apache, queste scoperte non solo ridefiniscono le minacce esistenti, ma introducono anche nuove classi di attacchi che i professionisti della sicurezza dovranno affrontare nei prossimi anni.

    Mattarella e i Neo-Feudatari del Terzo Millennio: l’Europa Sceglierà di Essere Protagonista o Vassallo Felice?

    Sergio Mattarella, solitamente pacato e istituzionale, il 6 febbraio 2025 all’Università di Marsiglia ha deciso di abbandonare i toni diplomatici per servire un discorso dal retrogusto amarognolo, con una stoccata elegante ma inequivocabile ai colossi della tecnologia e all’Europa sonnacchiosa.

    Ha parlato dei “neo-feudatari del Terzo millennio”, riferendosi a quei simpatici padroni delle grandi aziende tecnologiche che, mentre si proclamano innovatori e filantropi, accumulano un potere che fa impallidire persino i monarchi assoluti del passato.

    Il messaggio? Occhio, perché stiamo passando dal feudalesimo storico a una versione aggiornata in cui, invece della terra, controllano dati, informazioni e quindi le nostre vite.

    Elon Musk e X: il caos calcolato: quando il disastro diventa profitto

    Elon Musk è tornato a Washington e, come sempre, sta mettendo il governo sottosopra. Ma mentre i politici cercano di capire cosa fare con lui, Musk fa quello che gli riesce meglio: distruggere tutto per poi riassemblarlo a modo suo. La sua gestione di Twitter ora X è stata un perfetto esempio di questo approccio: ha licenziato metà dell’azienda, tagliato costi come un chirurgo impazzito e trasformato la piattaforma in una sorta di esperimento sociale ad alto rischio. Il risultato? A sorpresa, finanziariamente funziona.

    Secondo il Wall Street Journal, i numeri di X nel 2024 sono molto più solidi di quanto chiunque si aspettasse. L’azienda ha generato un Ebitda di 1,25 miliardi di dollari su un fatturato di 2,7 miliardi, con un margine del 46%. Un bel salto rispetto al Twitter pre-Musk, che nel 2021 aveva un margine del 30% su ricavi molto più alti, 5 miliardi di dollari. Il che significa che, tagliando teste e spese senza pietà, Musk ha reso X una macchina più efficiente. Certo, l’efficienza è relativa: la piattaforma è un caos, gli inserzionisti sono fuggiti in massa e il brand è diventato una sorta di zona franca per libertà di espressione spinta all’estremo.

    DeepSeek può mettere in crisi il modello di business di Scale AI?

    Scale AI è un’azienda leader nella fornitura di dati annotati per l’addestramento di modelli di intelligenza artificiale. La sua piattaforma gestisce e automatizza il processo di etichettatura dei dati, combinando annotatori umani e modelli AI per garantire dataset di alta qualità. I suoi servizi sono utilizzati da aziende tecnologiche, istituzioni governative e startup che sviluppano AI in settori come la guida autonoma, la difesa, la visione artificiale e la generazione di linguaggio naturale.

    Alexandr Wang, la cui azienda Scale AI fornisce dati di addestramento a importanti attori dell’intelligenza artificiale, tra cui OpenAI, Google e Meta, ha dichiarato giovedì che la corsa all’IA tra Stati Uniti e Cina è una “guerra dell’IA”.

    “Quello che abbiamo scoperto è che DeepSeek … è il modello con le migliori prestazioni, o approssimativamente al pari dei migliori modelli americani,” ha detto Wang.

    QE Prize a Yann LeCun: Perché i Robot Domestici e le Auto Autonome Sono Ancora un Sogno

    Yann LeCun, il guru dell’intelligenza artificiale e capo scienziato AI di Meta, ha lanciato una previsione tanto eccitante quanto inquietante: un’altra rivoluzione dell’IA è dietro l’angolo, probabilmente entro il 2030. Ma prima di sognare un maggiordomo robot che ti serve il caffè al mattino o un’auto che ti porta al lavoro senza il minimo intervento umano, c’è una piccola questione da risolvere: l’intelligenza artificiale di oggi è brillante nel manipolare il linguaggio, ma è praticamente cieca e sorda quando si tratta del mondo fisico.

    Diciamolo chiaro: questi sistemi generano frasi affascinanti, sfornano poesie e analisi finanziarie, ma se gli metti davanti una tazza e un cucchiaino, non sanno nemmeno chi dei due va dentro l’altro. Ed è esattamente il punto di LeCun. Finché l’IA non svilupperà una vera comprensione della realtà fisica, possiamo scordarci robot domestici degni di Star Wars e auto che non necessitano di piloti umani.

    Elon Musk e il Colpo di Stato Amministrativo: Il Sogno Tecnocratico Diventa un Incubo

    Elon Musk non è il presidente degli Stati Uniti, ma agisce come se lo fosse e cosa ancora più preoccupante, lo fa senza essere stato eletto, senza il consenso del Congresso e senza alcun mandato democratico. Invece, questo miliardario nato all’estero sta silenziosamente prendendo il controllo di settori chiave del governo federale, manipolando i flussi di informazioni, i sistemi di pagamento e persino la gestione del personale. È un colpo di stato amministrativo in piena regola, orchestrato con il cinismo di un magnate che si è convinto di poter riscrivere le regole a suo piacimento.

    La sua piattaforma è un’improbabile entità governativa chiamata “Department of Government Efficiency” (DOGE), un nome che, nella sua infantilità, sembra quasi uno scherzo. Ma lo scherzo, a quanto pare, è sulle istituzioni americane.

    In soli quattordici giorni, Musk ha invaso edifici governativi, annullato contratti di locazione e introdotto il suo personale—spesso giovanissimo e privo di esperienza nei centri nevralgici dell’amministrazione pubblica.

    Ha portato con sé ingegneri di Tesla e della Boring Company per effettuare licenziamenti di massa all‘Office of Personnel Management (OPM), affidando il destino di migliaia di dipendenti federali a individui che fino a poco fa erano impegnati a costruire tunnel sotto Los Angeles. (Type the word “Resign” into the “Subject” line of the email. Hit “Send”. Deferred Resignation Email to Federal Employees)

    Secondo Wired, uno dei suoi consiglieri ha appena 21 anni, mentre un altro si è diplomato lo scorso anno.

    OpenAI e Reddit: Quando l’IA Prova a Convincere i Redditori a Cambiare Idea

    Ecco una mossa che non poteva mancare: OpenAI ha deciso di testare la sua IA nel campo di battaglia per eccellenza delle opinioni online: il subreddit r/ChangeMyView, dove i post infuocati sono all’ordine del giorno e i pareri non si cambiano facilmente. E che modo migliore per mettere alla prova i modelli di ragionamento della sua intelligenza artificiale se non convincere degli utenti ostinati a rivedere le loro convinzioni?

    Nel tentativo di testare la capacità persuasiva dei suoi modelli, OpenAI ha fatto leva sulle conversazioni di r/ChangeMyView. Questo subreddit è una miniera d’oro per le aziende tecnologiche, come la stessa OpenAI, che desiderano allenare i propri modelli su dati generati da esseri umani. Gli utenti, con le loro argomentazioni spesso taglienti, sono il terreno perfetto per insegnare a un’IA a rispondere in modo convincente, sperando di trasformare le opinioni di chi è troppo testardo per cambiare idea.

    Strategia Europea per l’Intelligenza Artificiale: Equilibrio tra Regolamentazione e Innovazione

    Durante il Forum di Davos, Ursula von der Leyen ha annunciato un piano per semplificare la regolamentazione dell’Intelligenza Artificiale (AI), definito come un’agenda di “semplificazione”. Questo annuncio segna un punto cruciale nella strategia della Commissione Europea, che sta cercando di incrementare gli sforzi per competere con gli Stati Uniti e la Cina nel campo dell’AI, senza rischiare un declino industriale. Il piano punta ad affrontare in modo più equilibrato i rischi legati all’AI, offrendo una regolamentazione che non soffochi l’innovazione, pur mantenendo il controllo sulle potenziali minacce.

    IASEAI ‘25: Una Nuova Era per l’AI Sicura ed Etica nel Panorama Globale

    Il mondo dell’intelligenza artificiale (AI) si trova a un punto cruciale, poiché i progressi tecnologici accelerano e si intrecciano con le preoccupazioni etiche che plasmeranno il nostro futuro. In questo contesto, l’International Association for Safe and Ethical AI (IASEAI) è pronta a lanciare la sua conferenza inaugurale, IASEAI ‘25, il 6 e 7 febbraio 2025 a Parigi, presso la sede e il centro conferenze dell’OECD La Muette. Questo incontro, che si terrà prima del Paris AI Action Summit, segna un momento cruciale nel dibattito globale sull’AI, ponendo l’accento sulla sicurezza, l’etica e la responsabilità nello sviluppo e nell’implementazione dell’AI.

    La conferenza IASEAI ‘25 si preannuncia come un punto di incontro completo per le principali parti interessate: accademici, leader industriali, società civile, professionisti dei media e rappresentanti del governo, che condividono un impegno comune per garantire che le tecnologie AI evolvano in modi che siano benefici, sicuri e eticamente solidi. Questo evento esclusivo, che è gratuito, richiede ai partecipanti di essere invitati sulla base della presentazione di una dichiarazione di interesse o di un abstract per interventi e poster. Ci si aspetta che sia un evento di alto profilo, che attiri l’attenzione globale, con discussioni approfondite sulle sfide, i rischi e le opportunità dell’AI, e sul come costruire un futuro sicuro.

    L’Ipocrisia dell’AI: Blocchi, Censure e la Corsa Inutile al Controllo, ma mi faccia il piacere…

    Le aziende che sviluppano intelligenza artificiale vendono al pubblico l’illusione di un progresso tecnologico etico e responsabile, mentre in realtà cercano disperatamente di tappare falle che loro stesse hanno creato. OpenAI, Google e compagnia si affannano a mettere paletti per impedire agli utenti di sfruttare le loro AI per scopi “sbagliati”: niente istruzioni su armi, niente contenuti politicamente scorretti, niente risposte troppo scomode. In teoria, dovrebbero garantire un uso sicuro dei loro modelli, ma nella pratica stanno solo giocando a una partita infinita di guardie e ladri con utenti sempre più creativi nel bypassare le restrizioni.

    Dalla nascita delle prime AI generative, gli sviluppatori hanno cercato di arginare gli exploit, ma ogni barriera che alzano dura il tempo di un aggiornamento prima che qualcuno trovi un nuovo modo per aggirarla. È un teatrino dove i ruoli sono chiari: le aziende fanno finta di avere il controllo, gli utenti fanno finta di non poterlo scavalcare, e alla fine entrambi sanno che la censura perfetta non esiste.

    Google Rivede la Sua Politica sull’IA: Nuove Prospettive per Difesa e Sorveglianza

    “Riteniamo che le aziende, i governi e le organizzazioni che condividono questi valori debbano lavorare insieme per creare un’IA che protegga le persone, promuova la crescita globale e supporti la sicurezza nazionale”.

    Google Post.

    Google ha modificato la propria politica sull’intelligenza artificiale, eliminando un divieto esplicito sull’uso delle sue tecnologie per armamenti e sorveglianza. Questa decisione, avvenuta sei anni dopo l’adozione di rigide restrizioni, segna un significativo cambio di direzione e si inserisce in un più ampio contesto di ridefinizione dell’etica dell’IA da parte delle big tech. Anche OpenAI, nel corso dell’ultimo anno, ha adottato una revisione simile, segnalando un trend in crescita nel settore.

    La nuova politica di Google afferma che l’azienda impiegherà l’IA in modo responsabile, garantendo “un’adeguata supervisione umana, la dovuta diligenza e meccanismi di feedback per allinearsi agli obiettivi degli utenti, alla responsabilità sociale e ai principi ampiamente accettati del diritto internazionale e dei diritti umani”. Tuttavia, la rimozione del divieto esplicito sull’uso bellico e di sorveglianza solleva interrogativi sul livello di controllo che Google eserciterà effettivamente sui propri strumenti e sulle applicazioni sviluppate da governi o aziende partner.

    Il Fondo Sovrano Americano: Da TikTok a Stargate, la Nuova Frontiera del Capitalismo Statale

    Gli Stati Uniti e il libero mercato, una storia d’amore eterna… almeno fino a quando non serve un piccolo aiutino pubblico per finanziare il futuro dell’intelligenza artificiale. E così, tra un proclama e l’altro, Donald Trump ha lanciato l’idea di un fondo sovrano americano, suggerendo persino un investimento in TikTok. Già, perché se c’è una cosa di cui gli Stati Uniti hanno bisogno, è diventare azionisti di un’app per balletti e challenge virali.

    Ma lasciamo da parte per un attimo questa geniale intuizione e concentriamoci su qualcosa di più serio: Stargate. No, non un remake della serie sci-fi, ma il mega-progetto OpenAI-SoftBank-Oracle da 500 miliardi di dollari per la costruzione di data center destinati all’AI, annunciato dallo stesso Trump il mese scorso. Il dettaglio interessante? Non ci sono ancora dettagli. Un piccolo problema, certo, ma perché farsi fermare da simili banalità?

    Verizon e Google: quando l’AI diventa una promozione da supermercato

    I chatbot AI conversazionali hanno finalmente raggiunto la loro consacrazione aziendale: ora vengono impacchettati come gadget promozionali nei piani wireless, proprio come una volta si faceva con le suonerie polifoniche o gli SMS illimitati. Verizon, con un colpo di genio degno di un reparto marketing disperato, ha annunciato che offrirà ai suoi clienti l’abbonamento all’AI di Google alla modica cifra di 10 dollari al mese, metà del prezzo ufficiale.

    Un affare imperdibile, almeno sulla carta. Ma siamo sicuri che cambierà qualcosa per Google o per Verizon? Il colosso delle telecomunicazioni ha già provato a ingolosire i suoi clienti con sconti su servizi di streaming come Netflix e Max di Warner Bros. Discovery, con risultati discutibili. Il processo di attivazione è tutto fuorché intuitivo: il cliente deve prima aderire all’offerta di Verizon, poi creare un account per ciascun servizio separatamente, con un livello di frustrazione che potrebbe fargli rimpiangere i tempi in cui bastava attivare un decoder satellitare.

    La Follia del Capex AI: Una Corsa Senza Freni Verso l’Infinito (E Oltre)

    L’industria tecnologica sembra aver perso ogni freno inibitorio quando si parla di spese in conto capitale. Alphabet, la casa madre di Google, ha deciso di stanziare 75 miliardi di dollari in capex per il 2025, un aumento del 43% rispetto all’anno precedente. Il che significa una cosa sola: la guerra dell’AI non è solo iniziata, è diventata una corsa a chi brucia più velocemente miliardi su miliardi per costruire il futuro. E non è certo sola in questo delirio.

    Microsoft, con i suoi 80 miliardi di dollari destinati alla costruzione di data center AI nel suo anno fiscale, gioca il ruolo del gigante che non vuole farsi soffiare la corona. Meta, sempre con il sogno del metaverso in fondo alla testa ma ormai consapevole che l’AI è il vero campo di battaglia, è pronta a mettere sul piatto 65 miliardi di dollari. Amazon? Nessun problema, la sua macchina da soldi è più che capace di reggere il ritmo con 75 miliardi di dollari previsti per il 2024, e probabilmente ancora di più quest’anno.

    Trump Invoca una Legge del XVIII Secolo per Accelerare le Deportazioni: Una Mossa Controversa

    Il presidente Donald Trump sta valutando l’uso dell’Alien Enemies Act del 1798 per accelerare le deportazioni di immigrati irregolari. Questa legge, parte delle Alien and Sedition Acts, concede al presidente l’autorità di deportare o detenere cittadini di nazioni ostili durante periodi di guerra. Storicamente, è stata invocata solo tre volte: durante la Guerra del 1812, la Prima Guerra Mondiale e la Seconda Guerra Mondiale, per gestire cittadini di paesi nemici residenti negli Stati Uniti.

    L’intenzione di Trump di utilizzare questa legge per giustificare deportazioni di massa ha suscitato un acceso dibattito. Secondo esperti legali, l’applicazione dell’Alien Enemies Act richiede una dichiarazione formale di guerra o l’esistenza di ostilità con un’altra nazione. Attualmente, gli Stati Uniti non sono in guerra con alcun paese, il che rende discutibile la legittimità dell’uso di questa legge per le deportazioni. Inoltre, la legge è stata storicamente utilizzata per detenere cittadini di nazioni con cui gli Stati Uniti erano in conflitto armato, non per gestire l’immigrazione irregolare in generale.

    L’Intensità di Capitale dell’IA Supera il Superciclo degli Investimenti nel Settore Petrolifero

    Negli ultimi anni, l’industria tecnologica ha intrapreso una massiccia ondata di investimenti nell’intelligenza artificiale (IA), superando in intensità di capitale il precedente superciclo di investimenti delle aziende petrolifere e del gas. Secondo un’analisi di Capital IQ, le principali aziende tecnologiche stanno destinando risorse finanziarie senza precedenti per sviluppare e implementare soluzioni basate sull’IA, segnando una svolta significativa nella distribuzione del capitale a livello globale.

    Questo fenomeno ricorda i massicci investimenti effettuati dalle compagnie petrolifere durante i periodi di espansione dell’industria energetica. Tuttavia, mentre gli investimenti nel settore petrolifero erano principalmente orientati all’estrazione e alla produzione di risorse fisiche, gli attuali investimenti nell’IA sono focalizzati sulla costruzione di infrastrutture digitali, come data center avanzati e potenti sistemi di calcolo. Ad esempio, aziende come Amazon e Microsoft potrebbero spendere circa 3 trilioni di dollari entro il 2030 per costruire e gestire data center dedicati all’IA, secondo il BlackRock Investment Institute.

    Questa nuova ondata di investimenti è alimentata dalla crescente domanda di applicazioni basate sull’IA in vari settori, dalla sanità alla finanza, dalla logistica all’intrattenimento. Le aziende stanno riconoscendo il potenziale trasformativo dell’IA e stanno allocando capitali significativi per assicurarsi una posizione di leadership in questo campo emergente. Tuttavia, questo approccio comporta anche rischi considerevoli, poiché il rapido avanzamento tecnologico potrebbe rendere obsolete alcune soluzioni prima che gli investimenti possano generare ritorni significativi.

    Inoltre, l’implementazione diffusa dell’IA richiede un consumo energetico sostanziale, spingendo le aziende a investire anche in fonti di energia rinnovabile per alimentare le loro infrastrutture. Ad esempio, Sultan al-Jaber, CEO della compagnia petrolifera nazionale di Abu Dhabi, Adnoc, ha affermato che la rapida crescita dell’IA sta incentivando le grandi compagnie petrolifere a investire pesantemente nelle energie rinnovabili.

    Ecco come risparmiare sull’AI per la ricerca online senza svuotare il portafoglio!

    Paperron de Paperoni, sempre alla ricerca del modo migliore per risparmiare qualche centesimo, ha finalmente trovato un’alternativa più conveniente a quelle costosissime piattaforme di ricerca AI. La recente innovazione di OpenAI, il suo agente Deep Research, promette di rivoluzionare il modo in cui raccogliamo dati online, analizzando autonomamente risposte e fornendo documenti completi su qualsiasi argomento. Peccato che per usarlo ci vogliano 200 dollari al mese! Ma, come tutti ben sanno, “la qualità ha il suo prezzo”… o almeno, così dicono quelli che non hanno trovato alternative più economiche.

    L’Europa Regola l’AI con il Mito della Sicurezza, Mentre Trump Prepara la Vendetta

    L’Unione Europea prosegue imperterrita nel suo sogno di diventare la paladina della regolamentazione dell’intelligenza artificiale, incurante delle possibili ripercussioni. Mentre Bruxelles si prepara a pubblicare nuove linee guida per vietare alcuni utilizzi dell’AI, Donald Trump avverte che la crociata contro le aziende tecnologiche americane non rimarrà impunita.

    Il tanto decantato AI Act, approvato nel 2023, è stato celebrato come il regolamento più avanzato al mondo, ma nei fatti si traduce in una serie di ostacoli burocratici che rischiano di paralizzare l’innovazione. Da domenica, alcune pratiche, come il data scraping per il riconoscimento facciale, sono ufficialmente vietate. Nei prossimi anni, altre restrizioni colpiranno modelli di AI di grandi dimensioni e applicazioni considerate “ad alto rischio”, in settori come la sanità.

    L’AI Non ci mangerà… Ma solo perché non ne ha bisogno, parola di Masayoshi Son

    Masayoshi Son, CEO di SoftBank, ha tranquillizzato tutti: l’intelligenza artificiale non ci mangerà. Non perché ci voglia bene, non perché abbia un’etica, ma semplicemente perché non funziona a proteine. “Se la loro fonte di energia fosse proteine, allora sarebbe pericoloso,” ha spiegato Son, con la serena consapevolezza di chi sta costruendo il futuro dell’umanità con la stessa nonchalance con cui si investe in una startup di delivery.

    A fargli eco, Sam Altman di OpenAI, che durante il loro incontro a Tokyo ha rassicurato il pubblico su un altro aspetto: l’AI non ruberà nemmeno il lavoro, perché, tanto, l’umanità trova sempre qualcosa da fare. Certo, come no. Così come i tessitori del XIX secolo hanno trovato facilmente impiego quando i telai automatici hanno fatto il loro ingresso trionfale nelle fabbriche. O come i lavoratori del call center quando sono arrivati i chatbot. Il progresso non si ferma mai: l’importante è che la gente continui a essere ottimista mentre l’AI riscrive le regole del gioco.

    OpenAI e il Grande Inganno dell’Intelligenza Artificiale: Un Business da 4 Miliardi e Nuove Minacce all’Orizzonte

    L’industria dell’intelligenza artificiale non è mai stata così redditizia, almeno per chi sta dalla parte giusta della storia o meglio, della cassa. OpenAI ha chiuso l’anno con numeri che farebbero impallidire anche il più spietato venture capitalist: gli abbonamenti a pagamento di ChatGPT sono quasi triplicati, passando da 5,8 milioni a 15,5 milioni di utenti, garantendo un flusso di cassa mensile di almeno 333 milioni di dollari. Se si moltiplica questa cifra per 12, il conto è semplice: parliamo di almeno 4 miliardi di dollari all’anno.

    Pagina 9 di 33

    CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie