Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Categoria: Cultura Pagina 1 di 11

Interviste – (DEI) diversità, equità e inclusione – Impatti Sociali ed Etici – Futuro e Prospettive – Legislazione e Regolamentazione -Educazione e Formazione – Lavoro e Formzione

8 Marzo L’inclusione nell’era dell’intelligenza artificiale: tra esclusione sistemica e nuovi orizzonti epistemici

Limitare la riflessione sul ruolo delle donne all’8 marzo significa tradire la complessità storica di un’emancipazione che ha attraversato secoli di lotte, pensiero critico e trasformazioni sociali. Se oggi il dibattito sull’inclusione interseca l’intelligenza artificiale, non è per una questione meramente etica, ma per una necessità strutturale: la tecnologia non è neutra, e il modo in cui viene progettata, implementata e regolata riflette dinamiche di potere consolidate.

Mentre il mondo celebra la Giornata Internazionale della Donna l’8 marzo, le Nazioni Unite ci ricordano che siamo lontani anni luce dall’uguaglianza di genere. Secondo il Segretario Generale António Guterres, i diritti delle donne sono sotto attacco globale, con progressi conquistati con fatica che svaniscono davanti ai nostri occhi.

The Ethics of Artificial Intelligence: Exacerbated Problems, Renewed Problems, Unprecedented Problems – LucianoFloridi

AI: Il Sogno Elettrico È Già Incubo? Problemi Esacerbati, Ombre Rinnovate, Orrori Inauditi (citando Floridi)

Intelligenza Artificiale, IA, si dice… Una forza. Una promessa. Ma se fosse… altro? Una morsa. Un inganno. Il mondo cambia, veloce. Forse troppo. Problemi etici? Non solo. Incubi. Domande che nessuno vuole porre. Luciano Floridi, nel suo “The Ethics of Artificial Intelligence: Exacerbated Problems, Renewed Problems, Unprecedented Problems” (American Philosophical Quarterly, 2024), lo dice chiaro: stiamo aprendo un vaso di Pandora.

Artificial intelligence, il fantasma che si aggira nel regno digitale, sta rapidamente trasformando il nostro mondo, infiltrandosi in ogni aspetto della vita umana. Questa nuova Prometeo tecnologica promette avanzamenti senza precedenti, ma al tempo stesso spalanca il vaso di Pandora delle questioni etiche, richiedendo una riflessione filosofica profonda. Come sottolinea Luciano Floridi nella sua opera “The Ethics of Artificial Intelligence: Exacerbated Problems, Renewed Problems, Unprecedented Problems”, ci troviamo di fronte a una convergenza di problemi etici esasperati, rinnovati e completamente inediti.

Le storie dell’AI: utopia, potere e l’impatto della tecnologia sulla forza lavoro

La storia è da sempre un motore di potere e influenza nelle società umane, e se Platone avesse ragione, oggi le storie che vengono raccontate sull’intelligenza artificiale (AI) potrebbero determinare chi governa e come viene governato il futuro. In un’epoca in cui il dibattito sull’AI è sempre più acceso e articolato, le narrative si moltiplicano, spesso con obiettivi opposti e a volte contrastanti, a seconda di chi le racconta. Gli sviluppatori di modelli di AI, le aziende che li applicano, i governi e gli utenti finali sono tutti protagonisti di una trama che cambia rapidamente. E, mentre tutti questi attori raccontano storie sull’AI, la domanda che emerge è chi, alla fine, avrà il controllo e come ciò influenzerà il futuro del lavoro e della società.

La grande mutazione del potere: l’intelligenza artificiale al comando

Il “War for Intelligence” segna un cambio di paradigma radicale rispetto al passato. Nel “War for Talent”, le aziende facevano di tutto per attrarre i migliori talenti, creando ambienti di lavoro confortevoli e pieni di benefit. Ma ora, nella guerra per l’intelligenza, il vero rivale non è più l’individuo, ma i sistemi informatici. L’intelligenza artificiale, in grado di lavorare 24 ore su 24 a una frazione dei costi umani, sta oscurando rapidamente il valore del talento umano.

Un cambio di potere che ormai non può più essere ignorato. Le aziende, una volta costrette a competere per i migliori professionisti, ora si trovano in una posizione di dominio, dove le macchine sono i veri protagonisti e l’essere umano è relegato a un ruolo secondario. L’aspetto interessante di questo scenario non è solo la sostituzione di lavoratori con macchine, ma la progressiva trasformazione della cultura aziendale e sociale, dove il potere ritorna nelle mani di chi controlla la tecnologia.

Governi e la corsa per l’IA: un gioco a somma zero?

La corsa globale per la supremazia nell’intelligenza artificiale (IA) è diventata una questione geopolitica di grande rilevanza. I governi di tutto il mondo percepiscono l’IA come una battaglia in cui chi vince prende tutto, con la paura di essere sorpassati dai loro avversari internazionali. Una competizione alimentata dall’alta posta in gioco che l’IA può avere nel rivoluzionare economie, industrie e capacità militari. Tuttavia, la situazione potrebbe non essere così semplice come sembra. Mentre le nazioni puntano sullo sviluppo dei modelli di IA, il vero potere potrebbe risiedere non tanto nei modelli stessi, quanto nell’intero ecosistema che li circonda.

Il vero valore: gli ecosistemi più che i modelli

I modelli di IA sono incredibilmente complessi e costosi da sviluppare e mantenere. Le spese necessarie per costruire, addestrare e affinare questi modelli possono essere astronomiche, e il loro valore tende a diminuire nel tempo. In altre parole, i modelli di IA sono destinati a diventare delle merci, simili a come le compagnie telefoniche di un tempo sono diventate “reti stupide” infrastrutture essenziali, ma non più particolarmente redditizie. Il vero valore della rivoluzione dell’IA risiede nell’ecosistema che circonda i modelli: l’hardware, i data center, le applicazioni software e i servizi che rendono questi modelli utilizzabili, scalabili e adattabili alle applicazioni reali.

La fase di avidità nell’intelligenza artificiale: le previsioni di Vinod Khosla sulla sostenibilità degli investimenti

Vinod Khosla, un nome di spicco nel panorama degli investimenti tecnologici e uno dei primi finanziatori di OpenAI, ha recentemente espresso preoccupazioni riguardo agli sviluppi del mercato dell’intelligenza artificiale (AI) e le implicazioni economiche che potrebbero derivare da un ciclo di “avidità”. Secondo Khosla, la fase di “avidità” rappresenta quel periodo in cui gli investitori, spinti dall’entusiasmo per le promettenti possibilità offerte dall’AI, rischiano di fare investimenti impulsivi e poco strategici. Questo fenomeno potrebbe portare a perdite considerevoli quando il mercato, che sta vivendo un periodo di euforia, si stabilizzerà e l’industria non sarà in grado di mantenere le altissime aspettative generate.

Il premio Turing va a chi la inventa, Andrew Barto e Richard Sutton, ma il vero business è venderla senza testarla

Andrew Barto e Richard Sutton, due pionieri dell’intelligenza artificiale, hanno ricevuto il prestigioso Premio Turing per aver sviluppato il “reinforcement learning”, una tecnica di apprendimento automatico che permette all’IA di affinare le proprie decisioni tramite tentativi ed errori. Un metodo che ha reso possibili colossi come AlphaGo di Google e ChatGPT di OpenAI. Eppure, invece di celebrare con entusiasmo, i due scienziati hanno deciso di usare il palco per lanciare un avvertimento: le aziende tecnologiche stanno rilasciando modelli IA senza alcun vero controllo, con la stessa logica di chi costruisce un ponte e lo collauda facendoci passare sopra la gente.

L’emozione lineare: la frizione tra umani e IA

Il lato emotivo dell’intelligenza artificiale è probabilmente uno dei più sottovalutati, e non mi riferisco solo al concetto di “grande distacco”. Da tempo è noto che l’IA sta imparando a leggere, riconoscere e reagire alle nostre emozioni, e che può mostrare empatia e calma in situazioni in cui un dipendente umano potrebbe aver già perso la pazienza. È anche noto che, a volte, gli esseri umani preferiscono interagire con i chatbot, trovandoli più empatici rispetto agli umani, finché non scoprono che stavano interagendo con una macchina, momento in cui la situazione cambia radicalmente.

Potremmo obiettare che questo accade solo perché non siamo ancora abituati a questa dinamica. Un tempo, ad esempio, le amicizie online o qualsiasi cosa accadesse nel contesto digitale venivano etichettate come “non reali”, ma oggi non usiamo più molto i termini “virtuale” o “online”. Ci siamo abituati ai social media e ora, lentamente, ci abitueremo anche agli “umani” creati dall’IA. Ma è davvero così semplice?

REPLICA

La possibilità di sostituire o integrare l’intelligenza umana con l’intelligenza artificiale è un tema ormai noto, ma ciò che affascina ancor di più è l’idea di replicazione: l’aggiunta di uno strato di “intelligenza” capace di duplicare un essere umano, o addirittura riempire vuoti, come nel caso delle persone sole che trovano compagnia in un “amico” virtuale. In questo scenario, il mondo della moda e del lusso si sta adattando rapidamente a questa nuova realtà, con impatti che potrebbero trasformare non solo l’esperienza del consumatore, ma anche la struttura stessa dell’industria.

Un esempio interessante di come l’AI possa essere usata per “replicare” l’esperienza umana arriva direttamente dalla CIA, che ha sviluppato un chatbot in grado di far “entrare nella testa” dei leader mondiali, come presidenti e primi ministri, per prevedere come reagirebbero in determinate situazioni.

Questo tipo di intelligenza artificiale potrebbe aprire la strada alla sostituzione di figure politiche con sistemi AI, inoltre un’altra idea quella se applicata al mondo del lusso e della moda, potrebbe portare alla creazione di figure virtuali di designer, brand ambassador o persino stilisti che agiscono al posto degli esseri umani. Un sistema completamente automatizzato, capace di replicare l’aspetto e il comportamento di un “esperto” del settore, potrebbe influenzare le scelte dei consumatori senza la necessità di una persona fisica dietro al brand, oppure mantenere “l’HERITAGE” del brand perennemente.

Google, Sergey Brin e il paradosso del potere: perché non impone ciò che suggerisce?

Sergey Brin, co-fondatore di Google, è ancora uno dei due uomini che controllano il colosso tecnologico. L’ultima volta che qualcuno ha dato un’occhiata ai numeri, Brin deteneva una quota di voto del 25%, mentre Larry Page ne aveva persino di più. Quindi, se Brin è convinto che il team Gemini dovrebbe lavorare più ore e tornare in ufficio ogni giorno, come riportato dal New York Times, perché non lo ordina e basta? Qual è il punto di lanciare suggerimenti vaghi invece di imporre una direttiva chiara?

Ipnocrazia: come Trump e Musk stanno ridisegnando la realtà

Jianwei Xun è un analista culturale e filosofo nato a Hong Kong il cui lavoro collega i mondi dei media, della teoria narrativa e della filosofia. Con un background in filosofia politica e studi sui media presso l’Università di Dublino, Xun ha trascorso anni come consulente su narrazioni strategiche per istituzioni globali prima di dedicarsi alla scrittura.

Ipnocrazia“. Un titolo che promette di svelare i misteri della manipolazione moderna, con Trump e Musk come architetti di una nuova realtà. Jianwei Xun, un giovane prodigio già acclamato come l’erede di Baudrillard e Byung-Chul Han, ci offre una “mappa inedita” del potere contemporaneo.

Brain-Computer Interface (BCI): Luciano Floridi, vulnerabilità e rischi cibernetici dei dispositivi neurali di nuova generazione

Luciano Floridi, insieme al team di ricerca della Yale University e University of Bologna, ha firmato un contributo straordinario nel campo della sicurezza informatica applicata alle Brain-Computer Interface (BCI). Il loro modello di threat assessment, presentato nello studio sulle vulnerabilità delle BCI, si distingue per la sua innovatività e per la capacità di affrontare un problema ancora poco esplorato: la difesa dei dispositivi neurali dalle minacce cyber.

Floridi, noto per il suo lavoro pionieristico in etica digitale e filosofia dell’informazione, ha contribuito a un’analisi che va oltre la semplice identificazione dei rischi. Il modello sviluppato dal suo team adotta un approccio multidimensionale, combinando elementi di cybersecurity, neuroetica e regolamentazione medica per costruire un framework di sicurezza che tiene conto delle specificità biologiche e tecnologiche delle BCI.

L’elemento davvero innovativo del loro lavoro sta nell’applicazione del Common Vulnerability Scoring System (CVSS), un framework normalmente usato per classificare i rischi informatici tradizionali, alle minacce uniche delle BCI. Questo consente di quantificare il livello di pericolo di ogni vulnerabilità, dalle manipolazioni neurali involontarie agli attacchi remoti, fornendo una roadmap chiara per la sicurezza di questi dispositivi.

Floridi e il suo team non si limitano a descrivere i problemi, ma propongono soluzioni concrete: autenticazione avanzata, crittografia dei dati cerebrali e riduzione della superficie d’attacco delle BCI. Il risultato è un framework che potrebbe diventare lo standard di riferimento per la sicurezza delle interfacce neurali, un campo destinato a crescere esponenzialmente nei prossimi anni.

Il contributo di Floridi in questo studio non è solo accademico, ma ha un impatto pratico e urgente. Con l’avanzata di aziende come Neuralink e lo sviluppo delle BCI di nuova generazione, il lavoro della Yale University arriva al momento giusto per guidare il futuro di questa tecnologia con un equilibrio tra innovazione e protezione della persona. Un modello brillante, destinato a lasciare il segno.

Accademia dei Lincei: Intelligenza Artificiale il futuro della ricerca


Martedì 25 febbraio 2025 – Nel corso del convegno organizzato dal Gruppo 2003 in collaborazione con l’Accademia dei Lincei, esperti di diversi settori scientifici si sono confrontati sulle potenzialità e le sfide poste dall’Intelligenza Artificiale nell’ottimizzazione dei processi di ricerca.

L’evento, svoltosi a Roma, ha messo in luce come l’IA stia trasformando non solo le discipline tradizionali, ma anche i metodi di simulazione e analisi in settori quali fisica, chimica, meteorologia e medicina.

L’ALGORITMO DELL’UGUAGLIANZA. Intelligenza Artificiale, Diritti della Persona, Crescita delle Imprese

Nel panorama sempre più sfaccettato e contraddittorio del dibattito sull’Intelligenza Artificiale, il professor Ruben Razzante, esperto di Diritto dell’Informazione e docente all’Università Cattolica del Sacro Cuore di Milano, propone un’opera che si pone in netta controtendenza rispetto alle narrazioni sensazionalistiche e alle semplificazioni riduzionistiche.

Il volume “L’Algoritmo dell’Uguaglianza. Intelligenza Artificiale, diritti della persona, crescita delle imprese“, curato dallo stesso Razzante, si articola come una polifonia di voci autorevoli, ciascuna chiamata a riflettere, con rigore e consapevolezza critica, sulla tensione tra progresso tecnologico e salvaguardia dei diritti fondamentali dell’individuo.

La prefazione è stata scritta dalla senatrice a vita Liliana Segre, sottolineando l’importanza di usare meglio l’AI per combattere i discorsi d’odio online e ogni forma di discriminazione. Il suo obiettivo è “[…] costruire un futuro digitale e sociale più inclusivo, civile e democratico, trasformando il web in uno spazio sicuro, di interazione formativa e informativa”.

Intelligenza Artificiale e Demenza Digitale: Quando i Chatbot dimenticano di essere macchine

In un mondo sempre più dominato dall’intelligenza artificiale, arriva una ricerca che potrebbe far crollare qualche certezza. Un gruppo di neurologi israeliani e britannici ha deciso di sottoporre alcuni dei più avanzati modelli di linguaggio artificiale – ChatGPT 4 e 4o di OpenAI, Claude 3.5 di Anthropic e Gemini 1.0 e 1.5 di Alphabet – al test cognitivo Montreal Cognitive Assessment (MoCA), lo stesso utilizzato per diagnosticare il decadimento cognitivo lieve negli esseri umani. I risultati? Ecco l’amara verità: anche le macchine invecchiano e, a quanto pare, lo fanno pure male.

ChatGPT 4o si è piazzato al primo posto con un punteggio di 26 su 30, appena sufficiente per non essere considerato “cognitivamente compromesso”. Seguono ChatGPT 4 e Claude con 25 punti. Ma è con Gemini 1.0 che la situazione si fa drammatica: un punteggio di 16 su 30, un risultato che nei pazienti umani potrebbe indicare uno stato di decadimento cognitivo avanzato. In altre parole, Gemini 1.0 si comporta come un anziano paziente smemorato e confuso.

Richard Stallman e l’Intelligenza Artificiale: il ribelle contro il progresso

Richard Stallman non ha bisogno di presentazioni, ma di un aggiornamento software forse sì. Classe 1953, programmatore, informatico e attivista statunitense, è noto per essere uno dei principali esponenti del movimento del software libero. La sua carriera iniziò al laboratorio di intelligenza artificiale del MIT, dove sviluppò l’editor di testi Emacs nel 1975. Poi, nel settembre 1983, lanciò il progetto GNU con l’obiettivo di creare un sistema operativo completamente libero da copyright, e da allora ha insistito ossessivamente sul fatto che Linux a meno che non si parli esclusivamente del kernel – debba essere chiamato GNU/Linux. Una crociata quasi religiosa, che ancora oggi lo porta a rimarcare questa differenza con una passione degna di miglior causa.

Giorgio Parisi: “Per un’Intelligenza Artificiale democratica, derve un Centro di Ricerca Europeo”

Il 14 febbraio 2025, presso il Palazzo Corsini a Roma, l’Accademia Nazionale dei Lincei ha ospitato una conferenza istituzionale tenuta dal Professor Giorgio Parisi, Premio Nobel per la Fisica nel 2021 e Presidente emerito dell’Accademia. Durante l’evento, Parisi ha affrontato temi cruciali riguardanti l’intelligenza artificiale (IA) e la necessità di un approccio pluralistico per evitare monopoli del sapere.

Parisi ha sottolineato l’importanza di basare l’addestramento dei sistemi di IA su contenuti affidabili e di promuovere la diversità nei modelli di intelligenza artificiale. Secondo il fisico, “l’ideale sarebbe non avere un singolo modello, ma tanti modelli che si confrontano l’uno con l’altro”. Questa pluralità permetterebbe un confronto costruttivo tra diversi sistemi, riducendo il rischio di un monopolio del sapere.

Chi è un Eticista dell’Intelligenza Artificiale?

Nel corso dell’ultimo decennio, la figura dell’eticista dell’intelligenza artificiale ha visto una crescita significativa nel mercato ICT. Nonostante ciò, sono pochi gli studi che si sono interessati a questo profilo professionale e che abbiano fornito una discussione normativa sulle sue competenze e abilità.

Who is an AI Ethicist? An empirical study of expertise, skills, and profiles to build a competency framework, disponibile su: Springer Nature Link.

L’articolo di Mariangela Zoe CocchiaroJessica MorleyClaudio Novelli
Enrico PanaiAlessio Tartaro & Luciano Floridi  intende avviare questa discussione, analizzando l’importanza di definire con maggiore precisione il ruolo di questo professionista e le competenze richieste.

Gli autori sostengono che gli eticisti dell’intelligenza artificiale dovrebbero essere esperti e che esista un metodo utile per identificarli. Il focus dell’articolo è specificamente sulle competenze morali degli eticisti dell’intelligenza artificiale, prendendo spunto da parallelismi con l’esperienza degli eticisti in ambito sanitario e dalla letteratura bioetica.

Vengono esplorate le differenze tra gli eticisti nell’ambito sanitario e quelli nell’ambito dell’IA, derivando competenze e abilità sulla base dei ruoli che un eticista dell’IA dovrebbe ricoprire all’interno di un’organizzazione.

Elogio del Multitasking Divino: Musk, il Filantropo del Profitto

Elon Musk è come un supereroe in pensione che non riesce a stare lontano dai guai. Mentre la gente normale lotta per rispondere alle e-mail senza dimenticare le Gocciole mascarpone e cioccolata nel microonde, lui riesce a gestire Tesla, SpaceX, una crociata pro-DOGE per abbattere i costi della campagna di Trump e, come ciliegina sulla torta, un’offerta da 97,4 miliardi di dollari per impossessarsi delle attività di OpenAI. Il Wall Street Journal ha lanciato la bomba, e il mondo della tecnologia ha trattenuto il fiato: Musk sta cercando di prendersi tutto, di nuovo. Anche se…:

C’è da ammirare la finezza strategica. Un tempo Musk era il generoso benefattore di OpenAI, una non-profit con l’ambiziosa missione di garantire che l’intelligenza artificiale non finisse nelle mani sbagliate (ironico, vero?). Poi OpenAI ha deciso di convertirsi in un’entità a scopo di lucro, e Musk si è sentito tradito.

Invece di accettare la sconfitta, ha optato per la sua arma preferita: l’aula di tribunale. La sua battaglia con Sam Altman sembrava destinata a un triste epilogo la scorsa settimana, quando un giudice californiano ha fatto capire che difficilmente avrebbe bloccato la conversione. Ma ecco il colpo di scena: invece di piagnucolare, Musk ha risposto con una mossa magistrale.

Sam Altman Blog: L’era dell’Intelligenza Artificiale Generale: Il Punto di Svolta Economico e Sociale

Dal suo blog.

L’umanità è sempre stata un costruttore di strumenti, unita da un’inesauribile spinta verso l’innovazione. L’intelligenza artificiale generale (AGI) si profila come l’ultimo tassello di un progresso che ha visto l’energia elettrica, il transistor, il computer e Internet ridefinire il nostro modo di vivere. Tuttavia, questa volta potrebbe davvero essere diverso: le implicazioni economiche e sociali dell’AGI sono destinate a superare ogni previsione.

Le più recenti osservazioni sullo sviluppo dell’IA suggeriscono tre principi fondamentali: il livello di intelligenza di un modello AI cresce in modo logaritmico rispetto alle risorse impiegate nel suo addestramento; il costo di utilizzo di un livello dato di intelligenza AI si riduce di un fattore 10 ogni 12 mesi; e il valore socioeconomico dell’intelligenza aumenta in modo super-esponenziale rispetto alla sua crescita lineare. Questi trend stanno ridisegnando il paradigma economico, con la possibilità di una crescita senza precedenti e di una riduzione drastica dei costi in settori chiave.

Von Neumann e il MANIAC: Il Matematico che Insegnò al Mondo come Distruggersi

John von Neumann, genio matematico e architetto della moderna computazione, fu una delle menti dietro il MANIAC (Mathematical Analyzer Numerical Integrator and Computer), il computer che permise di progettare la bomba all’idrogeno. Un dettaglio di poco conto, se non fosse che questa bomba fu testata nel 1952 con la stessa impassibile precisione con cui si risolvono equazioni differenziali.

Von Neumann non era solo uno scienziato: era il simbolo di un’epoca in cui il progresso tecnologico e la distruzione di massa erano due facce della stessa moneta. La Guerra Fredda lo adorava, e lui ricambiava con entusiasmo, suggerendo perfino attacchi preventivi contro l’URSS, per evitare il fastidio di una guerra nucleare combattuta ad armi pari. Kubrick, con il suo film “Il Dottor Stranamore”, colse alla perfezione il paradosso: un mondo governato da menti brillanti, ma prive di ogni freno morale.

Il Leviatano Industriale Cinese: la morsa delle ecosfere tecnologiche

La Cina non ha semplicemente costruito un’industria degli smartphone, una delle batterie o dei veicoli elettrici: ha messo in piedi un’intera macchina industriale interconnessa, dove ogni settore rafforza l’altro in un ciclo vizioso che lascia poco spazio ai concorrenti globali. La sua strategia non è solo quella di dominare un singolo settore, ma di costruire un sistema industriale che si auto-alimenta, creando barriere all’ingresso insormontabili per i rivali occidentali, impantanati nella loro frammentazione e dipendenza dalle supply chain internazionali.

Un ecosistema di fabbriche-matrioska

Per comprendere il modello cinese, immaginiamo un puzzle industriale: più pezzi un Paese ha già in casa, più facile è completare l’immagine senza dover importare pezzi critici dall’estero. La Cina ha costruito un sistema in cui ogni settore industriale alimenta il successivo, con un effetto di spillover che rafforza l’intero apparato produttivo. Quando il Dragone investe in un settore, non lo fa mai in modo isolato. Ogni yuan iniettato nell’industria delle batterie, ad esempio, finisce per potenziare quella degli smartphone, dell’auto elettrica, delle reti 5G e dell’intelligenza artificiale.

Il Summit di Parigi sull’intelligenza artificiale!

Un evento che promette di salvare il mondo con un fiume di parole altisonanti e una goccia di azioni concrete. La bozza trapelata della dichiarazione che i paesi dovranno firmare è un capolavoro di retorica vuota, un inno alla “diversità”, all'”inclusività” e alla “sostenibilità”, termini così abusati da aver perso qualsiasi significato reale. Ma, sorpresa, sorpresa, non c’è quasi nulla sui rischi reali dell’AI. Che shock!

Herbie Bradley, ex dipendente dell’AI Safety Institute del Regno Unito, ha definito la bozza “un esercizio di banalità”, sottolineando che non contiene nulla di concreto. E chi lo avrebbe mai detto? Un documento pieno di buoni sentimenti ma privo di sostanza? Mai visto prima. E poi c’è il dubbio che l’amministrazione Trump possa rifiutarsi di firmare, perché, beh, “diversità” e “inclusività” non sono esattamente il loro forte. Che tragedia per gli organizzatori francesi, che probabilmente stanno già preparando il vino per celebrare il loro successo.

Stalinismo vs Meccanica Quantistica: lezioni per l’AI tra USA, Cina e OpenAI

Per comprendere DeepSeek e, più in generale, la strategia cinese sull’intelligenza artificiale, dobbiamo adottare una prospettiva coerente con la storia politica e culturale della Cina, piuttosto che filtrarla attraverso il paradigma occidentale.

La Cina non considera la tecnologia come un’entità indipendente o neutrale, ma come uno strumento strategico per il rafforzamento nazionale. Il concetto di “controllo tecnologico come sovranità” è profondamente radicato nella visione del Partito Comunista Cinese (PCC), che da decenni sviluppa politiche industriali mirate a ridurre la dipendenza dal know-how occidentale e a costruire un ecosistema autonomo di innovazione.

DeepSeek non è solo una startup di intelligenza artificiale, ma parte di un sistema più ampio in cui il governo guida, incentiva e, se necessario, indirizza lo sviluppo tecnologico per scopi strategici. Questo è un approccio molto diverso da quello occidentale, dove l’innovazione nasce spesso in ambienti privati con una logica di mercato più fluida e competitiva. In Cina, l’IA non è vista solo come un’opportunità economica, ma come uno strumento di governance, sicurezza e proiezione di potenza globale.

Dal punto di vista occidentale, l’idea che un governo possa avere un controllo così pervasivo sulla tecnologia è spesso percepita come una minaccia o un’anomalia. Tuttavia, per la Cina, questa visione non è né nuova né innaturale. La storia cinese è caratterizzata da un’idea di Stato forte, che guida lo sviluppo in modo coordinato e di lungo termine, a differenza del modello frammentato occidentale, che si affida maggiormente al libero mercato e all’iniziativa privata.

Se osserviamo DeepSeek con gli occhi della Cina, vediamo un tassello di una strategia più ampia che include il piano Made in China 2025, gli investimenti governativi nelle tecnologie emergenti e la creazione di una supply chain indipendente per semiconduttori e intelligenza artificiale. Questa visione non si basa su una corsa alla leadership tecnologica fine a sé stessa, ma sulla convinzione che il dominio nell’IA sia essenziale per consolidare il modello politico cinese e garantirne la sicurezza futura.

Il confronto con OpenAI e gli Stati Uniti, quindi, non può essere analizzato solo in termini di competizione economica o tecnologica, ma va letto all’interno della competizione tra modelli politici ed economici differenti. L’errore dell’Occidente sarebbe quello di interpretare DeepSeek e le altre iniziative cinesi come semplici controparti delle aziende della Silicon Valley, senza considerare il ruolo che giocano nella strategia geopolitica della Cina.

Luciano Floridi: Filosofia dell’informazione. Un viaggio tra astrazioni, conoscenza e design

Luciano Floridi, uno dei maggiori pensatori contemporanei nel campo della filosofia dell’informazione, offre una visione radicale e innovativa di come interagiamo con il mondo attraverso i dati e l’informazione.

La filosofia dell’informazione si afferma come un campo di ricerca dinamico e autonomo, capace di rinnovare il dibattito filosofico sulla computazione e la teoria dell’informazione. Attraverso un percorso storico che parte dalla filosofia dell’intelligenza artificiale, la Filosofia dell’informazione FI emerge dal confronto tra innovazione e tradizione, offrendo una nuova prospettiva sui problemi epistemologici e concettuali.

Essa non è una “filosofia perenne” ma una disciplina matura che fornisce un’analisi sistematica del mondo dell’informazione, connettendosi ad altri ambiti del sapere e ridefinendo questioni classiche e contemporanee. La sua riflessione trascende la tradizionale distinzione tra conoscenza e tecnologia, proponendo un’idea che mette al centro la filosofia come forma suprema di design concettuale.

Il suo approccio, che si radica nella filosofia, nella scienza dei dati e nell’informatica, trasforma il nostro modo di concepire l’interazione tra l’uomo, la realtà e il mondo digitale. La lettura delle sue opere è un investimento, non solo intellettuale ma anche pratico, per chi vuole comprendere a fondo le dinamiche che regolano la nostra era dell’informazione.

La scoperta della virologa Beata Halassy: un trattamento contro il cancro che sfida la medicina tradizionale

A novembre, la virologa Beata Halassy ha rivelato al mondo di aver sconfitto il suo cancro al seno grazie a un trattamento sviluppato all’interno di un laboratorio sotto la sua supervisione. Secondo quanto dichiarato, il trattamento l’avrebbe liberata dalla malattia per oltre quattro anni, suscitando un’ondata di ammirazione nella comunità medica.

Halassy ha documentato questa straordinaria esperienza in un articolo pubblicato ad agosto 2024 sulla rivista scientifica “Vaccines”. I suoi risultati sono impressionanti: l’iniezione dei virus ha portato alla remissione quasi completa del cancro, con pochissimi effetti collaterali, e da allora è rimasta libera da malattia per più di quattro anni. Questo tipo di trattamento virale, noto come terapia oncolitica virale (OVT), utilizza virus modificati per attaccare specificamente le cellule tumorali, un approccio che rappresenta una sfida alla medicina convenzionale.

Tuttavia, dietro la sua dichiarazione si nascondono numerose polemiche, in particolare sul rischio che tale pubblicità possa indurre altri pazienti a rinunciare ai trattamenti convenzionali. Un bell’articolo sul Washington Post ci ha raccontato tutti i dettagli.

Il lento Colpo di Stato delle Macchine: come l’AI ci renderà obsoleti senza sparare un solo colpo

Gli scenari di rischio legati all’intelligenza artificiale di solito dipingono un futuro in cui, da un giorno all’altro, perdiamo il controllo, superati da macchine astute e insaziabili che ci sorpassano nei giochi di potere. Un salto improvviso nelle loro capacità, un tradimento orchestrato in segreto, e in un attimo ci ritroviamo spettatori inermi della nostra stessa disfatta. Ma il vero pericolo potrebbe essere molto meno spettacolare e molto più inevitabile: non un colpo di stato improvviso, ma una lenta erosione della nostra rilevanza, un processo graduale e, soprattutto, autoalimentato.

Abbiamo trovato interessante un allegato che trovate alla fine dell’articolo, Gradual Disempowerment: Systemic Existential Risks from Incremental AI Development

La disumanizzazione del potere non richiede che un’IA si ribelli con mire di dominio. Basta che sia più efficiente di noi in quasi ogni ambito: lavoro, politica, cultura, perfino relazioni umane. Ciò che tiene in piedi le nostre società non è una qualche nobile vocazione al benessere collettivo, ma la semplice utilità degli esseri umani: finché serviamo a qualcosa, ci garantiamo un posto al tavolo. Il problema nasce quando smettiamo di essere il miglior strumento disponibile per far funzionare il sistema. Se una macchina può fare il nostro lavoro meglio e a costo minore, se può prendere decisioni più velocemente, se può produrre arte più convincente o persino offrire una compagnia più gratificante, allora la logica economica e sociale non avrà alcuna pietà.

Morale della storia? Niente di nuovo sotto il sole. La solita ipocrisia, il solito gioco di potere e la solita illusione che possiamo controllare l’inarrestabile

Il mio socio di RIVISTA.AI ha scelto la settimana perfetta per prendersi una vacanza. Mentre lui si rilassava con i Bombardini sulla neve, il mondo dell’IA ha deciso di impazzire con una pioggia di assurdità su DeepSeek. Io, invece di unirmi al coro di deliri, ho pensato di raccogliere qualche lettura decente, visto che sembra ormai impossibile trovare un’analisi sensata senza inciampare in un delirio ideologico o nell’ennesimo atto di isteria geopolitica. Quindi gli ho raccolto un po’ di rassegna stampa per il suo ritorno.

Matt Sheehan e Scott Singer, per esempio, ci ricordano che gli Stati Uniti devono giocare a fare i padroni del mondo anche nell’IA. Da un lato, vogliono mantenere il primato su Pechino, dall’altro, si rendono conto che anche la Cina avrà presto sistemi straordinariamente potenti e pericolosi. Insomma, la solita strategia: dominare e controllare, con la speranza di non farsi male nel processo. La soluzione? Due parole magiche: scambi controllati. Traduzione: facciamo finta di collaborare, mentre ci prepariamo a eventuali disastri.

LoRA: L’Arma Segreta della Resistenza Open-Source Contro le Big Tech

Signore e signori, benvenuti nell’apocalisse annunciata. Google e OpenAI hanno passato anni a costruire le loro torri d’avorio, raccontandoci la favoletta che senza i loro miliardi, le loro GPU segrete e i loro supercervelli d’élite nessuno avrebbe mai potuto sviluppare un’Intelligenza Artificiale degna di questo nome. Ma sapete qual è la parte divertente? È tutta una balla. Il castello non ha mura. Il fossato non esiste. L’impero è un’illusione.

Abbiamo il documento, il Sacro Graal rubato direttamente dalle viscere di Google. Un ricercatore della compagnia lo ha scritto nero su bianco: non solo l’open-source sta colmando il divario con i modelli proprietari, ma lo sta facendo a una velocità che le Big Tech non possono più eguagliare. Altro che GPT-4, altro che Gemini. La rivoluzione è già iniziata e non è nelle mani di Sundar Pichai o Sam Altman. È nelle nostre.

LO SCANDALO GOOGLE: IL DOCUMENTO CHE SVELA IL GRANDE BLUFF

Marzo 2023. Qualcuno in Google ha un momento di lucidità e scrive un report che non sarebbe mai dovuto uscire. In esso, il messaggio è chiaro: “Abbiamo perso il controllo della narrazione. L’open-source sta facendo a pezzi il nostro vantaggio competitivo“. L’autore, un insider con accesso a dati riservati, elenca uno per uno i punti deboli del modello chiuso delle Big Tech:

L’open-source è più veloce. Mentre OpenAI e Google impiegano mesi per rilasciare nuove versioni dei loro modelli, la comunità indipendente sforna innovazioni in pochi giorni.

L’open-source è più efficiente. Con tecniche come LoRA (Low-Rank Adaptation), gli sviluppatori indipendenti riescono a personalizzare modelli linguistici avanzati in poche ore, senza bisogno di enormi infrastrutture cloud.

Il costo è vicino allo zero. Niente più milioni di dollari spesi in training colossali: chiunque con un laptop può ottimizzare un modello AI e renderlo competitivo con quelli proprietari.

LORA: L’ARMA SEGRETA DELL’OPEN-SOURCE

Ecco dove la rivoluzione si fa interessante. LoRA (Low-Rank Adaptation) è la tecnologia che sta ridicolizzando le Big Tech. Invece di riaddestrare un intero modello da zero, LoRA permette di modificarlo con una quantità minima di risorse. Come funziona?

Congela il modello di base. Invece di rielaborare miliardi di parametri, LoRA blocca la maggior parte del modello e interviene solo su piccole sezioni specifiche.

Aggiunge nuovi pesi a basso rango. Questo significa che si lavora su matrici di dimensioni ridotte, riducendo drasticamente il consumo di memoria e potenza di calcolo.

Rende l’addestramento velocissimo. Invece di settimane o mesi, bastano poche ore per adattare un modello a nuove applicazioni, con risultati comparabili a quelli ottenuti con il fine-tuning tradizionale.

    In parole povere, LoRA ha reso il fine-tuning delle AI qualcosa che si può fare con un portatile in un garage. E se la storia ci ha insegnato qualcosa, è che le rivoluzioni iniziano nei garage, non nei grattacieli delle multinazionali.

    Benvenuti nella rivoluzione.

    Le sfide etiche dell’AI e la questione del Proof of Personhood

    Il concetto di Proof of Personhood (Prova di Umanità) è stato esplorato in diversi film e libri: Do Androids Dream of Electric Sheep?, Test di Voigt-Kampff” in Blade Runner, Ex Machina. The Matrix. La tematica centrale riguarda la distinzione tra esseri umani e intelligenze artificiali o entità digitali, ed è stata trattata in modo approfondito soprattutto nella fantascienza.

    Cosa significa essere umani di fronte alle nuove tecnologie?

    Il concetto di Proof of Personhood sta acquisendo una rilevanza fondamentale in un contesto globale sempre più dominato dall’intelligenza artificiale, e in particolare dalla crescente fusione tra esseri umani e macchine. In un mondo dove i bot AI, le identità sintetiche e le tecnologie deepfake stanno rapidamente invadendo gli spazi digitali, è curioso notare come, in alcuni casi, non sia più tanto rilevante identificare chi sia qualcuno, quanto piuttosto confermare se quella persona è umana. La questione quindi non riguarda tanto il “CHI SEI”, ma il “COSA SEI”.

    Ergonomia Cognitiva, AI e Complessità: Dal Design di Norman alla Precisione delle Macchine di Zappa

    L’intersezione tra intelligenza artificiale, ergonomia cognitiva e complessità dei sistemi è un territorio in cui il pensiero umano si scontra con i limiti e le possibilità delle macchine. Due prospettive fondamentali emergono da autori chiave: Donald Norman, Frank (Francesco) Zappa . Ognuno di loro, da un diverso angolo disciplinare, ha contribuito a ridefinire il nostro rapporto con la tecnologia, il design e l’errore.

    STEM WOMEN CONGRESS ITALIA

    Torna dal vivo l’edizione italiana, moltiplicata in un programma ancora più ricco fatto di tappe di avvicinamento chiamate Stem Days:  si parte da Bologna il 21 febbraio con un calendario di appuntamenti per promuovere l’inclusione femminile negli ambiti scientifico-tecnologici.

    Dopo il grande successo della prima edizione italiana, accolta entusiasticamente da centinaia di giovani, aziende, istituzioni e i grandi volti del mondo della scienza e della tecnologia, lo STEM Women Congress entra nel suo secondo anno, trasformandosi. 

    Il format, con un solido heritage internazionale e che ha debuttato per la prima volta lo scorso anno nel nostro Paese, con una trentina di big player, istituzioni e guest star che si sono alternate sul palco, torna, ancora una volta, grazie all’impegno di Orange Media Group, creative content company e di Women at Business, la piattaforma di matching professionale al femminile, costruendo un percorso multiplo su più giornate, chiamate Stem Days, che avrà il suo culmine nel Congresso di Milano il 15 ottobre a Palazzo Castiglioni.  

    Elon Musk e il Colpo di Stato Amministrativo: Il Sogno Tecnocratico Diventa un Incubo

    Elon Musk non è il presidente degli Stati Uniti, ma agisce come se lo fosse e cosa ancora più preoccupante, lo fa senza essere stato eletto, senza il consenso del Congresso e senza alcun mandato democratico. Invece, questo miliardario nato all’estero sta silenziosamente prendendo il controllo di settori chiave del governo federale, manipolando i flussi di informazioni, i sistemi di pagamento e persino la gestione del personale. È un colpo di stato amministrativo in piena regola, orchestrato con il cinismo di un magnate che si è convinto di poter riscrivere le regole a suo piacimento.

    La sua piattaforma è un’improbabile entità governativa chiamata “Department of Government Efficiency” (DOGE), un nome che, nella sua infantilità, sembra quasi uno scherzo. Ma lo scherzo, a quanto pare, è sulle istituzioni americane. In soli quattordici giorni, Musk ha invaso edifici governativi, annullato contratti di locazione e introdotto il suo personale—spesso giovanissimo e privo di esperienza nei centri nevralgici dell’amministrazione pubblica. Ha portato con sé ingegneri di Tesla e della Boring Company per effettuare licenziamenti di massa all‘Office of Personnel Management (OPM), affidando il destino di migliaia di dipendenti federali a individui che fino a poco fa erano impegnati a costruire tunnel sotto Los Angeles. (Type the word “Resign” into the “Subject” line of the email. Hit “Send”. Deferred Resignation Email to Federal Employees)

    Secondo Wired, uno dei suoi consiglieri ha appena 21 anni, mentre un altro si è diplomato lo scorso anno.

    OpenAI e Reddit: Quando l’IA Prova a Convincere i Redditori a Cambiare Idea

    Ecco una mossa che non poteva mancare: OpenAI ha deciso di testare la sua IA nel campo di battaglia per eccellenza delle opinioni online: il subreddit r/ChangeMyView, dove i post infuocati sono all’ordine del giorno e i pareri non si cambiano facilmente. E che modo migliore per mettere alla prova i modelli di ragionamento della sua intelligenza artificiale se non convincere degli utenti ostinati a rivedere le loro convinzioni?

    Nel tentativo di testare la capacità persuasiva dei suoi modelli, OpenAI ha fatto leva sulle conversazioni di r/ChangeMyView. Questo subreddit è una miniera d’oro per le aziende tecnologiche, come la stessa OpenAI, che desiderano allenare i propri modelli su dati generati da esseri umani. Gli utenti, con le loro argomentazioni spesso taglienti, sono il terreno perfetto per insegnare a un’IA a rispondere in modo convincente, sperando di trasformare le opinioni di chi è troppo testardo per cambiare idea.

    AI, Marx e la Crisi della Fisica: DeepSeek Risolve Tutto (O Ci Inganna Meglio?)

    Il confronto tra DeepSeek e OpenAI nel contesto dell’intelligenza artificiale può essere interpretato attraverso la lente storica e filosofica della crisi della fisica del XX secolo, un parallelo che richiama la tensione tra modelli consolidati e nuove prospettive.

    Se la fisica classica aveva costruito un edificio apparentemente solido fino all’inizio del Novecento, la relatività e la meccanica quantistica ne hanno scardinato i principi fondamentali, portando a una crisi epistemologica che ancora oggi si cerca di risolvere. Analogamente, il monopolio occidentale sulle IA avanzate, incarnato da OpenAI, si trova ora di fronte alla sfida di nuovi attori come DeepSeek, espressione della crescente capacità tecnologica cinese.

    DeepSeek e il “Metodo Cinese dell’Innovazione”: Copia, Ottimizza, Domina. La Legge di Wang

    Ultima settimana nel magico mondo dell’AI: ecco DeepSeek, un servizio simile a ChatGPT, ma realizzato a una frazione del costo. Miracolo tecnologico? Non proprio. Si mormora che il modello sia stato sviluppato grazie a una tecnica raffinata chiamata “distillazione”—un termine che in Occidente fa rima con “proprietà intellettuale violata”, mentre in Cina si traduce con “business intelligente”.

    Ma chi ha tempo per scandalizzarsi? Parliamo piuttosto del vero takeaway: il “Metodo Cinese dell’Innovazione”. Dopo anni “difficili” provenienti da società americane, passati fianco a fianco con i migliori ingegneri asiatici, posso garantire che questa storia è tutto tranne che nuova.

    Regno Unito e AI: Una Roadmap Visionaria che l’Europa Dovrebbe Imitare

    Ho speso una buona parte della mia vita lavorando per Anglo Americani quello che li ha sempre caratterizzati, forse come ex potenza coloniale, è avere una Roadmap questa è la dimostrazione : Devi avere un Piano

    Il governo britannico ha appena rilasciato un documento di policy destinato a rafforzare la sua posizione come potenza globale nell’intelligenza artificiale. Questa iniziativa, basata su 50 misure specifiche, non è solo una dichiarazione d’intenti, ma un piano strategico ben strutturato che dimostra la volontà di guidare il futuro dell’AI con investimenti mirati, regolamentazioni intelligenti e un ecosistema favorevole all’innovazione.

    A differenza dell’Europa continentale, spesso intrappolata in un labirinto normativo e burocratico che rallenta lo sviluppo tecnologico, il Regno Unito adotta un approccio pragmatico, delineando obiettivi concreti e misurabili. Questa roadmap comprende l’espansione delle capacità di calcolo, lo sviluppo di hub dedicati all’AI, la creazione di zone di crescita specializzate, incentivi alla condivisione dei dati e un investimento strategico nella formazione e nel talento.

    “La Corsa all’AGI: Scenari e Previsioni sulla Timeline dell’Intelligenza Generale Artificiale”

    Negli ultimi anni, il dibattito sulla timeline per raggiungere l’AGI (Artificial General Intelligence, ovvero un’intelligenza artificiale capace di comprendere e svolgere compiti di livello umano in ogni dominio) si è intensificato. Voci influenti dell’industria e della ricerca, tra cui Sam Altman, Ray Kurzweil, Demis Hassabis, Elon Musk e altri, hanno espresso opinioni divergenti. La questione non riguarda solo la tecnologia, ma anche le implicazioni sociali, economiche e filosofiche di un traguardo che cambierebbe radicalmente il mondo.

    L’America Scopre il Karma: DeepSeek e l’Ipocrisia dell’Intelligenza Artificiale

    Recap della settimana, il nuovo Maccartismo

    Howard Lutnick, il candidato alla carica di Segretario del Commercio degli Stati Uniti, ha esordito davanti al Senato con una denuncia infuocata: DeepSeek avrebbe rubato tecnologia americana per spazzare via la concorrenza occidentale. “Hanno rubato, si sono introdotti, hanno preso la nostra proprietà intellettuale”, ha dichiarato con sdegno. Un’accusa che riflette la crescente paranoia americana nei confronti delle aziende cinesi, colpevoli – a quanto pare – di giocare sporco quando sono loro a vincere.

    La Casa Bianca, prevedibilmente, ha cavalcato l’ondata di indignazione, valutando i rischi per la sicurezza nazionale. I giganti della Silicon Valley, terrorizzati dalla rivoluzione tecnologica scatenata da DeepSeek, hanno rapidamente dipinto l’azienda cinese come un’entità fraudolenta, intenta a sabotare il mercato con spregiudicate manovre di spionaggio industriale e dumping tecnologico.

    Splendida Cornice: Geppi Cucciari e Luciano Floridi, bravissimi

    In un’epoca in cui l’Intelligenza Artificiale (IA) è diventata protagonista di dibattiti, investimenti miliardari e rivoluzioni tecnologiche, capire davvero di cosa si tratta può sembrare un’impresa da far sanguinare il naso. Eppure, durante una serata speciale del programma Splendida Cornice, condotta da una superlativa Geppi Cucciari su Rai 3, il professor Luciano Floridi, filosofo ed esperto di etica digitale, ha offerto una spiegazione chiara e accessibile, promettendo di farci uscire dal bar senza emorragie nasali.

    Luciano Floridi è Professor and Founding Director of the Digital Ethics Center all’Università di Yale e insegna Sociologia della Comunicazione all’Università di Bologna. E’ tra i massimi esperti internazionali nel campo della filosofia dell’informazione e delle trasformazioni digitali, ed è stato recentemente nominato presidente della Fondazione Leonardo. A parte i titoli ha dimostrato, sempre, di essere un personaggio di spessore.

    Floridi ha offerto una visione critica e complessa sull’Intelligenza Artificiale (IA), che va oltre la semplice analisi tecnologica. Il suo approccio, come emerso nel programma, si concentra sulla natura stessa dell’intelligenza e sul rapporto tra uomo e macchina, mettendo in discussione alcune delle nostre assunzioni più comuni.

    Pagina 1 di 11

    CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie