Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Categoria: Cultura Pagina 1 di 11

Interviste – (DEI) diversità, equità e inclusione – Impatti Sociali ed Etici – Futuro e Prospettive – Legislazione e Regolamentazione -Educazione e Formazione – Lavoro e Formzione

Il verde, il blu e il dilemma umano: riflessioni filosofiche sull’IA di Floridi

C’è un fascino sottile e perverso nell’analizzare la relazione tra intelligenza artificiale e società, soprattutto quando il discorso scivola dalla tecnica alla filosofia, dalla pragmatica all’etica. Il dibattito è pieno di dicotomie: progresso e controllo, autonomia e dipendenza, libertà e manipolazione. L’IA, si dice, potrebbe facilitare il benessere umano, ma solo se gestita con criteri chiari, evitando di trasformarsi in una forza fuori controllo, una divinità algoritmica capace di plasmare comportamenti senza che l’utente se ne renda conto.

Si parte da un concetto semplice: per essere efficace, un progetto basato sull’IA deve dimostrare di avere un impatto concreto e positivo sulla società, riducendo problemi senza generarne di nuovi. Peccato che questo principio teorico si scontri con la realtà della tecnologia, dove il confine tra innovazione e abuso è sottilissimo. Gli algoritmi sono spesso percepiti come strumenti neutri, ma la loro implementazione può introdurre distorsioni, discriminazioni e persino amplificare diseguaglianze.

Luciano Floridi e la nuova disciplina Content Studies: un manifesto per l’età digitale

L’instancabile Luciano Floridi, filosofo della tecnologia e tra i massimi esperti di etica digitale, ha recentemente proposto la creazione di una nuova disciplina accademica: le Content Studies. L’idea è semplice nella sua ambizione: costruire un framework interdisciplinare capace di analizzare, valutare e progettare i contenuti digitali in un’epoca dominata dall’intelligenza artificiale e dagli ecosistemi mediatici algoritmici. Non un semplice ramo della semiotica, delle scienze della comunicazione o degli studi sui media, ma una sintesi metodologica capace di superare la frammentazione accademica e di fornire strumenti pratici per affrontare sfide cruciali come la disinformazione, l’accessibilità e il bias algoritmico.

Floridi parte da una constatazione: la mole di dati digitali prodotti negli ultimi anni ha raggiunto livelli esponenziali. Secondo le stime di Statista, nel 2023 il mondo ha generato circa 120 zettabyte di dati, un numero che supererà i 180 ZB entro il 2025. Gran parte di questa produzione è automatizzata e resa possibile da modelli generativi di IA, rendendo il contenuto digitale un’entità sempre più indipendente dall’essere umano. Questo scenario segna la fine dell’epoca Vitruviana, in cui ogni contenuto significativo si supponeva fosse prodotto esclusivamente dall’intelletto umano. Oggi viviamo in un mondo post-Vitruviano, in cui l’origine del contenuto è meno rilevante del suo impatto, delle sue dinamiche di circolazione e della sua efficacia comunicativa.

IA e scuola

L’IA e scuola: va utilizzata e come?

L’IA va usata a scuola? Quante volte ho visto nei compiti a casa “non usate chatgpt”? Ma è giusto o sbagliato utilizzare i LLM per fare i compiti a casa?
Voglio raccontarvi la mia idea di IA e scuola.Per farlo voglio parlarvi un po’ delle cose da tutti i giorni, senza parlare di aziende, bilanci, budget e vendite, ma di compiti a casa, interrogazioni, ricerche e verifiche. Mio figlio sta facendo la terza media, e già dall’anno scorso usa Copilot e altri tool per fare i compiti a casa.
“Ah! Si fa scrivere i temi da chatgpt!” questa è la frase che mi sono sentito dire, e la risposta è “No”.

Protetto: Trump alza muri, la Cina apre le porte: la nuova era del capitalismo globale

Il contenuto è protetto da password. Per visualizzarlo inserisci di seguito la password:

Genialità o disastro? L’incredibile articolo senza senso generato da iOS e accettato a una conferenza

Un professore neozelandese è stato invitato a presentare il suo lavoro a un evento statunitense sulla fisica nucleare nonostante contenesse un linguaggio incomprensibile in tutta la copia. Un articolo accademico privo di senso sulla fisica nucleare, scritto solo tramite il completamento automatico di iOS, è stato accettato per una conferenza scientifica. Christoph Bartneck, professore associato presso il laboratorio di tecnologia dell’interfaccia umana dell’Università di Canterbury in Nuova Zelanda, ha ricevuto un’e-mail che lo invitava a presentare un articolo alla conferenza internazionale di fisica atomica e nucleare che si terrà negli Stati Uniti a novembre. (The Guardian)

AI che “scrive un articolo” accettato per la pubblicazione non è affatto una novità; in realtà, se risaliamo indietro al 2016, possiamo trovare un esempio curioso: la funzione di “autocompletamento” di Apple iOS aveva visto accettato un suo articolo per la pubblicazione alla “International Conference on Atomic and Nuclear Physics” negli Stati Uniti, come testimoniato da un link che ha suscitato non poche polemiche nella comunità accademica. L’idea di una macchina che produce lavori accettati da conferenze scientifiche solleva, ovviamente, interrogativi sulla validità e sull’autenticità del processo di ricerca accademica, ma questo episodio, per quanto peculiare, non è isolato.

Protetto: L’intelligenza artificiale tra etica e ontologia: un nuovo paradigma del pensiero

Il contenuto è protetto da password. Per visualizzarlo inserisci di seguito la password:

Protetto: Elon Musk al Pentagono “O-plans” : il business incontra la geopolitica

Il contenuto è protetto da password. Per visualizzarlo inserisci di seguito la password:

Prof. J. Mark Bishop: L’hype un salto nel vuoto senza la bussola della storia

Se c’è una verità che, come un vecchio detto popolare, dovrebbe essere sempre presente nelle menti di chi compra hype, è che la storia ha sempre qualcosa da insegnarci.

Ma come accade nella maggior parte dei casi, molto di ciò che appare splendente oggi è destinato a svanire nell’ombra domani.

In questo contesto, le parole di Prof. J. Mark Bishop, accademico di lunga data e osservatore critico delle dinamiche tecnologiche, meritano una riflessione approfondita prima di abbandonarsi a qualsiasi acquisto impulsivo basato sull’ultima moda tecnologica.

Il suo approccio al mercato non è certo quello di un novizio, ma di un esperto che ha visto troppi cicli ripetersi per non essere scettico. Quando si parla di “hype” tecnologico, Bishop non si riferisce solo alle mode passeggere che sembrano risolvere i problemi del mondo con la velocità di un click, ma ad una vera e propria cultura del marketing che sfrutta l’ignoranza per vendere illusioni più che soluzioni. E se c’è qualcosa che la storia ci ha insegnato, è che la tecnologia, per quanto affascinante, segue un percorso che non è sempre lineare, ma fatto di alti e bassi.

Lucas Penrose e il teorema di Gödel: un’analisi dell’intelligenza artificiale

Nel 1961, J.R. Lucas pubblica un articolo dal titolo “Minds, Machines and Gödel“, che propone un argomento anti-meccanicistico controverso. La sua tesi centrale è che il primo teorema di incompletezza di Gödel dimostra che la mente umana non è una macchina di Turing, e cioè non può essere ridotta a un semplice calcolatore. Tale argomentazione ha generato non poca discussione, in particolare in relazione alla Teoria Computazionale della Mente, che sostiene che la mente umana funzioni come un computer. Se l’argomento di Lucas fosse corretto, questa visione sarebbe falsa, e di conseguenza anche l’idea di una “forte intelligenza artificiale” (la possibilità di costruire una macchina con capacità cognitive simili a quelle umane) cadrebbe.

AI e il paradosso della ricerca: strumenti avanzati, risultati errati e sfide per l’informazione

L’adozione crescente degli strumenti di ricerca basati sull’intelligenza artificiale sta ridefinendo il modo in cui gli utenti accedono alle informazioni. Secondo recenti studi, quasi un americano su quattro utilizza l’AI al posto dei motori di ricerca tradizionali. Tuttavia, dietro l’efficienza apparente di questi strumenti si cela una problematica fondamentale: l’accuratezza e l’affidabilità delle informazioni generate.

A differenza dei motori di ricerca convenzionali, che fungono da intermediari tra utenti e contenuti editoriali, le piattaforme di ricerca generativa estraggono, sintetizzano e ripropongono informazioni senza necessariamente ricondurre alle fonti originali. Questa dinamica non solo sottrae traffico ai siti di news, ma solleva interrogativi sulla trasparenza, sulla qualità dei dati e sulla correttezza delle attribuzioni.

Deepseek sotto chiave: quando l’innovazione diventa un affare di Stato

Il caso DeepSeek è la dimostrazione più chiara di come l’intelligenza artificiale in Cina sia ormai considerata un asset strategico al pari delle riserve di terre rare o dei segreti militari. Quando un governo inizia a sequestrare passaporti ai dipendenti di una startup privata e a impedire che vengano contattati da cacciatori di teste, il messaggio è chiaro: questa tecnologia non deve finire nelle mani sbagliate.

Il governo cinese sta applicando un controllo totale su DeepSeek, un’azienda che fino a poco tempo fa si muoveva con relativa indipendenza nel panorama dell’IA. Oggi i suoi dipendenti sono sotto sorveglianza, gli investitori devono passare al setaccio del governo prima ancora di poter ottenere un incontro, e la fuga di talenti è stata praticamente bloccata alla radice. Chi lavora per DeepSeek non può lasciare il paese senza un permesso speciale, e chi cerca di assumere qualcuno della loro squadra viene invitato, gentilmente ma fermamente, a farsi da parte.

La spinta cinese verso l’imprenditorialità e il boom tecnologico nell’era dell’intelligenza artificiale

Osservatorio: CINA – Capitale Umano – Formazione

Il contesto economico cinese sta vivendo una trasformazione significativa, alimentata dal boom dell’intelligenza artificiale e da un crescente impegno da parte del governo centrale nel promuovere l’imprenditorialità tra i giovani.

Tuttavia, nonostante gli sforzi in corso, una parte consistente della gioventù cinese continua a preferire l’idea di ottenere un impiego stabile nel settore pubblico, piuttosto che rischiare con iniziative imprenditoriali.

Intelligenza Artificiale e la moralità: Agenti Artificiali e il concetto di responsabilità etica di Luciano Floridi e J.W. Sanders – Minds and Machines 

Gli agenti artificiali (AAs), specialmente quelli operanti nel cyberspazio, ridefiniscono la classe di entità coinvolte in situazioni morali. Essi possono essere considerati sia come pazienti morali, ovvero entità su cui si possono compiere azioni con conseguenze etiche, sia come agenti morali, in grado di agire con effetti positivi o negativi. Questa doppia natura apre un dibattito significativo sulla loro moralità e sulla loro responsabilità.

Per comprendere il ruolo degli AAs, è fondamentale chiarire il concetto di agente. La discussione tradizionale, da Montaigne e Cartesio in poi, si concentra sull’esistenza di stati mentali, emozioni e sensazioni negli agenti artificiali. Tuttavia, un approccio alternativo, denominato “moralità senza mente”, evita questa problematica e si concentra sull’analisi delle azioni e dei loro effetti senza la necessità di postulare stati mentali. Questo approccio è particolarmente utile per il campo dell’Etica Informatica, dove la questione della responsabilità delle macchine diventa sempre più pressante.

Bending Spoons sostiene le ragazze nella tech: 100.000 euro in borse di studio per il futuro delle donne in computer science

Bending Spoons ha deciso di investire in modo concreto nel futuro delle donne nel settore tecnologico, lanciando un’iniziativa che mira a ridurre il divario di genere nel campo della computer science. Con un budget di 100.000 euro, l’azienda offrirà borse di studio del valore di 5.000 euro ciascuna a 20 giovani donne che stanno intraprendendo un percorso universitario in informatica in Europa, Regno Unito, Svizzera e nei paesi balcanici non appartenenti all’UE.

Questa iniziativa non si limita a un semplice gesto di generosità, ma rappresenta un passo importante per creare una reale parità di opportunità nel mondo della tecnologia, che storicamente ha visto una scarsa rappresentanza femminile. Il settore tech ha bisogno di più voci femminili, di più talenti, di più visioni diverse che possano rispondere alle sfide globali con creatività e inclusività.

L’eclissi dell’analogico e la danza degli algoritmi: Cronache da un futuro incerto

Nel regno etereo della tecnologia, dove i bit danzano come folletti e gli algoritmi tessono incantesimi di complessità inaudita, una domanda serpeggia tra le pieghe del tempo: stiamo forse smarrendo il sentiero che conduce alla realtà tangibile? Il velo tra il mondo digitale, onnipresente e impalpabile, e il regno analogico, fatto di carne, pietra e vento, si assottiglia di giorno in giorno. In queste cronache, ci addentreremo nelle profondità di questa dicotomia, illuminando il cammino con la luce della filosofia e tingendolo con i colori vividi della fantasia.

Comunicare le STEAM oggi: strumenti per appassionare gli studenti alle materie scientifiche – Il 12 marzo alle ore 11.30 Alla Fiera Didacta

Nell’era dell’informazione, l’educazione nelle discipline STEAM (Scienza, Tecnologia, Ingegneria, Arti e Matematica) richiede un approccio innovativo che integri creatività, pensiero critico e interdisciplinarità. Questo metodo non solo rende l’apprendimento più coinvolgente, ma prepara gli studenti ad affrontare le sfide future con una mentalità aperta e analitica.

Promuovere il pensiero critico attraverso attività pratiche e interdisciplinari è fondamentale. Quando gli studenti partecipano a progetti che combinano diverse discipline, sviluppano la capacità di analizzare problemi da multiple prospettive.

L’integrazione di scienze, tecnologia e competenze umanistiche è essenziale per sviluppare una comprensione critica delle tecnologie emergenti, come l’intelligenza artificiale. Questa fusione consente agli studenti di valutare l’impatto sociale ed etico delle innovazioni tecnologiche. ndo una visione olistica delle sfide tecnologiche.

8 Marzo L’inclusione nell’era dell’intelligenza artificiale: tra esclusione sistemica e nuovi orizzonti epistemici

Limitare la riflessione sul ruolo delle donne all’8 marzo significa tradire la complessità storica di un’emancipazione che ha attraversato secoli di lotte, pensiero critico e trasformazioni sociali. Se oggi il dibattito sull’inclusione interseca l’intelligenza artificiale, non è per una questione meramente etica, ma per una necessità strutturale: la tecnologia non è neutra, e il modo in cui viene progettata, implementata e regolata riflette dinamiche di potere consolidate.

Mentre il mondo celebra la Giornata Internazionale della Donna l’8 marzo, le Nazioni Unite ci ricordano che siamo lontani anni luce dall’uguaglianza di genere. Secondo il Segretario Generale António Guterres, i diritti delle donne sono sotto attacco globale, con progressi conquistati con fatica che svaniscono davanti ai nostri occhi.

The Ethics of Artificial Intelligence: Exacerbated Problems, Renewed Problems, Unprecedented Problems – LucianoFloridi

AI: Il Sogno Elettrico È Già Incubo? Problemi Esacerbati, Ombre Rinnovate, Orrori Inauditi (citando Floridi)

Intelligenza Artificiale, IA, si dice… Una forza. Una promessa. Ma se fosse… altro? Una morsa. Un inganno. Il mondo cambia, veloce. Forse troppo. Problemi etici? Non solo. Incubi. Domande che nessuno vuole porre. Luciano Floridi, nel suo “The Ethics of Artificial Intelligence: Exacerbated Problems, Renewed Problems, Unprecedented Problems” (American Philosophical Quarterly, 2024), lo dice chiaro: stiamo aprendo un vaso di Pandora.

Artificial intelligence, il fantasma che si aggira nel regno digitale, sta rapidamente trasformando il nostro mondo, infiltrandosi in ogni aspetto della vita umana. Questa nuova Prometeo tecnologica promette avanzamenti senza precedenti, ma al tempo stesso spalanca il vaso di Pandora delle questioni etiche, richiedendo una riflessione filosofica profonda. Come sottolinea Luciano Floridi nella sua opera “The Ethics of Artificial Intelligence: Exacerbated Problems, Renewed Problems, Unprecedented Problems”, ci troviamo di fronte a una convergenza di problemi etici esasperati, rinnovati e completamente inediti.

Happy International Women’s Day! Rivista.AI

There are many women who have changed the world, but if I had to choose a few who particularly inspire me, I would think of figures like Marie Curie, Rosalind Franklin, Ada Lovelace, and Malala Yousafzai.

Marie Curie was an absolute pioneer in the fields of physics and chemistry, becoming the first woman to win a Nobel Prize and the only person to receive two in two different scientific disciplines. Her research on radioactivity revolutionized science and laid the foundation for radiation therapy, saving millions of lives.

Rosalind Franklin, on the other hand, provided the crucial evidence for the discovery of the structure of DNA, although the credit was largely given to Watson and Crick. Her dedication to science, despite gender barriers, is an inspiration for anyone who believes in the power of knowledge.

Ada Lovelace is considered the first computer programmer in history: in the 19th century, she envisioned the potential of computers long before they existed. Her vision paved the way for modern computing and shows how innovative thinking can anticipate the future.

Malala Yousafzai, Nobel Peace Prize laureate, is a living example of courage and determination. She risked her life to defend girls’ right to education in Pakistan and continues to fight for equality and access to education worldwide.

How about you? Which women inspire you the most and why?

Le storie dell’AI: utopia, potere e l’impatto della tecnologia sulla forza lavoro

La storia è da sempre un motore di potere e influenza nelle società umane, e se Platone avesse ragione, oggi le storie che vengono raccontate sull’intelligenza artificiale (AI) potrebbero determinare chi governa e come viene governato il futuro. In un’epoca in cui il dibattito sull’AI è sempre più acceso e articolato, le narrative si moltiplicano, spesso con obiettivi opposti e a volte contrastanti, a seconda di chi le racconta. Gli sviluppatori di modelli di AI, le aziende che li applicano, i governi e gli utenti finali sono tutti protagonisti di una trama che cambia rapidamente. E, mentre tutti questi attori raccontano storie sull’AI, la domanda che emerge è chi, alla fine, avrà il controllo e come ciò influenzerà il futuro del lavoro e della società.

La grande mutazione del potere: l’intelligenza artificiale al comando

Il “War for Intelligence” segna un cambio di paradigma radicale rispetto al passato. Nel “War for Talent”, le aziende facevano di tutto per attrarre i migliori talenti, creando ambienti di lavoro confortevoli e pieni di benefit. Ma ora, nella guerra per l’intelligenza, il vero rivale non è più l’individuo, ma i sistemi informatici. L’intelligenza artificiale, in grado di lavorare 24 ore su 24 a una frazione dei costi umani, sta oscurando rapidamente il valore del talento umano.

Un cambio di potere che ormai non può più essere ignorato. Le aziende, una volta costrette a competere per i migliori professionisti, ora si trovano in una posizione di dominio, dove le macchine sono i veri protagonisti e l’essere umano è relegato a un ruolo secondario. L’aspetto interessante di questo scenario non è solo la sostituzione di lavoratori con macchine, ma la progressiva trasformazione della cultura aziendale e sociale, dove il potere ritorna nelle mani di chi controlla la tecnologia.

Governi e la corsa per l’IA: un gioco a somma zero?

La corsa globale per la supremazia nell’intelligenza artificiale (IA) è diventata una questione geopolitica di grande rilevanza. I governi di tutto il mondo percepiscono l’IA come una battaglia in cui chi vince prende tutto, con la paura di essere sorpassati dai loro avversari internazionali. Una competizione alimentata dall’alta posta in gioco che l’IA può avere nel rivoluzionare economie, industrie e capacità militari. Tuttavia, la situazione potrebbe non essere così semplice come sembra. Mentre le nazioni puntano sullo sviluppo dei modelli di IA, il vero potere potrebbe risiedere non tanto nei modelli stessi, quanto nell’intero ecosistema che li circonda.

Il vero valore: gli ecosistemi più che i modelli

I modelli di IA sono incredibilmente complessi e costosi da sviluppare e mantenere. Le spese necessarie per costruire, addestrare e affinare questi modelli possono essere astronomiche, e il loro valore tende a diminuire nel tempo. In altre parole, i modelli di IA sono destinati a diventare delle merci, simili a come le compagnie telefoniche di un tempo sono diventate “reti stupide” infrastrutture essenziali, ma non più particolarmente redditizie. Il vero valore della rivoluzione dell’IA risiede nell’ecosistema che circonda i modelli: l’hardware, i data center, le applicazioni software e i servizi che rendono questi modelli utilizzabili, scalabili e adattabili alle applicazioni reali.

La fase di avidità nell’intelligenza artificiale: le previsioni di Vinod Khosla sulla sostenibilità degli investimenti

Vinod Khosla, un nome di spicco nel panorama degli investimenti tecnologici e uno dei primi finanziatori di OpenAI, ha recentemente espresso preoccupazioni riguardo agli sviluppi del mercato dell’intelligenza artificiale (AI) e le implicazioni economiche che potrebbero derivare da un ciclo di “avidità”. Secondo Khosla, la fase di “avidità” rappresenta quel periodo in cui gli investitori, spinti dall’entusiasmo per le promettenti possibilità offerte dall’AI, rischiano di fare investimenti impulsivi e poco strategici. Questo fenomeno potrebbe portare a perdite considerevoli quando il mercato, che sta vivendo un periodo di euforia, si stabilizzerà e l’industria non sarà in grado di mantenere le altissime aspettative generate.

Il premio Turing va a chi la inventa, Andrew Barto e Richard Sutton, ma il vero business è venderla senza testarla

Andrew Barto e Richard Sutton, due pionieri dell’intelligenza artificiale, hanno ricevuto il prestigioso Premio Turing per aver sviluppato il “reinforcement learning”, una tecnica di apprendimento automatico che permette all’IA di affinare le proprie decisioni tramite tentativi ed errori. Un metodo che ha reso possibili colossi come AlphaGo di Google e ChatGPT di OpenAI. Eppure, invece di celebrare con entusiasmo, i due scienziati hanno deciso di usare il palco per lanciare un avvertimento: le aziende tecnologiche stanno rilasciando modelli IA senza alcun vero controllo, con la stessa logica di chi costruisce un ponte e lo collauda facendoci passare sopra la gente.

L’emozione lineare: la frizione tra umani e IA

Il lato emotivo dell’intelligenza artificiale è probabilmente uno dei più sottovalutati, e non mi riferisco solo al concetto di “grande distacco”. Da tempo è noto che l’IA sta imparando a leggere, riconoscere e reagire alle nostre emozioni, e che può mostrare empatia e calma in situazioni in cui un dipendente umano potrebbe aver già perso la pazienza. È anche noto che, a volte, gli esseri umani preferiscono interagire con i chatbot, trovandoli più empatici rispetto agli umani, finché non scoprono che stavano interagendo con una macchina, momento in cui la situazione cambia radicalmente.

Potremmo obiettare che questo accade solo perché non siamo ancora abituati a questa dinamica. Un tempo, ad esempio, le amicizie online o qualsiasi cosa accadesse nel contesto digitale venivano etichettate come “non reali”, ma oggi non usiamo più molto i termini “virtuale” o “online”. Ci siamo abituati ai social media e ora, lentamente, ci abitueremo anche agli “umani” creati dall’IA. Ma è davvero così semplice?

REPLICA

La possibilità di sostituire o integrare l’intelligenza umana con l’intelligenza artificiale è un tema ormai noto, ma ciò che affascina ancor di più è l’idea di replicazione: l’aggiunta di uno strato di “intelligenza” capace di duplicare un essere umano, o addirittura riempire vuoti, come nel caso delle persone sole che trovano compagnia in un “amico” virtuale. In questo scenario, il mondo della moda e del lusso si sta adattando rapidamente a questa nuova realtà, con impatti che potrebbero trasformare non solo l’esperienza del consumatore, ma anche la struttura stessa dell’industria.

Un esempio interessante di come l’AI possa essere usata per “replicare” l’esperienza umana arriva direttamente dalla CIA, che ha sviluppato un chatbot in grado di far “entrare nella testa” dei leader mondiali, come presidenti e primi ministri, per prevedere come reagirebbero in determinate situazioni.

Questo tipo di intelligenza artificiale potrebbe aprire la strada alla sostituzione di figure politiche con sistemi AI, inoltre un’altra idea quella se applicata al mondo del lusso e della moda, potrebbe portare alla creazione di figure virtuali di designer, brand ambassador o persino stilisti che agiscono al posto degli esseri umani. Un sistema completamente automatizzato, capace di replicare l’aspetto e il comportamento di un “esperto” del settore, potrebbe influenzare le scelte dei consumatori senza la necessità di una persona fisica dietro al brand, oppure mantenere “l’HERITAGE” del brand perennemente.

Google, Sergey Brin e il paradosso del potere: perché non impone ciò che suggerisce?

Sergey Brin, co-fondatore di Google, è ancora uno dei due uomini che controllano il colosso tecnologico. L’ultima volta che qualcuno ha dato un’occhiata ai numeri, Brin deteneva una quota di voto del 25%, mentre Larry Page ne aveva persino di più. Quindi, se Brin è convinto che il team Gemini dovrebbe lavorare più ore e tornare in ufficio ogni giorno, come riportato dal New York Times, perché non lo ordina e basta? Qual è il punto di lanciare suggerimenti vaghi invece di imporre una direttiva chiara?

Ipnocrazia: come Trump e Musk stanno ridisegnando la realtà

Jianwei Xun è un analista culturale e filosofo nato a Hong Kong il cui lavoro collega i mondi dei media, della teoria narrativa e della filosofia. Con un background in filosofia politica e studi sui media presso l’Università di Dublino, Xun ha trascorso anni come consulente su narrazioni strategiche per istituzioni globali prima di dedicarsi alla scrittura.

Ipnocrazia“. Un titolo che promette di svelare i misteri della manipolazione moderna, con Trump e Musk come architetti di una nuova realtà. Jianwei Xun, un giovane prodigio già acclamato come l’erede di Baudrillard e Byung-Chul Han, ci offre una “mappa inedita” del potere contemporaneo.

Brain-Computer Interface (BCI): Luciano Floridi, vulnerabilità e rischi cibernetici dei dispositivi neurali di nuova generazione

Luciano Floridi, insieme al team di ricerca della Yale University e University of Bologna, ha firmato un contributo straordinario nel campo della sicurezza informatica applicata alle Brain-Computer Interface (BCI). Il loro modello di threat assessment, presentato nello studio sulle vulnerabilità delle BCI, si distingue per la sua innovatività e per la capacità di affrontare un problema ancora poco esplorato: la difesa dei dispositivi neurali dalle minacce cyber.

Floridi, noto per il suo lavoro pionieristico in etica digitale e filosofia dell’informazione, ha contribuito a un’analisi che va oltre la semplice identificazione dei rischi. Il modello sviluppato dal suo team adotta un approccio multidimensionale, combinando elementi di cybersecurity, neuroetica e regolamentazione medica per costruire un framework di sicurezza che tiene conto delle specificità biologiche e tecnologiche delle BCI.

L’elemento davvero innovativo del loro lavoro sta nell’applicazione del Common Vulnerability Scoring System (CVSS), un framework normalmente usato per classificare i rischi informatici tradizionali, alle minacce uniche delle BCI. Questo consente di quantificare il livello di pericolo di ogni vulnerabilità, dalle manipolazioni neurali involontarie agli attacchi remoti, fornendo una roadmap chiara per la sicurezza di questi dispositivi.

Floridi e il suo team non si limitano a descrivere i problemi, ma propongono soluzioni concrete: autenticazione avanzata, crittografia dei dati cerebrali e riduzione della superficie d’attacco delle BCI. Il risultato è un framework che potrebbe diventare lo standard di riferimento per la sicurezza delle interfacce neurali, un campo destinato a crescere esponenzialmente nei prossimi anni.

Il contributo di Floridi in questo studio non è solo accademico, ma ha un impatto pratico e urgente. Con l’avanzata di aziende come Neuralink e lo sviluppo delle BCI di nuova generazione, il lavoro della Yale University arriva al momento giusto per guidare il futuro di questa tecnologia con un equilibrio tra innovazione e protezione della persona. Un modello brillante, destinato a lasciare il segno.

Accademia dei Lincei: Intelligenza Artificiale il futuro della ricerca


Martedì 25 febbraio 2025 – Nel corso del convegno organizzato dal Gruppo 2003 in collaborazione con l’Accademia dei Lincei, esperti di diversi settori scientifici si sono confrontati sulle potenzialità e le sfide poste dall’Intelligenza Artificiale nell’ottimizzazione dei processi di ricerca.

L’evento, svoltosi a Roma, ha messo in luce come l’IA stia trasformando non solo le discipline tradizionali, ma anche i metodi di simulazione e analisi in settori quali fisica, chimica, meteorologia e medicina.

L’ALGORITMO DELL’UGUAGLIANZA. Intelligenza Artificiale, Diritti della Persona, Crescita delle Imprese

Nel panorama sempre più sfaccettato e contraddittorio del dibattito sull’Intelligenza Artificiale, il professor Ruben Razzante, esperto di Diritto dell’Informazione e docente all’Università Cattolica del Sacro Cuore di Milano, propone un’opera che si pone in netta controtendenza rispetto alle narrazioni sensazionalistiche e alle semplificazioni riduzionistiche.

Il volume “L’Algoritmo dell’Uguaglianza. Intelligenza Artificiale, diritti della persona, crescita delle imprese“, curato dallo stesso Razzante, si articola come una polifonia di voci autorevoli, ciascuna chiamata a riflettere, con rigore e consapevolezza critica, sulla tensione tra progresso tecnologico e salvaguardia dei diritti fondamentali dell’individuo.

La prefazione è stata scritta dalla senatrice a vita Liliana Segre, sottolineando l’importanza di usare meglio l’AI per combattere i discorsi d’odio online e ogni forma di discriminazione. Il suo obiettivo è “[…] costruire un futuro digitale e sociale più inclusivo, civile e democratico, trasformando il web in uno spazio sicuro, di interazione formativa e informativa”.

Intelligenza Artificiale e Demenza Digitale: Quando i Chatbot dimenticano di essere macchine

In un mondo sempre più dominato dall’intelligenza artificiale, arriva una ricerca che potrebbe far crollare qualche certezza. Un gruppo di neurologi israeliani e britannici ha deciso di sottoporre alcuni dei più avanzati modelli di linguaggio artificiale – ChatGPT 4 e 4o di OpenAI, Claude 3.5 di Anthropic e Gemini 1.0 e 1.5 di Alphabet – al test cognitivo Montreal Cognitive Assessment (MoCA), lo stesso utilizzato per diagnosticare il decadimento cognitivo lieve negli esseri umani. I risultati? Ecco l’amara verità: anche le macchine invecchiano e, a quanto pare, lo fanno pure male.

ChatGPT 4o si è piazzato al primo posto con un punteggio di 26 su 30, appena sufficiente per non essere considerato “cognitivamente compromesso”. Seguono ChatGPT 4 e Claude con 25 punti. Ma è con Gemini 1.0 che la situazione si fa drammatica: un punteggio di 16 su 30, un risultato che nei pazienti umani potrebbe indicare uno stato di decadimento cognitivo avanzato. In altre parole, Gemini 1.0 si comporta come un anziano paziente smemorato e confuso.

Richard Stallman e l’Intelligenza Artificiale: il ribelle contro il progresso

Richard Stallman non ha bisogno di presentazioni, ma di un aggiornamento software forse sì. Classe 1953, programmatore, informatico e attivista statunitense, è noto per essere uno dei principali esponenti del movimento del software libero. La sua carriera iniziò al laboratorio di intelligenza artificiale del MIT, dove sviluppò l’editor di testi Emacs nel 1975. Poi, nel settembre 1983, lanciò il progetto GNU con l’obiettivo di creare un sistema operativo completamente libero da copyright, e da allora ha insistito ossessivamente sul fatto che Linux a meno che non si parli esclusivamente del kernel – debba essere chiamato GNU/Linux. Una crociata quasi religiosa, che ancora oggi lo porta a rimarcare questa differenza con una passione degna di miglior causa.

Giorgio Parisi: “Per un’Intelligenza Artificiale democratica, derve un Centro di Ricerca Europeo”

Il 14 febbraio 2025, presso il Palazzo Corsini a Roma, l’Accademia Nazionale dei Lincei ha ospitato una conferenza istituzionale tenuta dal Professor Giorgio Parisi, Premio Nobel per la Fisica nel 2021 e Presidente emerito dell’Accademia. Durante l’evento, Parisi ha affrontato temi cruciali riguardanti l’intelligenza artificiale (IA) e la necessità di un approccio pluralistico per evitare monopoli del sapere.

Parisi ha sottolineato l’importanza di basare l’addestramento dei sistemi di IA su contenuti affidabili e di promuovere la diversità nei modelli di intelligenza artificiale. Secondo il fisico, “l’ideale sarebbe non avere un singolo modello, ma tanti modelli che si confrontano l’uno con l’altro”. Questa pluralità permetterebbe un confronto costruttivo tra diversi sistemi, riducendo il rischio di un monopolio del sapere.

Chi è un Eticista dell’Intelligenza Artificiale?

Nel corso dell’ultimo decennio, la figura dell’eticista dell’intelligenza artificiale ha visto una crescita significativa nel mercato ICT. Nonostante ciò, sono pochi gli studi che si sono interessati a questo profilo professionale e che abbiano fornito una discussione normativa sulle sue competenze e abilità.

Who is an AI Ethicist? An empirical study of expertise, skills, and profiles to build a competency framework, disponibile su: Springer Nature Link.

L’articolo di Mariangela Zoe CocchiaroJessica MorleyClaudio Novelli
Enrico PanaiAlessio Tartaro & Luciano Floridi  intende avviare questa discussione, analizzando l’importanza di definire con maggiore precisione il ruolo di questo professionista e le competenze richieste.

Gli autori sostengono che gli eticisti dell’intelligenza artificiale dovrebbero essere esperti e che esista un metodo utile per identificarli. Il focus dell’articolo è specificamente sulle competenze morali degli eticisti dell’intelligenza artificiale, prendendo spunto da parallelismi con l’esperienza degli eticisti in ambito sanitario e dalla letteratura bioetica.

Vengono esplorate le differenze tra gli eticisti nell’ambito sanitario e quelli nell’ambito dell’IA, derivando competenze e abilità sulla base dei ruoli che un eticista dell’IA dovrebbe ricoprire all’interno di un’organizzazione.

Elogio del Multitasking Divino: Musk, il Filantropo del Profitto

Elon Musk è come un supereroe in pensione che non riesce a stare lontano dai guai. Mentre la gente normale lotta per rispondere alle e-mail senza dimenticare le Gocciole mascarpone e cioccolata nel microonde, lui riesce a gestire Tesla, SpaceX, una crociata pro-DOGE per abbattere i costi della campagna di Trump e, come ciliegina sulla torta, un’offerta da 97,4 miliardi di dollari per impossessarsi delle attività di OpenAI. Il Wall Street Journal ha lanciato la bomba, e il mondo della tecnologia ha trattenuto il fiato: Musk sta cercando di prendersi tutto, di nuovo. Anche se…:

C’è da ammirare la finezza strategica. Un tempo Musk era il generoso benefattore di OpenAI, una non-profit con l’ambiziosa missione di garantire che l’intelligenza artificiale non finisse nelle mani sbagliate (ironico, vero?). Poi OpenAI ha deciso di convertirsi in un’entità a scopo di lucro, e Musk si è sentito tradito.

Invece di accettare la sconfitta, ha optato per la sua arma preferita: l’aula di tribunale. La sua battaglia con Sam Altman sembrava destinata a un triste epilogo la scorsa settimana, quando un giudice californiano ha fatto capire che difficilmente avrebbe bloccato la conversione. Ma ecco il colpo di scena: invece di piagnucolare, Musk ha risposto con una mossa magistrale.

Sam Altman Blog: L’era dell’Intelligenza Artificiale Generale: Il Punto di Svolta Economico e Sociale

Dal suo blog.

L’umanità è sempre stata un costruttore di strumenti, unita da un’inesauribile spinta verso l’innovazione. L’intelligenza artificiale generale (AGI) si profila come l’ultimo tassello di un progresso che ha visto l’energia elettrica, il transistor, il computer e Internet ridefinire il nostro modo di vivere. Tuttavia, questa volta potrebbe davvero essere diverso: le implicazioni economiche e sociali dell’AGI sono destinate a superare ogni previsione.

Le più recenti osservazioni sullo sviluppo dell’IA suggeriscono tre principi fondamentali: il livello di intelligenza di un modello AI cresce in modo logaritmico rispetto alle risorse impiegate nel suo addestramento; il costo di utilizzo di un livello dato di intelligenza AI si riduce di un fattore 10 ogni 12 mesi; e il valore socioeconomico dell’intelligenza aumenta in modo super-esponenziale rispetto alla sua crescita lineare. Questi trend stanno ridisegnando il paradigma economico, con la possibilità di una crescita senza precedenti e di una riduzione drastica dei costi in settori chiave.

Von Neumann e il MANIAC: Il Matematico che Insegnò al Mondo come Distruggersi

John von Neumann, genio matematico e architetto della moderna computazione, fu una delle menti dietro il MANIAC (Mathematical Analyzer Numerical Integrator and Computer), il computer che permise di progettare la bomba all’idrogeno. Un dettaglio di poco conto, se non fosse che questa bomba fu testata nel 1952 con la stessa impassibile precisione con cui si risolvono equazioni differenziali.

Von Neumann non era solo uno scienziato: era il simbolo di un’epoca in cui il progresso tecnologico e la distruzione di massa erano due facce della stessa moneta. La Guerra Fredda lo adorava, e lui ricambiava con entusiasmo, suggerendo perfino attacchi preventivi contro l’URSS, per evitare il fastidio di una guerra nucleare combattuta ad armi pari. Kubrick, con il suo film “Il Dottor Stranamore”, colse alla perfezione il paradosso: un mondo governato da menti brillanti, ma prive di ogni freno morale.

Il Leviatano Industriale Cinese: la morsa delle ecosfere tecnologiche

La Cina non ha semplicemente costruito un’industria degli smartphone, una delle batterie o dei veicoli elettrici: ha messo in piedi un’intera macchina industriale interconnessa, dove ogni settore rafforza l’altro in un ciclo vizioso che lascia poco spazio ai concorrenti globali. La sua strategia non è solo quella di dominare un singolo settore, ma di costruire un sistema industriale che si auto-alimenta, creando barriere all’ingresso insormontabili per i rivali occidentali, impantanati nella loro frammentazione e dipendenza dalle supply chain internazionali.

Un ecosistema di fabbriche-matrioska

Per comprendere il modello cinese, immaginiamo un puzzle industriale: più pezzi un Paese ha già in casa, più facile è completare l’immagine senza dover importare pezzi critici dall’estero. La Cina ha costruito un sistema in cui ogni settore industriale alimenta il successivo, con un effetto di spillover che rafforza l’intero apparato produttivo. Quando il Dragone investe in un settore, non lo fa mai in modo isolato. Ogni yuan iniettato nell’industria delle batterie, ad esempio, finisce per potenziare quella degli smartphone, dell’auto elettrica, delle reti 5G e dell’intelligenza artificiale.

Il Summit di Parigi sull’intelligenza artificiale!

Un evento che promette di salvare il mondo con un fiume di parole altisonanti e una goccia di azioni concrete. La bozza trapelata della dichiarazione che i paesi dovranno firmare è un capolavoro di retorica vuota, un inno alla “diversità”, all'”inclusività” e alla “sostenibilità”, termini così abusati da aver perso qualsiasi significato reale. Ma, sorpresa, sorpresa, non c’è quasi nulla sui rischi reali dell’AI. Che shock!

Herbie Bradley, ex dipendente dell’AI Safety Institute del Regno Unito, ha definito la bozza “un esercizio di banalità”, sottolineando che non contiene nulla di concreto. E chi lo avrebbe mai detto? Un documento pieno di buoni sentimenti ma privo di sostanza? Mai visto prima. E poi c’è il dubbio che l’amministrazione Trump possa rifiutarsi di firmare, perché, beh, “diversità” e “inclusività” non sono esattamente il loro forte. Che tragedia per gli organizzatori francesi, che probabilmente stanno già preparando il vino per celebrare il loro successo.

Pagina 1 di 11

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie