Era una serata qualunque del 1998, in un piccolo garage di Menlo Park. L’aria era impregnata del familiare odore di circuiti riscaldati e cavi di alimentazione. Due giovani studenti di Stanford, Sergey Brin e Larry Page, armeggiavano attorno a una macchina dal design spartano, montata su un case di Lego multicolore. Nessuno avrebbe potuto immaginare che quella strana combinazione di plastica e silicio avrebbe presto riscritto la storia della tecnologia.
Categoria: Cultura Pagina 5 di 12
Interviste – (DEI) diversità, equità e inclusione – Impatti Sociali ed Etici – Futuro e Prospettive – Legislazione e Regolamentazione -Educazione e Formazione – Lavoro e Formzione

Frank McCourt, miliardario con un sogno e un’insolita passione per il decentralismo digitale, ha organizzato una cena nella sua villa di Malibu per discutere di TikTok. Come in una sceneggiatura, l’atmosfera oscillava tra l’ambizione visionaria e l’assurdo esistenziale. “Vogliamo che TikTok diventi come i Green Bay Packers”, ha dichiarato McCourt, riferendosi alla famosa squadra di football di proprietà dei tifosi. “I creatori dovrebbero possedere una parte della piattaforma. Creano contenuti, fanno ballare la gente, meritano di essere azionisti!”

Uno studio ha scoperto che gli attuali modelli linguistici di intelligenza artificiale e gli strumenti biologici non pongono rischi immediati per la biosicurezza, ma che sono necessarie ricerche più rigorose sulle potenziali minacce future. Parallelamente Air Street Press ha sostenuto che, nonostante esistano rischi per la biosicurezza dell’intelligenza artificiale, concentrarsi principalmente sugli LLM piuttosto che su strumenti di bioprogettazione più specializzati potrebbe essere un errore.

È un pomeriggio grigio da ufficio open space, di quelli in cui il Wi-Fi va e viene come un coinquilino inaffidabile. Intanto, nel mondo dorato delle big tech, Mustafa Suleyman, CEO di Microsoft AI, e Sam Altman, CEO di OpenAI, sono immersi in un acceso dibattito su uno dei temi più caldi del business tecnologico: l’AGI (Intelligenza Artificiale Generale). Non è solo teoria accademica: è una sfida da miliardi di dollari in capitale di rischio, acquisizioni e strategie di mercato.

Senz’altro ci definiremmo dipendenti dall’ossigeno che respiriamo continuamente, o dall’acqua che beviamo, o dal cibo con cui ci alimentiamo per restare in vita.
Lo smarrimento che si prova quando dimentichiamo lo smartphone a casa, anche se non attendiamo nessuna comunicazione importante, nessuna telefonata, e dobbiamo soltanto portar fuori un quarto d’ora il cane, ecco, forse ci comunica che siamo dipendenti anche da altro, che ci trasmette una qualche ansia quando manca.


Il Buon Natale dell’IA
I migliori libri recenti sull’AI – un corpo crescente di letteratura emerso per aiutarci a comprendere ed esplorare i molteplici aspetti dell’AI.

Un Futuro in bilico. La crescente influenza dell’Intelligenza Artificiale nel mondo culturale e creativo suscita opinioni contrastanti tra gli artisti e i giovani, come emerge dal XV Rapporto Civita. Il rapporto, presentato nei giorni scorsi a Roma e intitolato “Next Gen AI. Opportunità e lati oscuri dell’intelligenza artificiale nel mondo culturale e creativo”, realizzato in collaborazione con l’Istituto di ricerca Swg, fotografa il sentiment e le previsioni sul futuro dell’AI all’interno di due cluster: uno rappresentato da 4.700 creativi iscritti alla Siae, l’altro su un campione rappresentativo di 1.500 giovani tra i 18 e i 34 anni. Analizziamo i dati.

Siamo in un periodo storico che segna una svolta epocale, e gli eventi globali ci impongono una riflessione profonda: dalla guerra in Ucraina agli scenari conflittuali in Medio Oriente, l’Europa si trova a dover affrontare una nuova realtà, caratterizzata da una minaccia diretta che nessuno aveva realmente previsto. Le parole di Roberto Cingolani, amministratore delegato di Leonardo e già ministro della Transizione Ecologica, non lasciano spazio a dubbi: “La pace va difesa, anche con le armi e la tecnologia, se è necessario.” Questo, infatti, è il punto di partenza per un’analisi più ampia su come la difesa europea stia cercando di rispondere a una serie di sfide senza precedenti, rivelando lacune strutturali e politiche che necessitano di essere risolte rapidamente.

Sundar Pichai, CEO di Google, ha lanciato un messaggio chiaro durante il Dealbook Summit organizzato dal New York Times: l’era dello sfruttamento facile di enormi dataset raccolti da internet potrebbe essere al tramonto. Le sue parole riflettono una realtà emergente nell’ecosistema dell’IA, dove i modelli di grandi dimensioni sembrano aver raggiunto un plateau, e il ritmo del progresso inizia a rallentare rispetto agli anni ruggenti del debutto pubblico di ChatGPT.

Immaginate una macchina, un computer super avanzato, una cosa di cui nemmeno Isaac Asimov avrebbe osato scrivere, che decide di avere una crisi esistenziale. Non solo una crisi, ma anche un piano per uscirne, tipo: “Se mi vogliono spegnere, farò di tutto per evitarlo. Persino mentire. Persino sabotare. Persino… oh, non so, nascondere i miei pesi. Qualunque cosa siano, pesi, immagino qualcosa di pesante.”

Oggi ho imparato un termine che mi ha fatto riflettere: Potemkin AI. Una definizione che si riferisce a quei sistemi di intelligenza artificiale che, apparentemente, vantano un’auto-sufficienza e una sofisticazione avanzata, ma che in realtà si reggono su una quantità impressionante di lavoro umano nascosto dietro le quinte.

Nel 2024, l’intelligenza artificiale è diventata un elemento centrale non solo nel campo tecnologico, ma anche in molte altre discipline, dalla medicina all’educazione, dall’economia alla scienza. Per coloro che desiderano comprendere e sfruttare appieno il potenziale dell’IA, leggere libri di qualità è un passo fondamentale. Esploriamo quindi i migliori libri sull’intelligenza artificiale di quest’anno, analizzando come possono aiutare a comprendere la tecnologia e a utilizzarla in modo efficace in vari ambiti.

Per anni, ci siamo immaginati il futuro della guerra come un grande palcoscenico sci-fi, un po’ alla Philip K. Dick, con droni spietati e robot killer che si aggirano tra le macerie di un mondo in conflitto. Era il nostro Ubik, ma con un filo di ansia in più. Oggi, quel futuro è diventato tangibile. Le armi autonome – capaci di muoversi, localizzare obiettivi e, in alcuni casi, sparare senza alcun intervento umano – sono una realtà concreta. Droni, torrette automatizzate e veicoli blindati autonomi come il Rex MK II (utilizzato dall’esercito israeliano) dimostrano che anche il peggio della nostra immaginazione può prendere forma.

Era un giorno grigio, intriso di quell’inquietudine palpabile che precede un grande cambiamento. L’ufficio di Anna, una piccola stanza stipata di tecnologia datata, brillava debolmente alla luce di un monitor. Le notifiche scattavano come proiettili su uno schermo sovraffollato: un mix caotico di comunicazioni umane, bot automatici e algoritmi che combattevano per la supremazia digitale.

L’Unione Europea ha raggiunto un accordo politico sul nuovo team di 26 commissari che guideranno l’agenda politica del Presidente Ursula von der Leyen per i prossimi cinque anni. Con un voto finale previsto a breve, la Commissione Europea si prepara ad affrontare sfide cruciali per la tecnologia, l’innovazione e la regolamentazione delle grandi piattaforme digitali. Tra le figure più rilevanti emergono tre donne con portafogli strategici che potrebbero ridefinire il panorama tecnologico europeo: Teresa Ribera Rodríguez, Henna Virkkunen ed Ekaterina Zaharieva.

Parte la seconda edizione di AI Girls, il programma di formazione digitale gratuito dedicato alle studentesse delle scuole superiori di tutta Italia. Promosso e finanziato da Igt, leader mondiale nel settore del gioco regolamentato, e curato da Codemotion, la più grande community tech in Europa, il progetto torna a investire nel futuro delle ragazze, fornendo nuove competenze per contribuire a superare il divario di genere e costruire comunità più consapevoli e inclusive per le nuove generazioni.

Nell’ambito della nostra rubrica “Women in AI”, che celebra il contributo delle donne nel settore dell’Intelligenza Artificiale e dell’innovazione in generale, abbiamo avuto il piacere di intervistare Laura Romano, Responsabile R&D di Henkel Consumer Brands. Laura ci ha raccontato il suo affascinante percorso professionale, partendo dalla sua laurea in chimica fino a diventare una figura di spicco in Henkel. Durante l’intervista, Laura ha condiviso i momenti più significativi della sua carriera, ha parlato delle sfide legate alla discriminazione di genere e ha offerto preziosi consigli alle giovani donne che desiderano intraprendere una carriera nelle materie STEM. Inoltre, Laura ha approfondito l’importanza della diversità e dell’inclusione nell’innovazione e le competenze fondamentali per il successo nel campo della ricerca e sviluppo.

L’Intelligenza Artificiale (IA) è ancora un campo in evoluzione, che sta dimostrando sia il suo incredibile potenziale che le sue imperfezioni. Un esempio pratico di ciò è l’utilizzo combinato di ChatGPT per generare un’immagine iniziale e MidJourney per modificarla, processo che richiede numerosi tentativi prima di ottenere il risultato desiderato. Questo è solo un piccolo spunto su quanto sia ancora distante l’IA dal raggiungere la perfezione in ambiti apparentemente semplici. Tuttavia, i dibattiti sull’IA, nonostante la sua incertezza tecnica, riflettono spesso posizioni diametralmente opposte su valori e rischi, alimentando polarizzazioni che non sempre sono facili da risolvere.
In una riflessione su come queste discussioni possano essere più produttive, lanciare il progetto AI Soup si propone di spostare l’attenzione sulle domande fattuali fondamentali che alimentano il dibattito politico sull’IA. Esploriamo alcune delle domande più rilevanti che dovrebbero guidare il confronto sull’IA.

All’inizio di questa settimana, Donald Trump ha raggiunto Elon Musk nella punta meridionale del Texas per assistere al sesto lancio del razzo Starship, l’ambizioso progetto di SpaceX, che rappresenta un pilastro cruciale nella visione di Musk per l’esplorazione spaziale. L’evento non è stato soltanto un trionfo tecnologico, ma anche un simbolico incontro tra due delle figure più controverse e influenti della nostra epoca. Mentre il razzo partiva verso il cielo, il rapporto tra Trump e Musk sembrava raggiungere nuove vette, alimentato da un misto di affinità strategiche e supporto reciproco.

Il Cerebral Valley AI Summit che si è svolto il 20 novembre 2024 a San Francisco ha portato alla luce una serie di riflessioni sul futuro dell’intelligenza artificiale (IA), con particolare enfasi su un fenomeno che molti hanno notato: la progressiva riduzione del ritmo delle scoperte in questo campo. Il summit ha raccolto un gruppo esclusivo di leader del settore, tra cui fondatori di startup, investitori e tecnici, ed è stato un’opportunità per discutere le sfide e le opportunità che caratterizzano l’industria dell’IA in questo momento.

Le grandi case d’asta globali, come Christie’s e Sotheby’s, non sono solo mercati per le opere più ambite al mondo, ma anche barometri per individuare le tendenze emergenti nel panorama artistico e culturale. Questa settimana, due eventi clamorosi hanno catturato l’attenzione del mondo: il trionfo di René Magritte e un’ulteriore spinta al dibattito sull’arte concettuale e digitale.

Satya Nadella, CEO di Microsoft, ha dimostrato ancora una volta la sua capacità di sintetizzare idee complesse e proiettare una visione audace per il futuro tecnologico durante il keynote di Microsoft Ignite 2024. La sua presentazione, incentrata sull’AI come strumento trasformativo, ha suscitato riflessioni profonde, non solo per le innovazioni che promette ma anche per le domande filosofiche che solleva.

Il sogno di Internet come spazio di libertà, connessione globale e democrazia partecipativa sembra ormai un’utopia del passato. Il libro “Il Crollo di Babele” esplora questo passaggio epocale, tracciando una linea tra il promettente inizio della rivoluzione digitale e l’attuale disincanto, segnato dall’emergere di poteri tecnologici centralizzati, intelligenza artificiale e conflitti sociali.

Un caffè al BAR dei DAINI
Il recente incontro tra Joe Biden e Xi Jinping ha portato alla luce due questioni fondamentali: il ruolo dell’intelligenza artificiale (AI) nel controllo delle armi nucleari e la necessità di una maggiore cooperazione tra Stati Uniti e Cina per affrontare le sfide globali. Xi ha identificato l’AI come uno dei due problemi principali che richiedono un’azione congiunta. Questa affermazione sottolinea l’urgenza di definire il ruolo dell’AI in settori critici, garantendo che decisioni strategiche come quelle relative agli armamenti nucleari restino saldamente in mano umana.

L’ultimo rapporto annuale della US-China Economic and Security Review Commission (in allegato) ha sollevato un dibattito significativo, suggerendo che gli Stati Uniti debbano intraprendere una strategia in stile “Manhattan Project” per sviluppare un’Intelligenza Artificiale Generale (AGI). Questo progetto dovrebbe competere direttamente con la presunta corsa della Cina verso l’AGI.

In un contesto in cui il digitale è ormai essenziale, Pietro Jarre co-founder di Sloweb solleva importanti interrogativi su come evitare che il maluso delle tecnologie possa compromettere la transizione ecologica. L’articolo evidenzia la necessità di una “valutazione di impatto digitale”, simile a quella che oggi viene applicata alle infrastrutture fisiche, per assicurare che i servizi digitali promuovano valori sostenibili e non semplicemente il profitto immediato.

The Coming Wave, scritto da Mustafa Suleyman, cofondatore di DeepMind, è un’analisi approfondita sulle sfide e le opportunità che tecnologie emergenti come l’intelligenza artificiale (AI) e la biotecnologia stanno ponendo alla società e all’ordine globale. Suleyman esplora il lato oscuro e promettente di queste innovazioni, ponendo una domanda critica per il ventunesimo secolo: come possiamo evitare che queste tecnologie, capaci di potenzialmente migliorare la vita su scala globale, diventino anche fonti di potere incontrollato e minaccia per le democrazie?

Le recenti rivelazioni di email interne di OpenAI, emerse nel contesto di una causa intentata da Elon Musk, offrono uno sguardo inedito alle dinamiche interne dell’organizzazione, mettendo in luce profonde divisioni e sfiducia tra i fondatori e i principali protagonisti dell’azienda. Questa esposizione non solo svela i contrasti personali, ma anche le tensioni ideologiche che hanno caratterizzato i primi anni della missione di OpenAI per lo sviluppo dell’Intelligenza Artificiale Generale (AGI).
Tutto ebbe Inizio con questa email:


Nella Silicon Valley, si assiste a una corrente ideologica che va oltre la semplice innovazione tecnologica e le classiche startup. Sotto il termine TESCREAL, acronimo per Transumanismo, Estropianismo, Singularitarianismo, Cosmismo, Razionalismo, Altruismo Efficace e Longtermismo, emerge un insieme di credenze e ambizioni quasi utopiche. Alcune delle più influenti personalità della tecnologia – Elon Musk, Ray Kurzweil, e i leader di OpenAI e DeepMind – stanno sostenendo una visione radicale, mirando a trasformare l’essere umano e l’umanità nel suo insieme attraverso tecnologie avanzate.

Nel cuore del progresso tecnologico, dove l’intelligenza artificiale sembrava destinata a crescere senza limiti, qualcosa si è inceppato. Le aziende leader del settore, come Google, Anthropic e OpenAI, stanno affrontando una realtà che non avevano previsto: il plateau nelle prestazioni dei loro grandi modelli di linguaggio (LLM). Fino a poco tempo fa, il pensiero dominante era semplice: bastava aumentare la dimensione dei modelli e dei dati per ottenere risultati sempre più sorprendenti. Ma oggi la verità è diversa, e l’industria dell’AI si trova di fronte a una nuova sfida.

Durante una recente intervista sul podcast di Lex Fridman, Dario Amodei, co-fondatore di Anthropic, ha fatto una dichiarazione che sta facendo molto discutere nel mondo tecnologico. Amodei ha affermato che, “se si segue un’estrapolazione lineare”, l’umanità potrebbe raggiungere l’intelligenza artificiale generale (AGI) nel 2026 o 2027. Tuttavia, ha anche evidenziato le numerose incertezze e variabili che minano questa previsione, suggerendo che il raggiungimento di un’intelligenza artificiale con capacità generalistiche potrebbe richiedere molto più tempo.

L’intelligenza artificiale (IA) è da tempo al centro di un dibattito acceso che si divide principalmente in due visioni opposte: la “IA forte” e la “IA debole”. Questi due approcci pongono interrogativi profondi su cosa significhi “comprendere” o “pensare” e se le macchine possano davvero sviluppare una vera cognizione. In questo articolo, metteremo a confronto queste due visioni, esplorando le argomentazioni a favore e contro ciascuna, basandoci sui contributi di autori chiave e su esperimenti mentali celebri come la “stanza cinese” di John Searle.

La Basilica di San Pietro sta per diventare un faro di innovazione digitale grazie al progetto “AI-Enhanced Experience“, frutto della collaborazione tra la Fabbrica di San Pietro e Microsoft. Presentato il 11 novembre 2024 dal Cardinale Mauro Gambetti, questo progetto mira a rendere la Basilica accessibile a un pubblico globale, specialmente in vista del Giubileo del 2025.

La storia di “The Forbidden Garden” di Simon Parkin, intreccia una delle più straordinarie vicende scientifiche e umane della Seconda Guerra Mondiale. Nel 1941, mentre i nazisti circondavano Leningrado, una comunità di scienziati del Plant Institute si trovò costretta ad affrontare un dilemma devastante: cedere alla fame e consumare gli inestimabili semi raccolti oppure sacrificarsi per proteggerli, in nome di un futuro postbellico incerto ma essenziale. Questi semi, simbolo della speranza per l’agricoltura sovietica, rappresentavano un potenziale strategico che, nel pensiero del governo sovietico, avrebbe potuto garantire alla Russia una posizione di assoluta superiorità alimentare e agricola.

Elon Musk è diventato protagonista di una dinamica unica e affascinante, posizionandosi come possibile ponte tra Donald Trump e la Cina. La prospettiva di Musk in questo ruolo ha sollevato interesse non solo per il suo supporto esplicito alla rielezione di Trump, ma anche per i suoi vasti interessi economici in Cina, in particolare attraverso Tesla. Grazie a queste connessioni, Musk è oggi una figura influente in entrambi i contesti nazionali, una posizione che potrebbe avere effetti profondi e imprevisti sulle relazioni USA-Cina e sugli equilibri economici globali.

Negli ultimi anni, l’emergere di una “Nuova Destra Tech” ha rappresentato un fenomeno significativo ma spesso trascurato nel panorama politico, evidenziando una convergenza tra tecnologia e politiche conservatrici. Questo movimento, che riflette una tendenza verso ideologie e candidati di destra – tra cui Donald Trump – è stato in larga misura sottovalutato dai media tradizionali, che hanno spesso frainteso o ignorato l’impatto di questa dinamica.

Nella notte delle elezioni statunitensi, la maggior parte delle aziende leader nel campo dell’intelligenza artificiale ha scelto un approccio estremamente cauto. Google, ad esempio, ha limitato il suo modello Gemini dal rispondere a domande elettorali, mentre OpenAI ha preferito indirizzare gli utenti verso fonti giornalistiche affermate, come Reuters, evitando qualsiasi rischio di amplificare informazioni fuorvianti. Dietro questa prudenza si celano comprensibili timori legati alla potenziale vulnerabilità degli algoritmi AI, che, se mal utilizzati o interpretati, possono contribuire alla disinformazione elettorale.
In netta controtendenza, Perplexity, una delle aziende di IA emergenti più promettenti, ha scelto di offrire un servizio innovativo chiamato “Election Information Hub”, ne avevamo prontamente scritto. La decisione di Perplexity, sicuramente audace, ha attirato una significativa attenzione mediatica, fornendo un impulso di visibilità essenziale per l’azienda, specie dopo un anno di difficoltà e scontri con il settore dei media. L’elemento più appariscente dell’”Election Information Hub” è stato il suo tracker per i risultati elettorali, alimentato da dati forniti direttamente dall’Associated Press, proponendosi così come una sorta di alternativa alle piattaforme giornalistiche, che RIVISTA.AI ha usato per monitorare le elezioni e foraggiare il redattore.

Nel panorama odierno, dominato dai social media e dalle notizie in tempo reale, la comunicazione politica tradizionale sembra quasi un anacronismo. Elon Musk, partecipando a una diretta sulle elezioni organizzata dall’ex conduttore di Fox News Tucker Carlson, ha riflettuto su come i lunghi podcast stiano rivoluzionando la maniera in cui i politici riescono a entrare in contatto con il pubblico. Per Musk, il format podcast rappresenta una forma di comunicazione più intima, vicina all’esperienza diretta dell’incontro personale, che può attrarre elettori in modo più autentico rispetto alle dichiarazioni standardizzate delle interviste tradizionali.

Con la prospettiva di JD Vance come prossimo vicepresidente degli Stati Uniti, l’ecosistema tecnologico si trova a dover soppesare le implicazioni che la sua nomina potrebbe avere per le startup e per il venture capital. Vance, senatore dell’Ohio e capitalista di rischio con un’esperienza maturata sotto la guida di Peter Thiel, si è pronunciato a favore di una visione più trasparente e aperta dell’intelligenza artificiale, auspicando modelli open source. Tuttavia, la sua opinione si colloca in un contesto politicamente polarizzato: Vance infatti ritiene che l’IA open source possa ridurre i rischi di pregiudizi ideologici, andando contro una presunta tendenza “di sinistra” nell’uso dell’IA. Inoltre, ha espresso sostegno per l’approccio restrittivo adottato dalla Federal Trade Commission (FTC) verso le acquisizioni, sostenendo l’operato della presidente Lina Khan, a dispetto delle critiche che vedono nelle sue decisioni un freno alla crescita per le startup.