Il 2025 si prospetta come un anno di grandi opportunità per i capitalisti di rischio, o venture capitalist, che hanno dimostrato di saper cogliere con lungimiranza le tendenze emergenti e anticipare l’evoluzione dei mercati. Con la ripresa economica globale che segue le cicliche fasi di instabilità, il capitale di rischio si configura come una delle leve più potenti per il finanziamento dell’innovazione. Le sfide future, infatti, non sono solo economiche ma anche legate a un cambiamento paradigmatico nell’approccio alla crescita delle imprese. I venture capitalist, con la loro esperienza e la loro capacità di vedere oltre l’orizzonte a breve termine, sono destinati a trarre vantaggio da questo scenario, facendo leva su tecnologie all’avanguardia, cambiamenti nelle dinamiche di consumo e nuove necessità societarie.
Categoria: Cultura Pagina 4 di 11
Interviste – (DEI) diversità, equità e inclusione – Impatti Sociali ed Etici – Futuro e Prospettive – Legislazione e Regolamentazione -Educazione e Formazione – Lavoro e Formzione

La scienza, nata dallo studio della materia, ha conquistato traguardi straordinari, ma oggi si trova a un bivio esistenziale. Da tempo considerata distante e persino in conflitto con la spiritualità, essa può invece integrarsi armoniosamente con quest’ultima per ampliare la nostra comprensione del cosmo e della coscienza. Questo è il cuore della visione di Federico Faggin, che propone una rivoluzione concettuale: abbandonare la visione riduzionista della scienza e riconoscere il valore della coscienza e del libero arbitrio come elementi fondamentali dell’universo.

La teoria dei due sistemi cognitivi di Daniel Kahneman appare illuminante, ha vinto un Nobel, ma esiste un’altra prospettiva che sostiene che le macchine non debbano necessariamente “pensare” come noi. Infatti, un’intelligenza artificiale che emula il nostro processo decisionale lento e riflessivo (Sistema 2) potrebbe rivelarsi un errore. Potrebbe addirittura costituire un ostacolo all’efficienza e allo sviluppo dell’intelligenza artificiale
.

Allora, immaginate questa scena: il nostro cervello, e di conseguenza l’IA, è come una vecchia macchina da scrivere che scrive senza mai fermarsi. Daniel Kahneman, premio Nobel e probabilmente una delle persone più brillanti a cui possiamo farlo, ha messo in chiaro che il nostro cervello funziona come un sistema a due velocità: il Sistema 1, che è rapido, automatico e, diciamocelo, un po’ pigro; e il Sistema 2, che è riflessivo, lento e, beh, ci fa sudare un po’ per ragionare.

Questo articolo si basa su appunti di lezioni preparati per una serie di seminari che Carlo Rovelli ha tenuto al Dipartimento di Filosofia di Princeton nel novembre 2024. Coprono la struttura concettuale della gravità quantistica, l’interpretazione relazionale della meccanica quantistica, la struttura del tempo, il suo orientamento e l’apertura del futuro, il fondamento fisico dell’informazione e del significato e alcune considerazioni generali sul fatto che i concetti evolvono, sul prospettivalismo e l’antifondazionalismo.

Il debito pubblico degli Stati Uniti rappresenta una questione cruciale che periodicamente riemerge nel dibattito politico, influenzando le dinamiche tra il Congresso e l’amministrazione presidenziale. Recentemente, la discussione ha assunto toni accesi, con figure di spicco come il Presidente eletto Donald Trump e la Senatrice Elizabeth Warren che convergono sorprendentemente sulla necessità di abolire il tetto del debito.

L’appello di Carlien Scheele, Direttrice dell’Istituto Europeo per l’Uguaglianza di Genere (Eige), evidenzia una realtà cruciale: il talento femminile è un pilastro indispensabile per lo sviluppo economico e sociale dell’Unione Europea. Tuttavia, il divario occupazionale di genere continua a rappresentare una perdita economica enorme, stimata in 370 miliardi di euro l’anno. Un costo che l’Europa non può più permettersi di ignorare.

Quando nel 1998 Margaret A. Boden scriveva il suo influente libro Creativity and Artificial Intelligence, gettava le basi per un dibattito che oggi è più attuale che mai. La psicologa cognitiva, già profondamente immersa nelle teorie della creatività, si interrogava su come la macchina potesse essere creativa. La sua riflessione nasceva da una domanda cruciale: la creatività è un attributo esclusivamente umano, o le macchine possono davvero essere creative? A distanza di più di due decenni, il panorama dell’Intelligenza Artificiale è drasticamente cambiato, eppure le domande di fondo restano le stesse.

Il mondo della tecnologia gratuita: il buffet digitale dove tutti, indipendentemente da quanto mangiano, fingono di stare attenti alla linea. Google e xAI, veterani di questo banchetto, hanno deciso di presentare le loro ultime “generose” offerte per il pubblico, mostrando che anche loro possono giocare al gioco di OpenAI, quello di “regalare potenti strumenti agli utenti, tanto per vedere cosa succede”.
La scorsa settimana, OpenAI ha lanciato la sua campagna “12 Days of OpenAI”, una sorta di spettacolo di Natale con tanto di nuovi e scintillanti strumenti per il pubblico. Ce n’è per tutti i gusti: il generatore di testo-video Sora (che però richiede un abbonamento a ChatGPT Plus, perché, diciamocelo, non esiste festa senza il divieto d’ingresso), il modello di ragionamento avanzato “OpenAI o1” (perfetto per fare colpo a cene formali) e SearchGPT, una ricerca web sofisticata integrata in ChatGPT. Naturalmente, le cose migliori—come Sora—hanno un prezzo, perché, come tutti sappiamo, il mondo non funziona se tutto è gratuito, giusto?

Google ha annunciato la nomina di Debbie Weinstein a Presidente di Google Europa, Middle East e Africa (Emea) con l’obiettivo di supportare utenti, aziende, partner e istituzioni nello sviluppo del pieno potenziale di crescita offerto dall’Intelligenza Artificiale. Debbie Weinstein, una laurea alla Brown University e un Mba alla Harvard Business School, è entrata in Google nel 2014 e da allora ha ricoperto ruoli di leadership sia a livello regionale che globale. In precedenza è stata Vice Presidente e Managing Director di Google nel Regno Unito e in Irlanda. Prima ancora è stata Vice Presidente di Global Advertiser Solutions, assicurandosi che i marketer di tutte le dimensioni in tutto il mondo avessero la possibilità di sviluppare le loro attività con YouTube.

Era una serata qualunque del 1998, in un piccolo garage di Menlo Park. L’aria era impregnata del familiare odore di circuiti riscaldati e cavi di alimentazione. Due giovani studenti di Stanford, Sergey Brin e Larry Page, armeggiavano attorno a una macchina dal design spartano, montata su un case di Lego multicolore. Nessuno avrebbe potuto immaginare che quella strana combinazione di plastica e silicio avrebbe presto riscritto la storia della tecnologia.

Frank McCourt, miliardario con un sogno e un’insolita passione per il decentralismo digitale, ha organizzato una cena nella sua villa di Malibu per discutere di TikTok. Come in una sceneggiatura, l’atmosfera oscillava tra l’ambizione visionaria e l’assurdo esistenziale. “Vogliamo che TikTok diventi come i Green Bay Packers”, ha dichiarato McCourt, riferendosi alla famosa squadra di football di proprietà dei tifosi. “I creatori dovrebbero possedere una parte della piattaforma. Creano contenuti, fanno ballare la gente, meritano di essere azionisti!”

Uno studio ha scoperto che gli attuali modelli linguistici di intelligenza artificiale e gli strumenti biologici non pongono rischi immediati per la biosicurezza, ma che sono necessarie ricerche più rigorose sulle potenziali minacce future. Parallelamente Air Street Press ha sostenuto che, nonostante esistano rischi per la biosicurezza dell’intelligenza artificiale, concentrarsi principalmente sugli LLM piuttosto che su strumenti di bioprogettazione più specializzati potrebbe essere un errore.

È un pomeriggio grigio da ufficio open space, di quelli in cui il Wi-Fi va e viene come un coinquilino inaffidabile. Intanto, nel mondo dorato delle big tech, Mustafa Suleyman, CEO di Microsoft AI, e Sam Altman, CEO di OpenAI, sono immersi in un acceso dibattito su uno dei temi più caldi del business tecnologico: l’AGI (Intelligenza Artificiale Generale). Non è solo teoria accademica: è una sfida da miliardi di dollari in capitale di rischio, acquisizioni e strategie di mercato.

Senz’altro ci definiremmo dipendenti dall’ossigeno che respiriamo continuamente, o dall’acqua che beviamo, o dal cibo con cui ci alimentiamo per restare in vita.
Lo smarrimento che si prova quando dimentichiamo lo smartphone a casa, anche se non attendiamo nessuna comunicazione importante, nessuna telefonata, e dobbiamo soltanto portar fuori un quarto d’ora il cane, ecco, forse ci comunica che siamo dipendenti anche da altro, che ci trasmette una qualche ansia quando manca.


Il Buon Natale dell’IA
I migliori libri recenti sull’AI – un corpo crescente di letteratura emerso per aiutarci a comprendere ed esplorare i molteplici aspetti dell’AI.

Un Futuro in bilico. La crescente influenza dell’Intelligenza Artificiale nel mondo culturale e creativo suscita opinioni contrastanti tra gli artisti e i giovani, come emerge dal XV Rapporto Civita. Il rapporto, presentato nei giorni scorsi a Roma e intitolato “Next Gen AI. Opportunità e lati oscuri dell’intelligenza artificiale nel mondo culturale e creativo”, realizzato in collaborazione con l’Istituto di ricerca Swg, fotografa il sentiment e le previsioni sul futuro dell’AI all’interno di due cluster: uno rappresentato da 4.700 creativi iscritti alla Siae, l’altro su un campione rappresentativo di 1.500 giovani tra i 18 e i 34 anni. Analizziamo i dati.

Siamo in un periodo storico che segna una svolta epocale, e gli eventi globali ci impongono una riflessione profonda: dalla guerra in Ucraina agli scenari conflittuali in Medio Oriente, l’Europa si trova a dover affrontare una nuova realtà, caratterizzata da una minaccia diretta che nessuno aveva realmente previsto. Le parole di Roberto Cingolani, amministratore delegato di Leonardo e già ministro della Transizione Ecologica, non lasciano spazio a dubbi: “La pace va difesa, anche con le armi e la tecnologia, se è necessario.” Questo, infatti, è il punto di partenza per un’analisi più ampia su come la difesa europea stia cercando di rispondere a una serie di sfide senza precedenti, rivelando lacune strutturali e politiche che necessitano di essere risolte rapidamente.

Sundar Pichai, CEO di Google, ha lanciato un messaggio chiaro durante il Dealbook Summit organizzato dal New York Times: l’era dello sfruttamento facile di enormi dataset raccolti da internet potrebbe essere al tramonto. Le sue parole riflettono una realtà emergente nell’ecosistema dell’IA, dove i modelli di grandi dimensioni sembrano aver raggiunto un plateau, e il ritmo del progresso inizia a rallentare rispetto agli anni ruggenti del debutto pubblico di ChatGPT.

Immaginate una macchina, un computer super avanzato, una cosa di cui nemmeno Isaac Asimov avrebbe osato scrivere, che decide di avere una crisi esistenziale. Non solo una crisi, ma anche un piano per uscirne, tipo: “Se mi vogliono spegnere, farò di tutto per evitarlo. Persino mentire. Persino sabotare. Persino… oh, non so, nascondere i miei pesi. Qualunque cosa siano, pesi, immagino qualcosa di pesante.”

Oggi ho imparato un termine che mi ha fatto riflettere: Potemkin AI. Una definizione che si riferisce a quei sistemi di intelligenza artificiale che, apparentemente, vantano un’auto-sufficienza e una sofisticazione avanzata, ma che in realtà si reggono su una quantità impressionante di lavoro umano nascosto dietro le quinte.

Nel 2024, l’intelligenza artificiale è diventata un elemento centrale non solo nel campo tecnologico, ma anche in molte altre discipline, dalla medicina all’educazione, dall’economia alla scienza. Per coloro che desiderano comprendere e sfruttare appieno il potenziale dell’IA, leggere libri di qualità è un passo fondamentale. Esploriamo quindi i migliori libri sull’intelligenza artificiale di quest’anno, analizzando come possono aiutare a comprendere la tecnologia e a utilizzarla in modo efficace in vari ambiti.

Per anni, ci siamo immaginati il futuro della guerra come un grande palcoscenico sci-fi, un po’ alla Philip K. Dick, con droni spietati e robot killer che si aggirano tra le macerie di un mondo in conflitto. Era il nostro Ubik, ma con un filo di ansia in più. Oggi, quel futuro è diventato tangibile. Le armi autonome – capaci di muoversi, localizzare obiettivi e, in alcuni casi, sparare senza alcun intervento umano – sono una realtà concreta. Droni, torrette automatizzate e veicoli blindati autonomi come il Rex MK II (utilizzato dall’esercito israeliano) dimostrano che anche il peggio della nostra immaginazione può prendere forma.

Era un giorno grigio, intriso di quell’inquietudine palpabile che precede un grande cambiamento. L’ufficio di Anna, una piccola stanza stipata di tecnologia datata, brillava debolmente alla luce di un monitor. Le notifiche scattavano come proiettili su uno schermo sovraffollato: un mix caotico di comunicazioni umane, bot automatici e algoritmi che combattevano per la supremazia digitale.

L’Unione Europea ha raggiunto un accordo politico sul nuovo team di 26 commissari che guideranno l’agenda politica del Presidente Ursula von der Leyen per i prossimi cinque anni. Con un voto finale previsto a breve, la Commissione Europea si prepara ad affrontare sfide cruciali per la tecnologia, l’innovazione e la regolamentazione delle grandi piattaforme digitali. Tra le figure più rilevanti emergono tre donne con portafogli strategici che potrebbero ridefinire il panorama tecnologico europeo: Teresa Ribera Rodríguez, Henna Virkkunen ed Ekaterina Zaharieva.

Parte la seconda edizione di AI Girls, il programma di formazione digitale gratuito dedicato alle studentesse delle scuole superiori di tutta Italia. Promosso e finanziato da Igt, leader mondiale nel settore del gioco regolamentato, e curato da Codemotion, la più grande community tech in Europa, il progetto torna a investire nel futuro delle ragazze, fornendo nuove competenze per contribuire a superare il divario di genere e costruire comunità più consapevoli e inclusive per le nuove generazioni.

Nell’ambito della nostra rubrica “Women in AI”, che celebra il contributo delle donne nel settore dell’Intelligenza Artificiale e dell’innovazione in generale, abbiamo avuto il piacere di intervistare Laura Romano, Responsabile R&D di Henkel Consumer Brands. Laura ci ha raccontato il suo affascinante percorso professionale, partendo dalla sua laurea in chimica fino a diventare una figura di spicco in Henkel. Durante l’intervista, Laura ha condiviso i momenti più significativi della sua carriera, ha parlato delle sfide legate alla discriminazione di genere e ha offerto preziosi consigli alle giovani donne che desiderano intraprendere una carriera nelle materie STEM. Inoltre, Laura ha approfondito l’importanza della diversità e dell’inclusione nell’innovazione e le competenze fondamentali per il successo nel campo della ricerca e sviluppo.

L’Intelligenza Artificiale (IA) è ancora un campo in evoluzione, che sta dimostrando sia il suo incredibile potenziale che le sue imperfezioni. Un esempio pratico di ciò è l’utilizzo combinato di ChatGPT per generare un’immagine iniziale e MidJourney per modificarla, processo che richiede numerosi tentativi prima di ottenere il risultato desiderato. Questo è solo un piccolo spunto su quanto sia ancora distante l’IA dal raggiungere la perfezione in ambiti apparentemente semplici. Tuttavia, i dibattiti sull’IA, nonostante la sua incertezza tecnica, riflettono spesso posizioni diametralmente opposte su valori e rischi, alimentando polarizzazioni che non sempre sono facili da risolvere.
In una riflessione su come queste discussioni possano essere più produttive, lanciare il progetto AI Soup si propone di spostare l’attenzione sulle domande fattuali fondamentali che alimentano il dibattito politico sull’IA. Esploriamo alcune delle domande più rilevanti che dovrebbero guidare il confronto sull’IA.

All’inizio di questa settimana, Donald Trump ha raggiunto Elon Musk nella punta meridionale del Texas per assistere al sesto lancio del razzo Starship, l’ambizioso progetto di SpaceX, che rappresenta un pilastro cruciale nella visione di Musk per l’esplorazione spaziale. L’evento non è stato soltanto un trionfo tecnologico, ma anche un simbolico incontro tra due delle figure più controverse e influenti della nostra epoca. Mentre il razzo partiva verso il cielo, il rapporto tra Trump e Musk sembrava raggiungere nuove vette, alimentato da un misto di affinità strategiche e supporto reciproco.

Il Cerebral Valley AI Summit che si è svolto il 20 novembre 2024 a San Francisco ha portato alla luce una serie di riflessioni sul futuro dell’intelligenza artificiale (IA), con particolare enfasi su un fenomeno che molti hanno notato: la progressiva riduzione del ritmo delle scoperte in questo campo. Il summit ha raccolto un gruppo esclusivo di leader del settore, tra cui fondatori di startup, investitori e tecnici, ed è stato un’opportunità per discutere le sfide e le opportunità che caratterizzano l’industria dell’IA in questo momento.

Le grandi case d’asta globali, come Christie’s e Sotheby’s, non sono solo mercati per le opere più ambite al mondo, ma anche barometri per individuare le tendenze emergenti nel panorama artistico e culturale. Questa settimana, due eventi clamorosi hanno catturato l’attenzione del mondo: il trionfo di René Magritte e un’ulteriore spinta al dibattito sull’arte concettuale e digitale.

Satya Nadella, CEO di Microsoft, ha dimostrato ancora una volta la sua capacità di sintetizzare idee complesse e proiettare una visione audace per il futuro tecnologico durante il keynote di Microsoft Ignite 2024. La sua presentazione, incentrata sull’AI come strumento trasformativo, ha suscitato riflessioni profonde, non solo per le innovazioni che promette ma anche per le domande filosofiche che solleva.

Il sogno di Internet come spazio di libertà, connessione globale e democrazia partecipativa sembra ormai un’utopia del passato. Il libro “Il Crollo di Babele” esplora questo passaggio epocale, tracciando una linea tra il promettente inizio della rivoluzione digitale e l’attuale disincanto, segnato dall’emergere di poteri tecnologici centralizzati, intelligenza artificiale e conflitti sociali.

Un caffè al BAR dei DAINI
Il recente incontro tra Joe Biden e Xi Jinping ha portato alla luce due questioni fondamentali: il ruolo dell’intelligenza artificiale (AI) nel controllo delle armi nucleari e la necessità di una maggiore cooperazione tra Stati Uniti e Cina per affrontare le sfide globali. Xi ha identificato l’AI come uno dei due problemi principali che richiedono un’azione congiunta. Questa affermazione sottolinea l’urgenza di definire il ruolo dell’AI in settori critici, garantendo che decisioni strategiche come quelle relative agli armamenti nucleari restino saldamente in mano umana.

L’ultimo rapporto annuale della US-China Economic and Security Review Commission (in allegato) ha sollevato un dibattito significativo, suggerendo che gli Stati Uniti debbano intraprendere una strategia in stile “Manhattan Project” per sviluppare un’Intelligenza Artificiale Generale (AGI). Questo progetto dovrebbe competere direttamente con la presunta corsa della Cina verso l’AGI.

In un contesto in cui il digitale è ormai essenziale, Pietro Jarre co-founder di Sloweb solleva importanti interrogativi su come evitare che il maluso delle tecnologie possa compromettere la transizione ecologica. L’articolo evidenzia la necessità di una “valutazione di impatto digitale”, simile a quella che oggi viene applicata alle infrastrutture fisiche, per assicurare che i servizi digitali promuovano valori sostenibili e non semplicemente il profitto immediato.

The Coming Wave, scritto da Mustafa Suleyman, cofondatore di DeepMind, è un’analisi approfondita sulle sfide e le opportunità che tecnologie emergenti come l’intelligenza artificiale (AI) e la biotecnologia stanno ponendo alla società e all’ordine globale. Suleyman esplora il lato oscuro e promettente di queste innovazioni, ponendo una domanda critica per il ventunesimo secolo: come possiamo evitare che queste tecnologie, capaci di potenzialmente migliorare la vita su scala globale, diventino anche fonti di potere incontrollato e minaccia per le democrazie?

Le recenti rivelazioni di email interne di OpenAI, emerse nel contesto di una causa intentata da Elon Musk, offrono uno sguardo inedito alle dinamiche interne dell’organizzazione, mettendo in luce profonde divisioni e sfiducia tra i fondatori e i principali protagonisti dell’azienda. Questa esposizione non solo svela i contrasti personali, ma anche le tensioni ideologiche che hanno caratterizzato i primi anni della missione di OpenAI per lo sviluppo dell’Intelligenza Artificiale Generale (AGI).
Tutto ebbe Inizio con questa email:


Nella Silicon Valley, si assiste a una corrente ideologica che va oltre la semplice innovazione tecnologica e le classiche startup. Sotto il termine TESCREAL, acronimo per Transumanismo, Estropianismo, Singularitarianismo, Cosmismo, Razionalismo, Altruismo Efficace e Longtermismo, emerge un insieme di credenze e ambizioni quasi utopiche. Alcune delle più influenti personalità della tecnologia – Elon Musk, Ray Kurzweil, e i leader di OpenAI e DeepMind – stanno sostenendo una visione radicale, mirando a trasformare l’essere umano e l’umanità nel suo insieme attraverso tecnologie avanzate.