The Coming Wave, scritto da Mustafa Suleyman, cofondatore di DeepMind, è un’analisi approfondita sulle sfide e le opportunità che tecnologie emergenti come l’intelligenza artificiale (AI) e la biotecnologia stanno ponendo alla società e all’ordine globale. Suleyman esplora il lato oscuro e promettente di queste innovazioni, ponendo una domanda critica per il ventunesimo secolo: come possiamo evitare che queste tecnologie, capaci di potenzialmente migliorare la vita su scala globale, diventino anche fonti di potere incontrollato e minaccia per le democrazie?
Categoria: Cultura Pagina 2 di 11
Interviste – (DEI) diversità, equità e inclusione – Impatti Sociali ed Etici – Futuro e Prospettive – Legislazione e Regolamentazione -Educazione e Formazione – Lavoro e Formzione
Le recenti rivelazioni di email interne di OpenAI, emerse nel contesto di una causa intentata da Elon Musk, offrono uno sguardo inedito alle dinamiche interne dell’organizzazione, mettendo in luce profonde divisioni e sfiducia tra i fondatori e i principali protagonisti dell’azienda. Questa esposizione non solo svela i contrasti personali, ma anche le tensioni ideologiche che hanno caratterizzato i primi anni della missione di OpenAI per lo sviluppo dell’Intelligenza Artificiale Generale (AGI).
Nella Silicon Valley, si assiste a una corrente ideologica che va oltre la semplice innovazione tecnologica e le classiche startup. Sotto il termine TESCREAL, acronimo per Transumanismo, Estropianismo, Singularitarianismo, Cosmismo, Razionalismo, Altruismo Efficace e Longtermismo, emerge un insieme di credenze e ambizioni quasi utopiche. Alcune delle più influenti personalità della tecnologia – Elon Musk, Ray Kurzweil, e i leader di OpenAI e DeepMind – stanno sostenendo una visione radicale, mirando a trasformare l’essere umano e l’umanità nel suo insieme attraverso tecnologie avanzate.
Nel cuore del progresso tecnologico, dove l’intelligenza artificiale sembrava destinata a crescere senza limiti, qualcosa si è inceppato. Le aziende leader del settore, come Google, Anthropic e OpenAI, stanno affrontando una realtà che non avevano previsto: il plateau nelle prestazioni dei loro grandi modelli di linguaggio (LLM). Fino a poco tempo fa, il pensiero dominante era semplice: bastava aumentare la dimensione dei modelli e dei dati per ottenere risultati sempre più sorprendenti. Ma oggi la verità è diversa, e l’industria dell’AI si trova di fronte a una nuova sfida.
Durante una recente intervista sul podcast di Lex Fridman, Dario Amodei, co-fondatore di Anthropic, ha fatto una dichiarazione che sta facendo molto discutere nel mondo tecnologico. Amodei ha affermato che, “se si segue un’estrapolazione lineare”, l’umanità potrebbe raggiungere l’intelligenza artificiale generale (AGI) nel 2026 o 2027. Tuttavia, ha anche evidenziato le numerose incertezze e variabili che minano questa previsione, suggerendo che il raggiungimento di un’intelligenza artificiale con capacità generalistiche potrebbe richiedere molto più tempo.
L’intelligenza artificiale (IA) è da tempo al centro di un dibattito acceso che si divide principalmente in due visioni opposte: la “IA forte” e la “IA debole”. Questi due approcci pongono interrogativi profondi su cosa significhi “comprendere” o “pensare” e se le macchine possano davvero sviluppare una vera cognizione. In questo articolo, metteremo a confronto queste due visioni, esplorando le argomentazioni a favore e contro ciascuna, basandoci sui contributi di autori chiave e su esperimenti mentali celebri come la “stanza cinese” di John Searle.
La Basilica di San Pietro sta per diventare un faro di innovazione digitale grazie al progetto “AI-Enhanced Experience“, frutto della collaborazione tra la Fabbrica di San Pietro e Microsoft. Presentato il 11 novembre 2024 dal Cardinale Mauro Gambetti, questo progetto mira a rendere la Basilica accessibile a un pubblico globale, specialmente in vista del Giubileo del 2025.
La storia di “The Forbidden Garden” di Simon Parkin, intreccia una delle più straordinarie vicende scientifiche e umane della Seconda Guerra Mondiale. Nel 1941, mentre i nazisti circondavano Leningrado, una comunità di scienziati del Plant Institute si trovò costretta ad affrontare un dilemma devastante: cedere alla fame e consumare gli inestimabili semi raccolti oppure sacrificarsi per proteggerli, in nome di un futuro postbellico incerto ma essenziale. Questi semi, simbolo della speranza per l’agricoltura sovietica, rappresentavano un potenziale strategico che, nel pensiero del governo sovietico, avrebbe potuto garantire alla Russia una posizione di assoluta superiorità alimentare e agricola.
Elon Musk è diventato protagonista di una dinamica unica e affascinante, posizionandosi come possibile ponte tra Donald Trump e la Cina. La prospettiva di Musk in questo ruolo ha sollevato interesse non solo per il suo supporto esplicito alla rielezione di Trump, ma anche per i suoi vasti interessi economici in Cina, in particolare attraverso Tesla. Grazie a queste connessioni, Musk è oggi una figura influente in entrambi i contesti nazionali, una posizione che potrebbe avere effetti profondi e imprevisti sulle relazioni USA-Cina e sugli equilibri economici globali.
Negli ultimi anni, l’emergere di una “Nuova Destra Tech” ha rappresentato un fenomeno significativo ma spesso trascurato nel panorama politico, evidenziando una convergenza tra tecnologia e politiche conservatrici. Questo movimento, che riflette una tendenza verso ideologie e candidati di destra – tra cui Donald Trump – è stato in larga misura sottovalutato dai media tradizionali, che hanno spesso frainteso o ignorato l’impatto di questa dinamica.
Nella notte delle elezioni statunitensi, la maggior parte delle aziende leader nel campo dell’intelligenza artificiale ha scelto un approccio estremamente cauto. Google, ad esempio, ha limitato il suo modello Gemini dal rispondere a domande elettorali, mentre OpenAI ha preferito indirizzare gli utenti verso fonti giornalistiche affermate, come Reuters, evitando qualsiasi rischio di amplificare informazioni fuorvianti. Dietro questa prudenza si celano comprensibili timori legati alla potenziale vulnerabilità degli algoritmi AI, che, se mal utilizzati o interpretati, possono contribuire alla disinformazione elettorale.
In netta controtendenza, Perplexity, una delle aziende di IA emergenti più promettenti, ha scelto di offrire un servizio innovativo chiamato “Election Information Hub”, ne avevamo prontamente scritto. La decisione di Perplexity, sicuramente audace, ha attirato una significativa attenzione mediatica, fornendo un impulso di visibilità essenziale per l’azienda, specie dopo un anno di difficoltà e scontri con il settore dei media. L’elemento più appariscente dell’”Election Information Hub” è stato il suo tracker per i risultati elettorali, alimentato da dati forniti direttamente dall’Associated Press, proponendosi così come una sorta di alternativa alle piattaforme giornalistiche, che RIVISTA.AI ha usato per monitorare le elezioni e foraggiare il redattore.
Nel panorama odierno, dominato dai social media e dalle notizie in tempo reale, la comunicazione politica tradizionale sembra quasi un anacronismo. Elon Musk, partecipando a una diretta sulle elezioni organizzata dall’ex conduttore di Fox News Tucker Carlson, ha riflettuto su come i lunghi podcast stiano rivoluzionando la maniera in cui i politici riescono a entrare in contatto con il pubblico. Per Musk, il format podcast rappresenta una forma di comunicazione più intima, vicina all’esperienza diretta dell’incontro personale, che può attrarre elettori in modo più autentico rispetto alle dichiarazioni standardizzate delle interviste tradizionali.
Con la prospettiva di JD Vance come prossimo vicepresidente degli Stati Uniti, l’ecosistema tecnologico si trova a dover soppesare le implicazioni che la sua nomina potrebbe avere per le startup e per il venture capital. Vance, senatore dell’Ohio e capitalista di rischio con un’esperienza maturata sotto la guida di Peter Thiel, si è pronunciato a favore di una visione più trasparente e aperta dell’intelligenza artificiale, auspicando modelli open source. Tuttavia, la sua opinione si colloca in un contesto politicamente polarizzato: Vance infatti ritiene che l’IA open source possa ridurre i rischi di pregiudizi ideologici, andando contro una presunta tendenza “di sinistra” nell’uso dell’IA. Inoltre, ha espresso sostegno per l’approccio restrittivo adottato dalla Federal Trade Commission (FTC) verso le acquisizioni, sostenendo l’operato della presidente Lina Khan, a dispetto delle critiche che vedono nelle sue decisioni un freno alla crescita per le startup.
Le recenti elezioni presidenziali hanno portato a un dibattito vivace su come la polarizzazione politica possa influenzare il mondo della tecnologia, in particolare nell’epicentro dell’innovazione: la Silicon Valley. Il settore tecnologico si ritrova diviso tra investitori di idee opposte, sollevando una domanda inquietante: potrebbe la Silicon Valley frantumarsi in fazioni di capitalisti di rischio che rifiutano di collaborare a causa delle loro convinzioni politiche? Eppure, osservando da vicino, è difficile credere che questo scenario estremo diventerà realtà.
La rielezione di Donald Trump alla presidenza degli Stati Uniti sta suscitando grande interesse tra i sostenitori dell’intelligenza artificiale (IA), visti i potenziali vantaggi per l’industria in termini di deregolamentazione e supporto al settore tecnologico. Gli esperti sono cautamente ottimisti: mentre una riduzione della regolamentazione potrebbe accelerare l’innovazione, è essenziale definire una direzione politica chiara per garantire la crescita sostenibile e la sicurezza dell’IA.
Ieri è uscita una bella intervista su Dissipatio.it al Generale Fernando Giancotti sui temi della guerra e della pace, che Rivista.AI aveva avuto l’onore di conoscere.
Le elezioni americane di oggi vanno oltre la scelta del prossimo presidente: sono un’occasione per riflettere sul ruolo degli Stati Uniti nella sicurezza globale e sulla necessità di una strategia europea forte e autonoma.
Questa Settimana Meta, il gigante tecnologico dietro Facebook, ha recentemente esteso l’uso dei suoi modelli di intelligenza artificiale Llama all’esercito statunitense, collaborando con società come Accenture, Amazon Web Services, Palantir, Lockheed Martin e Microsoft. Questo passo nasce in parte come risposta alla crescente adozione dei modelli di Meta da parte di istituzioni cinesi, incluse quelle collegate all’Esercito Popolare di Liberazione (PLA). Ricercatori cinesi hanno infatti adattato Llama 2 per usi militari, tra cui l’analisi delle informazioni strategiche e l’addestramento per la guerra elettronica, sviluppando strumenti come il ChatBIT che supporta simulazioni e decisioni operative complesse.
“Le battaglie si vincono o si perdono prima di tutto nelle menti dei contendenti.”
Questa dichiarazione di apertura, simile a quella del Generale Fernando Giancotti, troverebbe profonda risonanza tra i comandanti militari di molti paesi alleati Transatlantici. La visione strategica va ben oltre le mere capacità belliche: è una disciplina mentale e morale, in cui il successo dipende in larga misura dalla forza intellettuale e dall’agilità decisionale di ogni soldato e leader, nonché dall’integrazione tra questi elementi.
Nel contesto sempre più complesso della disinformazione digitale, Seeweb si unisce al Consorzio Interuniversitario Nazionale per l’Informatica (CINI) nel progetto SOLARIS, un’iniziativa innovativa volta a combattere i deep fake e ad educare i cittadini europei su come riconoscerli.
L’intelligenza artificiale è ora una realtà concreta e dominante. Non è più relegata a laboratori di ricerca, ma è integrata nelle nostre vite quotidiane, dai dispositivi che usiamo agli assistenti virtuali che ci rispondono. Google, Microsoft e OpenAI stanno lanciando versioni avanzate delle loro AI in grado di vedere, ascoltare e rispondere, facendo presagire un futuro di innovazione e utilità senza precedenti. Ma quanto possiamo davvero fidarci di queste “macchine intelligenti”?
Il Massachusetts Institute of Technology (MIT) è una delle istituzioni leader mondiali nel campo dell’intelligenza artificiale (IA) e le sue recenti ricerche stanno plasmando il futuro della tecnologia. Negli ultimi anni, i ricercatori del MIT hanno proposto nuove teorie e approcci che cercano di superare alcune delle limitazioni sia dell’IA forte che di quella debole, proponendo soluzioni ibride e innovative che mirano a rendere le macchine più intelligenti e autonome, senza però cadere nel determinismo della coscienza artificiale. Vediamo alcune delle principali teorie emergenti.
Ray Kurzweil è da decenni una figura centrale nella visione futuristica della singolarità tecnologica. Con il suo nuovo libro, The Singularity Is Nearer, estende e approfondisce le idee che hanno alimentato la sua opera precedente, The Singularity is Near. La singolarità, secondo la sua definizione, è il momento in cui l’intelligenza artificiale supererà le capacità umane, portando a un’accelerazione vertiginosa dell’innovazione tecnologica e a un cambiamento radicale della società. Ma qual è lo stato attuale di questa visione? E, forse ancor più cruciale, siamo pronti a gestire le implicazioni di una tale rivoluzione?
L’AI Act, recentemente discusso, rappresenta una pietra miliare nella regolamentazione dell’intelligenza artificiale all’interno dell’Unione Europea, con un focus particolare sui sistemi di AI ad alto rischio. L’articolo 16 del Regolamento, oggetto della nostra riflessione, dettaglia gli obblighi dei fornitori, definendo un quadro di conformità che bilancia innovazione e tutela dei diritti fondamentali. Questo approccio normativo è costruito per garantire un’AI sicura, trasparente e affidabile, capace di restituire benefici sociali senza sacrificare l’integrità e la sicurezza degli utenti.
L’intelligenza Artificiale nella Ricerca Scientifica: Promesse, Pericoli e Illusioni di Comprensione
Negli ultimi anni, l’intelligenza artificiale (IA) ha conquistato un ruolo sempre più centrale nel panorama scientifico, rivoluzionando il modo in cui gli esperimenti vengono condotti e i dati analizzati. Dalla creazione di laboratori “autonomi” in cui robot e algoritmi collaborano per progettare e realizzare esperimenti, fino alla sostituzione di partecipanti umani in studi sociali con bot, l’IA si sta affermando come uno strumento essenziale per molti ricercatori. Tuttavia, accanto a questo crescente entusiasmo, emergono preoccupazioni significative riguardo ai potenziali rischi e alle illusioni di comprensione che potrebbero derivare da un uso non critico di queste tecnologie.
Nella penombra di un elegante loft di Manhattan, circondato da libri e vecchie macchine da scrivere, un uomo rifletteva sui pericoli dell’intelligenza artificiale. Non era uno scienziato pazzo, ma Ilya Sutskever, uno dei padri spirituali dei moderni modelli linguistici. Guardava il tramonto oltre le finestre e pensava a come i suoi algoritmi, nati per rispondere a domande semplici, si fossero trasformati in divinità digitali affamate di energia.
Il concetto di capitale semantico, elaborato dal filosofo ed eticista Luciano Floridi, rappresenta un nuovo paradigma di capitale, focalizzato sul patrimonio di idee, conoscenza, significato e cultura. Tale capitale si distingue in quanto non si limita a un valore economico o culturale nel senso tradizionale, ma è costruito intorno al valore intrinseco delle idee e delle rappresentazioni che ci permettono di creare significato e di interagire con il mondo in modo più profondo e contestualizzato.
Il Tech Noir ha consolidato il suo ruolo nella cultura popolare come un genere estetico e filosofico di grande impatto, e il film Singularity si inserisce perfettamente in questa tradizione. Nel Tech Noir, la tecnologia diventa una forza che sovrasta l’uomo, e la narrativa esplora spesso un futuro in cui la linea tra l’umano e il tecnologico è diventata talmente sottile da sfumare quasi completamente. Questo filone, nato con capolavori come Blade Runner e The Terminator, ha permesso di esplorare questioni etiche e filosofiche profonde, anticipando preoccupazioni che sono divenute oggi quanto mai attuali.
L’evoluzione recente dei prezzi del gas naturale e delle fonti energetiche in generale si interseca in modo significativo con il potenziale impatto delle tecnologie di Intelligenza Artificiale (AI). In questo contesto, l’AI può svolgere un ruolo cruciale sia per ottimizzare i processi di approvvigionamento energetico sia per mitigare i rischi di volatilità dei prezzi nel mercato dell’energia.
Negli Stati Uniti, ad esempio, i prezzi del gas naturale hanno mostrato un incremento settimanale del 13%, spinto sia da previsioni di temperature più fredde sia da coperture di posizioni corte in previsione dell’imminente scadenza dei contratti di novembre. Il mercato europeo del gas ha registrato un’impennata simile, innescata da un’interruzione nella produzione norvegese e dall’incertezza geopolitica. In Europa, nonostante i prezzi del gas rimangano sotto i livelli storici toccati all’inizio del conflitto in Ucraina, l’instabilità delle forniture sottolinea la vulnerabilità del mercato.
Questa settimana ho avuto il piacere di incontrare il Prof. Raffaele Zanoli. È estremamente preparato e abbiamo discusso di Agricoltura e Intelligenza Artificiale, un tema che mi sta particolarmente a cuore. Successivamente, ho ascoltato per caso un’intervista di Bruno Vespa a Massimiliano Giansanti su “5 minuti”. Concordo pienamente con le sue opinioni e vi consiglio di ascoltarla.
All’inizio del XXI secolo, il panorama delle tecnologie digitali è dominato da due superpotenze: America e Cina. Questi paesi non solo sono leader nell’innovazione tecnologica, ma hanno anche un’influenza significativa sulla società, sull’economia e sull’ambiente globale. In questo contesto, emerge un nuovo concetto: il dato è diventato la “nuova materia prima”, paragonabile al petrolio del secolo scorso. Questo articolo esplora come la gestione dei dati e l’uso delle tecnologie digitali possano essere ripensati in un’ottica di sostenibilità, con un focus sui temi trattati nel Digital Ethics Forum organizzato dall’Associazione Sloweb.
La domanda di energia sta crescendo rapidamente in molti paesi, poiché le popolazioni aumentano e le economie si sviluppano. A livello globale, il consumo primario di energia è aumentato quasi ogni anno per almeno mezzo secolo. Sebbene i miglioramenti in efficienza energetica abbiano rallentato il tasso di crescita, il consumo energetico globale continua a crescere di circa l’1% al 2% all’anno.
L’aumento dell’uso dell’Intelligenza Artificiale (IA) sta aggravando ulteriormente questa sfida energetica globale. I data center, che ospitano i modelli di IA, già oggi rappresentano circa l’1-1,5% del consumo globale di elettricità. Questa percentuale è destinata a salire al 3-4% entro la fine del decennio. Per soddisfare la crescente domanda energetica globale, è necessario utilizzare una varietà di fonti energetiche. Attualmente, la maggior parte dell’energia mondiale proviene dal petrolio, seguito da carbone, gas naturale e energia idroelettrica.