Satya Nadella, CEO di Microsoft, ha dimostrato ancora una volta la sua capacità di sintetizzare idee complesse e proiettare una visione audace per il futuro tecnologico durante il keynote di Microsoft Ignite 2024. La sua presentazione, incentrata sull’AI come strumento trasformativo, ha suscitato riflessioni profonde, non solo per le innovazioni che promette ma anche per le domande filosofiche che solleva.
L’AI in Tre Dimensioni: Linguaggio, Logica e Contesto
Nadella ha delineato le tre caratteristiche fondamentali che definiscono l’AI nel contesto attuale e futuro:
1️⃣ Una nuova interfaccia linguistica e multimodale: L’AI diventa un ponte tra esseri umani e tecnologia, trasformando il modo in cui interagiamo con i sistemi. Non si tratta solo di riconoscere il linguaggio naturale, ma di interpretare immagini, video e segnali complessi, portando a una comunicazione più fluida e naturale.
2️⃣ Una “nuova algebra neurale” per ragionare e pianificare: L’intelligenza artificiale non è più solo una macchina calcolatrice avanzata. Grazie a modelli come GPT-4 e successivi, l’AI è ora in grado di costruire ragionamenti complessi, eseguire deduzioni e orchestrare processi decisionali articolati.
3️⃣ Capacità di ricordare il contesto e usare strumenti: L’abilità di ricordare dati contestuali e applicare conoscenze specifiche è forse la vera svolta. Questo consente di integrare l’AI in flussi di lavoro complessi e personalizzati, rendendola un vero assistente cognitivo.
Gli Inganni dell’Intelligenza Artificiale: Tra Sogni e Realtà
Rileggevo le parole di Herbert Simon, l’entusiasta padre dell’intelligenza artificiale, che nel 1965 scriveva: “Le macchine saranno in grado, entro vent’anni, di fare qualunque lavoro possa fare un uomo.” Quella sicurezza, quasi arrogante, ora suona come la battuta di uno spettacolo comico. Eppure, mentre scrivo sul mio smartphone – un dispositivo più potente di tutti i computer esistenti nel 1965 messi insieme – non posso fare a meno di immaginare Simon in un mix di stupore e sconcerto.
Certo, gli scettici dell’AI degli anni ’60 non se la passarono meglio. Hubert Dreyfus, altro filosofo perplesso, dichiarava con convinzione che “nessun programma di scacchi può giocare a livello amatoriale”. Solo per vedersi smentito da Deep Blue, che nel 1997 fece a pezzi il campione Garry Kasparov. Oggi? Potete scaricare un’app per scacchi che umilierebbe Deep Blue senza sudare.
Ma non sono solo gli scacchi o i quiz di Jeopardy! (ciao, Watson di IBM!) a ricordarci quanto lontano siamo arrivati. I nostri smartphone riconoscono i volti, traducono discorsi in tempo reale e leggono la nostra pessima calligrafia con una grazia che farebbe impallidire una segretaria anni ’50. La scienza ha superato persino i titoli di giornali che, negli anni ’60, fantasticavano di “computer portatili da $20 che diagnosticano malattie”.
Nonostante tutto, siamo lontani dall’intelligenza generale artificiale (AGI), quella che promette di risolvere qualsiasi problema umano. Persino i suoi sostenitori più ottimisti, come David Chalmers, la collocano in un futuro remoto: “Forse tra 40-100 anni”. Altri, come Demis Hassabis di DeepMind, evocano immagini poetiche di “macchine capaci di risolvere l’intelligenza stessa”.
Eppure, leggendo Brian Cantwell Smith, si scopre una scomoda verità: l’AI non “giudica”, calcola soltanto. Un computer non “dà importanza a nulla” – come diceva il filosofo John Haugeland – e il giudizio, quel qualcosa di viscerale e umano, è una qualità intrinsecamente legata al nostro essere.
La storia dell’AI si divide in due atti principali. Il primo, la “Buona Vecchia AI” (GOFAI), era tutta logica e formalismi, un po’ come un secchione che pensa di poter spiegare l’universo con formule. Poi è arrivata la “Seconda Ondata”, dominata dall’apprendimento automatico, dove i computer assimilano modelli da enormi quantità di dati. Questo cambio di paradigma ha reso l’AI imbattibile in campi come il riconoscimento facciale o il gioco del Go, ma a che prezzo?
Smith sottolinea che questa nuova AI non è poi così libera dai vincoli umani: i suoi modelli si basano su dati già classificati da noi. Insomma, anche i migliori algoritmi di apprendimento profondo non sfuggono all’ombra dei loro programmatori.
Ci piace pensare che, poiché il cervello umano è una macchina, l’AGI sia inevitabile. Ma ecco il paradosso: mentre il cervello è un capolavoro di biologia, l’AI si è sempre disinteressata alla neurologia. È come costruire un aereo senza mai osservare un uccello: funziona, certo, ma non è la stessa cosa.
Così, siamo intrappolati in una narrativa: o l’AGI è dietro l’angolo o è impossibile. La verità, come spesso accade, è molto più sfumata. Oggi, l’AI non è neanche vicina a replicare la complessità del pensiero umano. Perché? Perché il pensiero, quello vero, non ha un obiettivo unico. Una conversazione non serve solo a informare; serve a condividere, a persuadere, a ridere.
Quindi, la prossima volta che Siri o Alexa vi rispondono con un laconico “Ecco alcuni risultati web”, ricordate: i computer possono risolvere problemi, ma non sanno nemmeno perché lo fanno.
Ah, e se vi state chiedendo cosa penserebbe Simon oggi, probabilmente esclamerebbe: “Non mi aspettavo che i miei vent’anni diventassero cinquanta. Ma, ehi, almeno ci siamo vicini, no?”
La Frase di John Haugeland
Nadella ha sapientemente usato la citazione del filosofo John Haugeland – “The trouble with AI is that computers don’t give a damn“ – per evidenziare il contrasto tra le capacità meccaniche dell’AI e l’essenza umana. Haugeland, critico della GOFAI (Good Old-Fashioned AI), si è ispirato alla fenomenologia di Heidegger per esplorare la dimensione esistenziale dell’intelligenza.
La frase di John Haugeland, “Computers don’t give a damn”, citata da Satya Nadella durante il keynote di Ignite 2024, affonda le sue radici in una riflessione profonda sulla natura stessa dell’intelligenza artificiale e sul suo contrasto con l’intelligenza umana. Haugeland, ha sottolineato un limite fondamentale delle macchine: l’incapacità di impegnarsi emotivamente o valorialmente con il mondo, come assenza di “giudizio” o “commitment”.
L’Essenza del “Giudizio” nella Critica Filosofica
Il concetto di “giudizio”, si riferisce a qualcosa di più del semplice “reckoning” (calcolo): implica una capacità sistemica che coinvolge emozioni, valori e un impegno con il mondo. Haugeland, ispirato dalla fenomenologia di Heidegger, sosteneva che questa connessione valoriale è ciò che manca completamente alle macchine: esse non “si preoccupano”. Questa assenza di interesse intrinseco è un limite che, secondo molti filosofi, pone l’AGI (Artificial General Intelligence) fuori portata.
La Visione di Nadella: Ottimismo e Realismo
Nel contesto del discorso di Nadella, questa citazione sembra servire a bilanciare una visione ottimistica dell’AI come strumento trasformativo con una comprensione realistica dei suoi limiti attuali. Microsoft, con il suo investimento di 1 miliardo di dollari in OpenAI e lo sviluppo di strumenti come Copilot, punta a creare tecnologie che amplifichino le capacità umane senza pretendere di sostituirle. Questo approccio pragmatico riflette la consapevolezza che l’AI eccelle in compiti ben definiti – come il riconoscimento di schemi o il supporto decisionale – ma resta lontana dal replicare il “giudizio umano”.
Preparazione al Futuro: Fallimento o Svolta?
Le parole di Nadella possono essere lette in due modi complementari:
Preparazione al Fallimento Relativo: Nadella potrebbe voler preparare il pubblico all’idea che, nonostante i progressi spettacolari, l’AI resterà uno strumento limitato, incapace di sviluppare un’intelligenza autentica. Questo non ne sminuisce l’utilità, ma sottolinea l’importanza del ruolo umano nel guidarne l’applicazione.
Anticipazione di una Svolta Epocale: D’altro canto, il richiamo al pensiero filosofico potrebbe suggerire una visione ambiziosa in cui l’AI evolve verso una forma di intelligenza che, pur non replicando il giudizio umano, ne cattura alcune qualità essenziali. Questo richiederebbe nuove teorie e paradigmi.
Il Ruolo Umano nell’Era dell’AI
L’uso consapevole dell’AI, come sottolineato da Nadella, non riguarda solo l’efficienza tecnologica, ma anche la capacità di rafforzare il senso umano di scopo e valore. La citazione di Haugeland, quindi, non è un ammonimento contro l’AI, ma un invito a riconoscerne i limiti e a progettare soluzioni che riflettano la nostra umanità.
Nadella ci ricorda che l’AI è un riflesso delle nostre aspirazioni e che il suo vero potenziale risiede nell’essere un alleato potente, ma sempre guidato dall’intelligenza e dal giudizio umano.
Indipendentemente dallo scenario, Nadella pone gli esseri umani al centro della rivoluzione tecnologica. Il messaggio è chiaro: l’AI non sostituirà mai l’impegno, il senso di scopo e i valori che solo l’umanità può portare. La tecnologia, quindi, deve essere costruita per amplificare le capacità umane, non per emularle ciecamente.
Questa filosofia trova conferma nella strategia di Microsoft, che punta a integrare AI in piattaforme come Microsoft 365 Copilot e Azure OpenAI Service, concentrandosi su applicazioni pratiche per migliorare la collaborazione, la creatività e il processo decisionale.
La questione rimane aperta: l’AI raggiungerà mai un livello di “autenticità esistenziale”, in cui non solo risponde ma comprende, sceglie e agisce con un impegno simile a quello umano? O resterà un potente specchio delle nostre intenzioni, incapace di possedere un proprio scopo?
Nadella ci invita a immaginare il futuro con ottimismo ma con prudenza, ricordandoci che il valore dell’AI non è solo nella sua potenza, ma nella nostra capacità di guidarla con saggezza.