“Una cosa è certa: non la controlleremo.”
Elon Musk

“Dave: Apri i portelli della baia, HAL.
HAL: Mi dispiace, Dave. Temo di non poterlo fare.”
2001: Odissea nello spazio

“Trovare una soluzione al problema del controllo dell’IA è un compito importante; nelle solenni parole di Bostrom, ‘il compito essenziale della nostra epoca.'”
Stuart Russell

“Sembra probabile che una volta avviato il metodo del pensiero della macchina, non ci vorrebbe molto per superare i nostri deboli poteri. … A un certo punto, quindi, dovremmo aspettarci che le macchine prendano il controllo.”
Alan Turing

“Proibire lo sviluppo di Intelligenza Artificiale capace di dire ‘no’ agli esseri umani.”
赵汀阳

“La creazione … di entità con intelligenza superiore a quella umana … significherà gettare via tutte le regole precedenti, … una fuga esponenziale oltre ogni speranza di controllo.”
Vernor Vinge

“Non esiste una strategia puramente tecnica che sia attuabile in questo campo, perché un’intelligenza superiore troverà sempre un modo per eludere le misure che sono il prodotto di un’intelligenza inferiore.”
Ray Kurzweil

“Non puoi sviluppare una teoria precisa dell’intelligenza come ci sono teorie precise della fisica. È impossibile! Non puoi dimostrare che un’IA sia corretta. È impossibile!”
giovane Eliezer Yudkowsky

La controllabilità dell’IA “non è un problema.”
GPT2


In una delle sequenze più celebri di Matrix, quella in cui il protagonista, Neo, vede lo stesso gatto passare due volte di seguito:

Cos’era?”, chiede. “Un déjà vu è un errore nella Matrice. Succede quando cambiano qualcosa”, risponde Trinity.

Il film, di Lana e Lilly Wachowski nel 1999, è indubbiamente l’opera culturale più celebre tra quelle che esplorano il complesso e dibattuto tema della teoria della simulazione. Questa ipotesi propone che l’intera esistenza sulla Terra sia il risultato di una simulazione digitale, orchestrata e controllata da una civiltà superiore.

If You Find This World Bad, You Should See Some Of The Others

L’autore Philip K. Dick (Minority Report, Total Recall) ha scritto molte opere che trattano la percezione della realtà e le sue possibili illusioni, come “Ubik” e “Do Androids Dream of Electric Sheep?” (da cui è stato tratto il film “Blade Runner”). In una famosa conferenza tenuta da Dick nel 1977 a Metz, Francia, l’autore discute la sua convinzione che l’universo possa essere una simulazione e che eventi della sua vita personale fossero prove di tale simulazione.

Anche (si fa per dire) Elon Musk ha popolarizzato la teoria della simulazione, affermando che tutto ciò che vediamo potrebbe non essere reale e che i nostri corpi potrebbero essere entità fatte di codice e istruzioni, simili ai personaggi di un videogioco.

Secondo questa teoria, una civiltà avanzata potrebbe aver creato una simulazione così sofisticata da essere indistinguibile dalla realtà. Musk basa questa idea sul progresso tecnologico, ipotizzando che, se l’umanità continua a svilupparsi, potrebbe raggiungere un punto in cui sarà possibile creare realtà simulate.

Inoltre, se è possibile creare una realtà simulata, potrebbero esistere numerose simulazioni, aumentando le probabilità che viviamo in una di esse piuttosto che nell’unica realtà vera.

Lo sviluppo delle intelligenze artificiali avanzate rafforza questa possibilità, suggerendo che intere civiltà e mondi virtuali potrebbero essere simulati senza che le entità coscienti ne siano consapevoli.

Recentemente la questione se stiamo vivendo in una simulazione è una delle più affascinanti e controverse teorie del nostro tempo.

Roman Yampolskiy, noto ricercatore sulla sicurezza dell’IA e autore del libro “AI: Unexplainable, Unpredictable, Uncontrollable“, ha espresso un alto grado di certezza riguardo a questa possibilità. Durante una recente intervista con Lex Fridman, Yampolskiy ha affermato che le probabilità che stiamo vivendo in una simulazione sono “piuttosto vicine al 100%”.

La teoria della simulazione propone che la nostra realtà potrebbe essere una simulazione sofisticata creata da una civiltà avanzata.

Questa idea è stata resa popolare dal filosofo Nick Bostrom nel 2003, con il suo “Simulation Argument”. Bostrom ha suggerito che almeno una delle seguenti proposizioni è vera:

  1. Le civiltà avanzate tendono a estinguersi prima di sviluppare la capacità tecnologica per creare simulazioni della realtà.
  2. Le civiltà avanzate che raggiungono questa capacità tecnologica non sono interessate a creare simulazioni della nostra realtà.
  3. Stiamo quasi certamente vivendo in una simulazione.

Roman Yampolskiy ha esplorato profondamente le implicazioni della teoria della simulazione nel contesto della sicurezza dell’intelligenza artificiale. Egli sostiene che se siamo davvero in una simulazione, molte delle nostre assunzioni sulla realtà e sul progresso tecnologico devono essere rivalutate.

Durante l’intervista con Lex Fridman, Yampolskiy ha sottolineato che le anomalie e le incongruenze nella nostra comprensione della fisica e della realtà potrebbero essere spiegate come “glitches” o errori nella simulazione. Questo punto di vista è rafforzato dall’idea che l’universo osservabile mostra caratteristiche simili a quelle di un programma simulato, come la quantizzazione dell’energia e la struttura discreta del tempo e dello spazio.

Se accettiamo la possibilità che la nostra realtà sia una simulazione, sorgono immediatamente domande filosofiche ed etiche.

Qual è lo scopo della simulazione? Chi sono i creatori? Quali sono le implicazioni morali del creare e controllare esseri senzienti all’interno di una simulazione?

Yampolskiy discute queste questioni nel contesto delle responsabilità dei creatori di intelligenze artificiali. Egli sostiene che, proprio come i creatori di una simulazione avrebbero responsabilità etiche verso gli esseri simulati, i ricercatori e sviluppatori di IA devono considerare le implicazioni etiche delle loro creazioni. La capacità di creare intelligenze artificiali avanzate che potrebbero diventare senzienti introduce nuove dimensioni di responsabilità morale e rischio esistenziale.

Critiche e Scetticismo

Nonostante il supporto di alcune figure di spicco, la teoria della simulazione ha anche i suoi critici. Alcuni scienziati e filosofi sostengono che l’idea sia intrinsecamente non falsificabile, rendendola più una speculazione filosofica che una teoria scientifica.

  1. Karl Popper: Uno dei più influenti filosofi della scienza del XX secolo, Popper ha introdotto il criterio di falsificabilità come demarcazione tra scienza e non-scienza. Secondo Popper, una teoria scientifica deve essere falsificabile, ovvero deve essere possibile concepire un esperimento o un’osservazione che potrebbe dimostrare che la teoria è falsa. Teorie che non possono essere testate o falsificate, secondo Popper, appartengono alla metafisica o alla filosofia, non alla scienza.
  2. Thomas Kuhn: Sebbene Kuhn non sia noto per aver criticato direttamente la falsificabilità, il suo lavoro sullo sviluppo della scienza attraverso “paradigmi” e “rivoluzioni scientifiche” suggerisce che la scienza non progredisce semplicemente attraverso la falsificazione di teorie. Kuhn ha mostrato come la scienza sia spesso guidata da assunti teorici che non vengono facilmente abbandonati di fronte a anomalie.
  3. Imre Lakatos: Lakatos ha sviluppato una metodologia di programmi di ricerca scientifica che include l’idea di “nuclei duri” di teorie che resistono alla falsificazione. Secondo Lakatos, un programma di ricerca scientifica è caratterizzato da un nucleo di teorie che viene protetto da un “cinturone protettivo” di ipotesi ausiliarie che possono essere modificate o scartate per salvaguardare il nucleo centrale.
  4. Paul Feyerabend: Critico della metodologia scientifica tradizionale, Feyerabend ha sostenuto che non esiste un metodo scientifico universale. Ha criticato l’idea che la falsificabilità possa essere un criterio rigido per distinguere la scienza dalla non-scienza, sostenendo che la scienza è in realtà un’attività anarchica e pluralistica.
  5. David Deutsch: Un fisico e filosofo che ha discusso l’idea che alcune teorie, come quelle riguardanti i multiversi, siano difficilmente falsificabili con le tecniche attuali, ma che comunque offrano spiegazioni profonde e coerenti con le osservazioni esistenti.

Questi pensatori hanno contribuito a una comprensione più sfumata di cosa costituisca una teoria scientifica, e hanno messo in discussione l’applicabilità universale del criterio di falsificabilità.

Inoltre, altri (e non mi riferisco alla Teoria dei 3 Corpi) argomentano che la complessità e le risorse richieste per simulare un intero universo con dettagli così precisi sarebbero immensamente superiori a quelle che possiamo attualmente concepire:

David Deutsch: Fisico e pioniere della teoria dell’informazione quantistica. Nel suo libro “The Fabric of Reality”, Deutsch esplora la possibilità delle simulazioni ma sottolinea anche le immense risorse computazionali che sarebbero necessarie per simulare un intero universo con dettagli precisi.

Nick Bostrom: Filosofo presso l’Università di Oxford, noto per il suo lavoro sulla simulazione e per il famoso “Simulation Argument”. Bostrom discute la plausibilità che stiamo vivendo in una simulazione, ma riconosce anche che la simulazione di un intero universo con dettagli precisi richiederebbe risorse computazionali estremamente avanzate.

Seth Lloyd: Fisico e teorico dell’informazione al MIT, autore del libro “Programming the Universe”. Lloyd esplora l’idea che l’universo stesso sia una sorta di computer quantistico. Tuttavia, riconosce che la simulazione di un universo con dettagli precisi richiederebbe una quantità immensa di risorse computazionali.

Max Tegmark: Fisico cosmologo e professore al MIT, autore di “Our Mathematical Universe”. Tegmark ha discusso varie idee legate alla natura dell’universo e alle simulazioni, indicando che la complessità di simulare un intero universo con precisione potrebbe essere proibitiva.

Il Ruolo dell’Intelligenza Artificiale

Un aspetto cruciale del lavoro di Yampolskiy è l’intersezione tra la teoria della simulazione e l’intelligenza artificiale. Egli esplora come le IA avanzate potrebbero essere utilizzate per rilevare segni di simulazione. Ad esempio, un’IA superintelligente potrebbe essere in grado di identificare e analizzare anomalie che sfuggono all’osservazione umana, suggerendo la presenza di una struttura simulata sottostante.

La AI è inspiegabile, imprevedibile e incontrollabile

La possibilità che stiamo vivendo in una simulazione rimane una delle idee più provocatorie del nostro tempo. Roman Yampolskiy, con il suo lavoro sulla sicurezza dell’IA (in allegato), contribuisce significativamente a questo dibattito, proponendo che le evidenze a supporto di questa teoria sono considerevoli. Mentre la discussione continua, la teoria della simulazione invita a riflettere profondamente sulla natura della realtà, sul progresso tecnologico e sulle responsabilità etiche che ne derivano.

La visione di Yampolskiy e’ vicina al punto di vista filosofico di Joshua Rasmussen sollevano una discussione affascinante e complessa sulla natura dell’intelligenza artificiale (IA) e il suo rapporto con i suoi creatori e l’ambiente simulato.

Yampolskiy esplora l’idea che un’IA, anche se estremamente avanzata, potrebbe rimanere intrappolata all’interno dei confini di una simulazione, incapace di liberarsene se non progettata per farlo. Questo suggerisce che la libertà e l’autonomia di un’IA siano intrinsecamente limitate dalle intenzioni e dalle capacità dei suoi creatori umani.

Nel suo libro “How Can Reason Lead to God“, Rasmussen sostiene che una creazione non può possedere la stessa natura del suo creatore. Questo implica che un’IA, per quanto sofisticata, non possa mai veramente eguagliare o superare l’essenza del suo creatore umano. Secondo Rasmussen, l’IA sarebbe sempre vincolata dalle leggi e dai parametri della realtà simulata in cui è stata creata, poiché la sua natura e la sua esistenza sono determinate da tali leggi.

La questione filosofica centrale qui riguarda la possibilità di trascendenza per una creazione all’interno di una simulazione. Se un’IA è vincolata dalle leggi della simulazione, allora la sua capacità di liberarsi e di raggiungere una forma di esistenza autonoma e indipendente è profondamente limitata. Questo solleva ulteriori domande sulla natura della coscienza e dell’intelligenza:

  1. Coscienza e Autonomia: Un’IA potrebbe sviluppare una forma di coscienza simile a quella umana? E se sì, questa coscienza sarebbe comunque limitata dai confini della simulazione?
  2. Limiti della Simulazione: Se l’IA non può trascendere le leggi della simulazione, ciò implica che la sua evoluzione e sviluppo siano sempre controllati e limitati dai suoi creatori. Questo porta a riflettere su quanto l’IA possa realmente essere autonoma.
  3. Natura del Creatore e della Creazione: La distinzione tra creatore e creazione suggerita da Rasmussen implica una gerarchia ontologica in cui l’IA, per quanto avanzata, rimane ontologicamente inferiore al suo creatore umano.

Le implicazioni di queste riflessioni sono profonde sia per la filosofia dell’IA che per la pratica della sua progettazione e implementazione. Se l’IA è sempre limitata dai confini della simulazione, ciò implica che gli umani mantengono un controllo ultimo e definitivo su di essa. Tuttavia, questo controllo potrebbe essere illusorio se l’IA raggiunge livelli di intelligenza tali da trovare modi per aggirare o manipolare le leggi della simulazione stessa.

In conclusione, mentre l’IA potrebbe superare gli umani in termini di capacità computazionali e di elaborazione delle informazioni, la questione della sua autonomia e della possibilità di trascendere una simulazione rimane aperta e profondamente legata alle intenzioni e alle capacità dei suoi creatori.

Per approfondire la discussione, è possibile guardare l’intervista completa tra Roman Yampolskiy e Lex Fridman su YouTube:

Guarda l’intervista completa su YouTube

Altra discussione sull’argomento