La Cattedra dei non credenti è stata probabilmente una delle intuizioni più caratterizzanti l’episcopato di Carlo Maria Martini a Milano. L’iniziativa si sviluppò dal 1987 al 2002, lungo 12 edizioni e 50 incontri.

«… Ciascuno di noi ha dentro di sé un non credente e un credente che ci parlano dentro, che si interrogano a vicenda».

Cardinale Carlo Maria Martini

Il 26 novembre 1998, il cardinale Carlo Maria Martini tenne un intervento alla X sessione della Cattedra dei non credenti, intitolato “Scritture dell’uomo e Scrittura di Dio”. In quel testo, Martini poneva una domanda fondamentale che ancora oggi rimane attuale: “Vi è ancora un posto visibile per Dio nella storia dell’universo?”.

Quella domanda, posta da un uomo di fede, rappresentava un invito a riflettere sul ruolo della religione nella società contemporanea, caratterizzata da una sempre maggiore secolarizzazione e da un’accelerazione del progresso scientifico e tecnologico.

Martini sottolineava come la Scrittura di Dio, intesa come la rivelazione divina contenuta nei testi sacri, fosse in dialogo costante con le scritture dell’uomo, ovvero le espressioni culturali, filosofiche e scientifiche prodotte dall’umanità nel corso della storia. Tuttavia, egli si chiedeva se in un contesto in cui la scienza e la tecnologia sembrano offrire risposte sempre più esaustive ai grandi interrogativi sull’universo e sulla vita, vi fosse ancora spazio per una dimensione trascendente e spirituale.

Secondo Martini, la risposta a quella domanda non poteva che essere affermativa, poiché la sete di trascendenza e di senso è una caratteristica costitutiva dell’essere umano. Tuttavia, egli sottolineava come la religione dovesse confrontarsi con le sfide poste dalla modernità, in particolare con la necessità di un dialogo costruttivo con la scienza e la cultura contemporanea.

L’intervento di Martini rappresentava un invito a riflettere sul ruolo della religione nella società contemporanea e sulla necessità di un dialogo costruttivo tra fede e ragione, tra Scrittura di Dio e scritture dell’uomo. Un dialogo che, secondo Martini, non poteva che arricchire la comprensione dell’uomo e del suo posto nell’universo, era il 1998 e non vi era all’epoca nessun clamore per il tema dell’ intelligenza artificiale, che avrebbe spinto un Papa a parlarne al G7.

Papa Francesco ha pubblicato l’Enciclica “Fratelli tutti”, in cui ha dedicato un intero capitolo alle sfide dell’innovazione tecnologica e dell’Intelligenza Artificiale, sottolineando la necessità di una regolamentazione etica e di una maggiore attenzione alle implicazioni sociali e umane della tecnologia.

Secondo Papa Francesco (2018), l’Intelligenza Artificiale rappresenta una sfida importante per la comunicazione e la società, e richiede una riflessione etica e responsabile.

Nel suo Messaggio per la 52ª Giornata Mondiale delle Comunicazioni Sociali, il Papa ha anche sottolineato la necessità di una comunicazione autentica e responsabile nell’era digitale, e ha riflettuto sulle sfide etiche e sociali poste dall’Intelligenza Artificiale.

Un possibile collegamento tra la domanda posta da Martini sulla visibilità di Dio nella storia dell’universo e l’Intelligenza Artificiale può essere trovato nella riflessione filosofica e scientifica sul rapporto tra l’uomo, la tecnologia e il trascendente.

Ad esempio, il filosofo e teologo francese Jacques Ellul, già negli anni ’50, aveva messo in guardia dai rischi di una società tecnologica che, nella sua ricerca di efficienza e controllo, finisce per ridurre l’uomo a mero ingranaggio di un sistema meccanico, privandolo della sua dimensione spirituale e trascendente.

Allo stesso modo, il fisico e matematico britannico Roger Penrose, nel suo libro “La mente nuova dell’imperatore” (1989), aveva sollevato dubbi sulla possibilità che l’Intelligenza Artificiale potesse replicare la complessità e la creatività della mente umana, sostenendo che vi fossero aspetti della coscienza umana che non potevano essere ridotti a mero calcolo algoritmico.

Più recentemente, il filosofo italiano Maurizio Ferraris, nel suo libro “Documentalità. Perché è necessario lasciar tracce” (2018), ha riflettuto sul ruolo della tecnologia nella costruzione della realtà umana, sostenendo che la documentalità, ovvero la capacità di lasciare tracce documentali, sia una caratteristica fondamentale dell’essere umano e che la tecnologia digitale ne abbia amplificato la portata, ma non possa sostituirne la dimensione trascendente e simbolica.

Sino ad arrivare a nostri giorni alle riflessioni del filosofo Luciano Floridi (IA l’uso delle nuove macchine Bombiani 2021).

Floridi, in particolare, ha sviluppato una teoria filosofica nota come “filosofia dell’informazione”, che considera l’informazione come la chiave di volta per comprendere la realtà contemporanea, caratterizzata dall’avvento dell’era digitale e dell’Intelligenza Artificiale. Secondo Floridi, l’informazione non è solo un fenomeno fisico o biologico, ma ha una dimensione ontologica, ovvero riguarda l’essere stesso delle cose.

In questo senso, Floridi sostiene che l’Intelligenza Artificiale non sia solo uno strumento tecnologico, ma abbia implicazioni profonde sulla nostra comprensione dell’essere umano e del mondo. In particolare, l’Intelligenza Artificiale ci costringe a ripensare il concetto di “intelligenza” e a riconoscere che essa non è più una prerogativa esclusivamente umana, ma può essere replicata e anche superata dalle macchine.

Ciò solleva questioni etiche e antropologiche fondamentali, come ad esempio la possibilità di attribuire diritti e doveri alle macchine, o la necessità di ridefinire il concetto di lavoro e di occupazione in una società sempre più automatizzata.

Inoltre, secondo Floridi, l’Intelligenza Artificiale ci costringe a ripensare anche il concetto di “trascendenza”, ovvero la possibilità di andare oltre i limiti dell’esperienza umana. Se da un lato, infatti, l’Intelligenza Artificiale sembra ampliare le possibilità umane, dall’altro lato essa ci confronta con la nostra finitudine e con la possibilità che le macchine possano superarci.

La riflessione di Floridi sulla filosofia dell’informazione e sull’Intelligenza Artificiale ci invita a una riflessione critica sulle implicazioni etiche e antropologiche della tecnologia e a una ricerca di un equilibrio tra progresso tecnologico e dimensione spirituale dell’essere umano, in un’ottica di integrazione tra l’uomo e la macchina che tenga conto della complessità e della ricchezza della realtà umana.

Una delle critiche più comuni riguarda la tendenza a sopravvalutare le potenzialità dell’Intelligenza Artificiale e a sottovalutare i limiti e le implicazioni etiche e sociali della tecnologia.

Ad esempio, alcuni critici sostengono che l’idea di attribuire diritti e doveri alle macchine sia prematura e pericolosa, in quanto potrebbe portare a una deresponsabilizzazione umana e a una perdita di controllo sulla tecnologia.

Inoltre, alcuni filosofi e scienziati contestano l’idea di ridurre l’essere umano a mera informazione, come sembra suggerire la teoria di Floridi, e di considerare l’Intelligenza Artificiale come una forma di intelligenza paragonabile o addirittura superiore a quella umana.

Secondo questi critici, l’Intelligenza Artificiale non può replicare la complessità e la ricchezza dell’esperienza umana, che include aspetti come la creatività, l’empatia e la coscienza di sé.

Un’altra critica riguarda la tendenza a considerare la tecnologia come un fenomeno autonomo e indipendente dall’uomo, mentre essa è il risultato dell’attività umana e riflette i valori, le scelte e le priorità della società. In questo senso, alcuni critici sostengono che sia necessario adottare un approccio più critico e consapevole nei confronti della tecnologia, che tenga conto delle sue implicazioni etiche e sociali e che promuova un’innovazione responsabile e inclusiva.

Il G7 del 2024 sarà un’importante occasione per i leader mondiali di discutere delle sfide globali più urgenti, tra cui l’Intelligenza Artificiale (IA). Sebbene sia difficile prevedere con esattezza quali saranno i temi specifici della discussione sull’IA al G7 del 2024, ci si aspetta che vengano affrontate questioni chiave come l’etica, la regolamentazione, la sicurezza e l’impatto sociale ed economico dell’IA.