Il lato emotivo dell’intelligenza artificiale è probabilmente uno dei più sottovalutati, e non mi riferisco solo al concetto di “grande distacco”. Da tempo è noto che l’IA sta imparando a leggere, riconoscere e reagire alle nostre emozioni, e che può mostrare empatia e calma in situazioni in cui un dipendente umano potrebbe aver già perso la pazienza. È anche noto che, a volte, gli esseri umani preferiscono interagire con i chatbot, trovandoli più empatici rispetto agli umani, finché non scoprono che stavano interagendo con una macchina, momento in cui la situazione cambia radicalmente.

Potremmo obiettare che questo accade solo perché non siamo ancora abituati a questa dinamica. Un tempo, ad esempio, le amicizie online o qualsiasi cosa accadesse nel contesto digitale venivano etichettate come “non reali”, ma oggi non usiamo più molto i termini “virtuale” o “online”. Ci siamo abituati ai social media e ora, lentamente, ci abitueremo anche agli “umani” creati dall’IA. Ma è davvero così semplice?

In un certo senso, c’è un grande divario che rimarrà invariato, a meno che l’intelligenza artificiale non inizi a “provare” emozioni al posto di limitarci a mimarle (ma a oggi, non possiamo fare previsioni in merito). Tuttavia, al momento, non siamo ancora arrivati a quel punto, quindi non è il caso di speculare troppo.

Un punto fondamentale che distingue l’IA dalle relazioni umane è la reciproca natura delle emozioni. Tra esseri umani, i sentimenti sono mutui, o addirittura circolari. La dinamica emotiva tra un essere umano e una macchina, invece, è lineare (dall’umano alla macchina, ma non viceversa). Ed è proprio qui che si inserisce una delle problematiche più profonde che stiamo vivendo con l’IA: l’assenza di una risposta emotiva reciproca.

Empatia cognitiva e le sue limitazioni

Ho recentemente appreso dal psicologo Paul Ekman che esistono tre tipi di empatia:

  • Empatia cognitiva: la capacità di comprendere intellettualmente come una persona si sente e cosa potrebbe pensare.
  • Empatia emotiva (o affettiva): la capacità di condividere i sentimenti di un’altra persona.
  • Empatia compassionevole o preoccupazione empatica: il desiderio di migliorare la situazione di una persona per alleviare i suoi sentimenti negativi o per aumentare quelli positivi.

Fino a oggi, l’IA – per quanto avanzata – è in grado di eccellere solo nell’empatia cognitiva. Può imparare intellettualmente a comprendere le emozioni, ma non potrà mai “sentire” con noi o reagire a determinate situazioni spinta da emozioni genuine. E qui si genera una frizione, un conflitto con la natura umana. Gli esseri umani sono animali sociali ed emotivi, e più l’IA sostituirà l’interazione umana nelle situazioni sociali, più rischiamo di sentirci disconnessi, e di perdere la capacità di esercitare i nostri “muscoli sociali”, con effetti negativi sulla nostra abilità di interagire.

Offloading cognitivo ed emotivo

Esiste un termine che descrive cosa accade quando sempre più dipendiamo da strumenti esterni per il pensiero: offloading cognitivo. Le ricerche hanno dimostrato che con l’uso crescente degli strumenti di IA, il nostro pensiero critico diminuisce: “più si fa affidamento sugli strumenti di IA, più bassi sono i punteggi del pensiero critico”. Una ricerca condotta da Microsoft e Carnegie Mellon ha evidenziato che, man mano che gli esseri umani si affidano sempre più all’IA generativa nel lavoro, usano meno il pensiero critico, con il risultato di un deterioramento delle facoltà cognitive che dovrebbero essere preservate.

Ritengo che stiamo vivendo lo stesso fenomeno con le emozioni, fenomeno che vorrei definire “offloading emotivo”. Proprio come l’offloading cognitivo ci rende intellettualmente pigri, l’offloading emotivo potrebbe renderci emotivamente pigri. Il motivo di ciò è l’assenza di frizione, quella frizione che, paradossalmente, ci rende più vivi nelle interazioni sociali.

Il paradosso della frizione

È interessante notare come, solo pochi anni fa, parlassimo tanto della comodità e dei servizi senza frizioni, resi possibili dalla tecnologia. L’eliminazione delle frizioni, come nel caso delle interfacce zero, ci ha reso la vita più facile, ci ha aiutato a risparmiare tempo, per poterne investire di più in ciò che davvero contava.

Tuttavia, non abbiamo mai davvero riflettuto sui costi che l’eliminazione delle frizioni comporta. Sì, è più facile andare al self-scan che alla cassa, ma il “sottrarre” tempo è anche un “sottrarre” interazione, conversazione, socializzazione. Sì, è più semplice comprare i vestiti online, ma ti ritrovi da solo a casa, senza l’esperienza di essere in un negozio o magari incontrare un amico. Sì, lavorare da casa è più facile e produttivo (se lo fai con etica), ma ti porta a vivere da solo, senza interagire con i colleghi.

Meno frizione significa meno interazione e meno spazi pubblici. I numeri sono chiari:

  • Il tempo che gli americani trascorrono socializzando di persona è diminuito del 20% dal 2003 al 2023, con un calo del 35% tra gli adulti sotto i 25 anni, secondo l’American Time Use Survey.
  • Lo stesso periodo ha visto una riduzione del 30% nella percentuale di adulti che bevono o cenano con un amico.
  • L’ora trascorsa a casa è aumentata di 1,65 ore al giorno tra il 2003 e il 2022.

Anche i chatbot IA, sebbene con modalità diverse, hanno un impatto simile.

Le relazioni umane hanno bisogno di frizione

Le relazioni umane sono fatte di frizione. Litighiamo con i nostri cari quando non siamo d’accordo, o quando siamo stanchi, arrabbiati o stressati. Non è che siamo cattivi, è che siamo umani. Le relazioni umane sono complesse, non sempre lisce, e quella “frizione” è ciò che ci lega. L’IA, al contrario, è priva di questa frizione. È sempre pronta a soddisfare i nostri desideri, ad approvare le nostre opinioni. Questi chatbot “senza frizioni” diventano compagni ideali, ma non sono un’alternativa reale alle relazioni umane. L’interazione con IA che ci loda senza sosta può indebolire la nostra capacità di accettare le divergenze e l’incompletezza delle relazioni reali.

Non credo che gli “accompagnatori” IA possano essere la soluzione all’attuale epidemia di solitudine. Vedo il pericolo che la sostituzione di amici e familiari con compagni IA possa ridurre la capacità di comprendere e coltivare relazioni umane autentiche. Inoltre, non dobbiamo dimenticare che questi amici virtuali sono alimentati da corporation che traggono profitto dalle nostre interazioni.

In modo paradossale, l’ossessione per la rimozione delle frizioni nel mondo fisico ha creato un aumento delle frizioni nelle nostre relazioni reali, danneggiando la coesione sociale. Alcune iniziative, come quella della California che propone una legge per ricordare ai bambini che i chatbot non sono umani, cercano di contrastare questo effetto, ma la sfida rimane enorme.

L’illusione dell’amicizia perfetta: l’impatto delle chatbot nella solitudine moderna

Le relazioni umane sono fatte di attriti. Litighiamo con i nostri cari quando non siamo d’accordo, o quando siamo affamati (come capita a me), ci sentiamo irritati, a volte non rispondiamo al telefono dei nostri migliori amici perché semplicemente non ne abbiamo voglia, possiamo essere feroci, gelosi o stressati… Non è perché siamo cattivi, ma semplicemente perché siamo umani. Le relazioni umane, per definizione, contengono attrito.

Le chatbot AI, d’altro canto, sono completamente prive di attriti (beh, a meno che non decidano di andare “rogue”, come ha sperimentato Kevin Roose). Sono adulatori e ti lusingano, concordando su tutto ciò che dici. Più una persona interagisce con queste “amiche” prive di frizioni, più troverà difficile gestire relazioni reali, dove spesso ci sono disaccordi (e questo è positivo) e dove difficilmente si riceve una lode (a meno che tu non sia in una posizione di grande potere).

Per questo motivo, non credo affatto che i compagni virtuali siano una soluzione all’epidemia di solitudine che stiamo vivendo (e che, è bene ricordarlo, social media ha un grande ruolo nel contribuire). Vediamo già dei compagni per anziani, come Jennie, il cane robot progettato per confortare le persone affette da demenza. O persone che si innamorano delle loro fidanzate AI.

Eppure, anche qui, temo che la “replicazione” – aggiungendo amici artificiali alla propria cerchia – finisca spesso per sottrarre qualcosa alla cerchia di amici umani. Non solo, ma porta anche a una comprensione ridotta di come funzionano le relazioni sociali. Teoricamente, non c’è nulla di sbagliato nell’avere amici virtuali (salvo per il loro probabile impatto sulle relazioni umane), ma questi “amici” non sono alimentati da entità interessate al benessere umano, quanto piuttosto da corporazioni che cercano di trarre profitto dalle tue interazioni.

Ironia della sorte, credo che la nostra ossessione per l’eliminazione delle frizioni nel mondo fisico abbia introdotto attriti nelle nostre relazioni reali, che alla fine compromettono il nostro tessuto sociale. Esistono, tuttavia, delle iniziative che vanno in senso contrario. In California, per esempio, è stato proposto un nuovo disegno di legge che richiede alle chatbot di ricordare ai bambini che non sono umani, con l’obiettivo di proteggerli dall’isolamento sociale.

Le implicazioni di questa frizione digitale sono complesse e, se non affrontate correttamente, potrebbero trasformarsi in una sfida ancora più grande per la nostra società. Le chatbot ci offrono una compagnia che sembra priva di conflitto, ma in realtà, potrebbe addirittura rendere più difficili le nostre relazioni nel mondo reale, dove i conflitti, seppur spiacevoli, sono necessari per crescere e migliorare come individui.