La teoria della mente, ovvero la capacità di comprendere gli stati mentali degli altri, è fondamentale per il funzionamento del mondo sociale degli esseri umani.

Ci aiuta a decidere cosa dire in situazioni di tensione, a indovinare le intenzioni dei conducenti di altre auto e a entrare in empatia con i personaggi dei film. Secondo uno studio recente, i grandi modelli linguistici (LLM), come quelli che alimentano ChatGPT e simili, sono sorprendentemente bravi a imitare questa caratteristica tipicamente umana.

La coautrice dello studio, Cristina Becchio, professoressa di neuroscienze cognitive presso il Centro medico universitario di Amburgo-Eppendorf in Germania, ha dichiarato: “Prima di condurre lo studio, eravamo tutti convinti che i grandi modelli linguistici non avrebbero superato questi test, in particolare quelli che valutano le capacità sottili di valutare gli stati mentali”. Tuttavia, i risultati sono stati “inaspettati e sorprendenti” e sono stati pubblicati sulla rivista Nature Human Behavior.

È importante notare che gli esperti non concordano completamente su questa questione. Alcuni hanno consigliato di prendere i risultati “con le pinze” e hanno messo in guardia dal trarre conclusioni affrettate. Un esperto esterno ha anche sottolineato i pericoli dell’antropomorfizzazione dei programmi software.

Lo studio ha confrontato le capacità dei LLM con quelle degli esseri umani su una serie di compiti tipici della teoria della mente. GPT-4 è risultato il migliore nei test delle false credenze ed è stato paragonabile agli esseri umani nel riconoscimento delle richieste indirette, delle credenze erronee e delle distrazioni sociali. Tuttavia, ha avuto difficoltà nel rilevare passi falsi sociali.

In sintesi, mentre gli LLM non possiedono effettivamente la teoria della mente come gli esseri umani, sembrano essere sorprendentemente abili nell’imitarla. Questo solleva interessanti domande sul futuro dell’intelligenza artificiale e sulla nostra comprensione delle macchine che pensano