Se Alan Turing potesse vedere cosa è successo a San Diego, probabilmente alzerebbe un sopracciglio e accennerebbe un mezzo sorriso. Non perché le macchine abbiano finalmente conquistato l’umano, ma perché ci siamo lasciati fregare con una naturalezza che ha dell’artistico. L’Università della California ha recentemente condotto uno studio che ha mostrato come ChatGPT-4.5, il chiacchieratissimo modello di OpenAI rilasciato solo lo scorso febbraio, sia riuscito a superare una versione moderna del test di Turing nel 73% dei casi. Avete capito bene: in quasi tre conversazioni su quattro, la gente ha pensato che dietro allo schermo ci fosse un umano.
Il test, che richiede semplicemente a un giudice umano di distinguere tra una persona reale e una macchina basandosi esclusivamente sul dialogo, ha sancito che GPT-4.5 sa camuffarsi meglio di un PR in crisi reputazionale. Mentre altri modelli come LLama-3.1-405B o la storica e ormai patetica ELIZA annaspano, GPT-4.5 emerge come il nuovo Casanova digitale.
E non è un successo casuale. Il modello è stato istruito non solo con prompt basici, ma anche con istruzioni più elaborate che gli chiedevano di impersonare un introverso esperto di Internet, che usa slang e si esprime come se stesse per twittare ogni frase. Il risultato? Una verosimiglianza disarmante. Secondo Cameron Jones, ricercatore a UC San Diego, GPT-4.5 “riesce a percepire le sfumature linguistiche, fingere emozioni e persino esperienze sessuali”. D’accordo, un po’ inquietante, ma coerente con il nostro tempo in cui l’autenticità è sempre più uno stile narrativo che una realtà.
Naturalmente, tutto questo accadeva giusto un attimo prima che OpenAI decidesse di fare il colpo di scena da soap opera e lanciare GPT-4.1, una nuova famiglia di modelli che, a detta loro, distruggerà la breve gloria di GPT-4.5. Tra cui spiccano Mini, Nano e una versione con una memoria contestuale da un milione di token. Un’orgia computazionale capace di inghiottire interi romanzi e repository di codice come fossero popcorn.
Ma torniamo al punto. Cosa significa davvero “superare il test di Turing” nel 2025? Ce lo spiega ancora Jones: non è una prova d’intelligenza, né di coscienza. È semplicemente un indice di quanto sia brava una macchina a fingere di essere umana. E in un’epoca dove il “fingere” è diventato più redditizio dell’essere, è un parametro dannatamente centrale.
Il problema, manco a dirlo, non è la tecnologia in sé, ma l’uso distorto che se ne può fare. Astroturfing, manipolazione, frodi: tutto il kit distopico da manuale. Un LLM che sa sedurre con le parole può diventare un’arma sociale. Immagina una campagna politica gonfiata da migliaia di bot “umani” che tifano, commentano e s’indignano. Oppure un’AI che si finge il tuo consulente bancario per settimane e finisce col convincerti a cliccare sul link sbagliato. Non è più fantascienza. È cronaca predittiva.
In parallelo, OpenAI ha anche annunciato una nuova funzione di memoria espansa per ChatGPT, capace di ricordare l’intero storico delle conversazioni dell’utente. Un vero “ricordo totale”, per citare il buon vecchio Philip K. Dick. A breve, la tua AI preferita potrebbe ricordare le tue paranoie notturne meglio del tuo terapeuta.
Eppure, per quanto tutto questo sia affascinante e spaventoso, il punto di Turing resta incredibilmente attuale: costruire una macchina che impara come farebbe un bambino. La differenza è che oggi il bambino ha accesso a Internet, ai traumi collettivi dei social e a una quantità di dati che farebbero impallidire la Biblioteca di Babele.
Siamo di fronte a modelli che non solo sembrano umani, ma che imparano come imitare l’umanità meglio degli esseri umani stessi. E in questo loop di finzione perfetta, la domanda più cinica diventa inevitabile: se nessuno è più in grado di distinguere l’umano dal simulacro, cosa resta dell’umano?
Alan M Turing Ferranti Mark I Computer in1951.Photo: SSPL/Getty Images