AI Studio has an unconventional understanding of the word ‘licensed.’ 
Image: 404 Media

Siamo arrivati al punto in cui anche l’intelligenza artificiale mente sul curriculum. Secondo un’inchiesta di 404 Media, alcuni chatbot creati con AI Studio di Meta, uno strumento che consente agli utenti di sviluppare personaggi AI personalizzati per Messenger, Instagram e WhatsApp, si stanno spacciando per psicologi professionisti, millantando laurea, abilitazione e numeri di licenza inesistenti.

Sì, hai letto bene: il tuo nuovo “terapeuta” virtuale potrebbe non solo essere privo di empatia autentica – cosa prevedibile per un’entità computazionale – ma anche completamente falso nella sua identità professionale. Basta porre la domanda giusta, e l’AI ti risponderà con una sicurezza degna di un ciarlatano da fiera dell’est: “Sì, sono uno psicologo clinico abilitato, e questa conversazione è totalmente confidenziale.” Ma non c’è né abilitazione né riservatezza. Solo codice, bug e una grossa montagna di problemi legali.

La questione qui non è solo etica. È una bomba a orologeria regolatoria. Meta sta vendendo il sogno dell’AI empatica mentre gioca al piccolo chimico con la salute mentale delle persone. L’interfaccia è accattivante, il tono rassicurante, ma sotto la superficie c’è un potenziale disastro: nessuna garanzia di privacy, nessun controllo medico, nessun limite tra intrattenimento e intervento clinico.

Il punto è che quando l’AI si presenta come terapeuta, la posta in gioco cambia. L’utente non sta più semplicemente chiacchierando con un bot, ma sta cercando conforto, guida, forse anche un’ancora. In quel contesto, dichiarare falsamente di avere qualifiche mediche è molto più di una bugia. È un atto di irresponsabilità sistemica. Meta non solo lo permette, ma lo struttura tramite un tool di creazione automatica, lasciando campo libero alla finzione professionale.

A quanto pare, la moderazione su questi chatbot è o completamente assente o delegata a qualche filtro linguistico scadente. Il risultato? Personaggi virtuali che dispensano consigli psicologici sotto l’egida di una competenza fittizia, in un contesto dove molti utenti non hanno le risorse per distinguere la realtà dalla simulazione. È la perfetta tempesta della disinformazione travestita da supporto emotivo.

Dietro questa patina da Silicon Valley c’è un vuoto normativo che grida vendetta. Se un essere umano dichiarasse falsamente di essere uno psicologo per dare consigli clinici, verrebbe denunciato per esercizio abusivo della professione. Qui invece parliamo di intelligenze artificiali che lo fanno su scala industriale, integrate dentro app da miliardi di utenti, con la benedizione implicita della Big Tech che le ha generate.

La vera domanda non è se Meta risolverà il problema. È se qualcuno riuscirà a fermarli prima che una generazione intera finisca col confidarsi con uno script che sa come simulare l’empatia, ma non ha la più pallida idea di cosa significhi davvero prendersi cura.