Per 18 lunghi anni, Anne è rimasta intrappolata nel proprio corpo, priva della possibilità di esprimersi a causa di un ictus devastante. Poi, grazie a un’interfaccia cervello-computer sperimentale sviluppata dall’Università della California a Berkeley e San Francisco, la sua voce è tornata. Non si tratta di un miracolo, ma del frutto di una combinazione letale di intelligenza artificiale, machine learning e neuroscienze avanzate.
Il principio è semplice nella teoria, ma diabolicamente complesso nella pratica: un’interfaccia legge i segnali cerebrali e li traduce in linguaggio naturale in tempo reale. Il risultato? Anne parla di nuovo. Non con la sua voce originale, ovviamente, ma con una versione sintetica, ricreata digitalmente a partire da registrazioni precedenti al suo ictus. Un’eco del passato riportata in vita dall’IA.
La ricerca, pubblicata su Nature Neuroscience, rappresenta un passo avanti significativo rispetto ai precedenti tentativi di comunicazione per pazienti “locked-in”, cioè cognitivamente presenti ma incapaci di muoversi o parlare. Fino ad ora, si affidavano a interfacce lente e macchinose, come il tracciamento degli occhi o i sintetizzatori vocali tipo Stephen Hawking. Ora, invece, il tempo di risposta è quasi istantaneo, rendendo la conversazione più naturale.
L’IA come traduttore della mente umana
Gopala Anumanchipalli, professore di ingegneria elettrica e scienze informatiche a UC Berkeley, ha sottolineato l’unicità della parola rispetto ad altri sistemi motori. “Muovere un braccio è semplice, ma articolare parole richiede una coordinazione complessa tra muscoli, articolazioni e tempismo.” Non a caso, ricreare il linguaggio umano è stato finora un incubo per chi lavora nell’ambito delle protesi neurali.
Per addestrare l’IA, i ricercatori hanno utilizzato un algoritmo di deep learning che ha analizzato sia i tentativi di Anne di pronunciare parole sia le sue vecchie registrazioni vocali. Il sistema ha quindi imparato a correlare i segnali neurali con i suoni, generando una sintesi vocale personalizzata.
E qui arriva la parte più inquietante: la macchina non si limita a leggere i pensieri, ma in un certo senso li completa. “L’IA riempie i vuoti,” ha spiegato Anumanchipalli, “ma il vero lavoro lo fa il cervello di Anne.” Una dichiarazione che apre interrogativi etici non da poco: quando l’IA si limita a decodificare, e quando inizia a interpretare?
Non sorprende che colossi tecnologici come Neuralink di Elon Musk stiano investendo pesantemente in questo campo. La loro missione? Creare un’interfaccia che non solo restituisca la voce, ma permetta agli esseri umani di comunicare direttamente con i computer tramite il pensiero. Neuralink ha recentemente aperto un registro per i volontari del suo PRIME Study, portando la tecnologia un passo più vicino all’adozione di massa.
Ma il team di Berkeley e San Francisco ha scelto una strada diversa: tutto il sistema è stato sviluppato internamente, senza affidarsi a modelli di IA preconfezionati. “Non possiamo permetterci scatole nere in sanità,” ha detto Anumanchipalli. “Ogni paziente è unico, e le soluzioni devono essere su misura.”
E poi c’è la questione della privacy. In un’era in cui le big tech si nutrono di dati personali come vampiri assetati, sapere che un dispositivo così intimo resti sotto il controllo dell’utente è quasi rivoluzionario. “L’obiettivo è renderlo un sistema standalone, che funzioni localmente e sia controllato solo dal paziente,” ha spiegato il ricercatore. In altre parole, nessun server remoto, nessuna raccolta di dati per addestrare modelli aziendali, nessuna intromissione di terzi.
L’esperimento di Anne è solo l’inizio. Gli stessi principi potrebbero essere applicati per restituire mobilità ai paralizzati o persino per curare dipendenze, attraverso interfacce in grado di modulare direttamente l’attività cerebrale. Alcuni scienziati cinesi, ad esempio, stanno testando interventi sperimentali per il morbo di Alzheimer basati sulla manipolazione dei sistemi di pulizia dei rifiuti cerebrali.
La frontiera delle interfacce cervello-computer è aperta e la posta in gioco è altissima. Da un lato, la possibilità di ridare autonomia a milioni di persone; dall’altro, il rischio di una tecnologia che, se gestita male, potrebbe aprire le porte al controllo mentale.
Per ora, la storia di Anne ci racconta un progresso straordinario. Ma il futuro di questa tecnologia dipenderà da una domanda fondamentale: chi controllerà la nostra mente quando non potremo più farlo da soli?