l CEO di Meta, Mark Zuckerberg, ha lasciato intendere che la sua azienda sta facendo progressi sulle sue prime “interfacce neurali di consumo”, dispositivi indossabili non invasivi in grado di interpretare i segnali cerebrali per controllare i computer. Brain Computer Interface (BCI)
“Una delle cose di cui sono piuttosto entusiasta: penso che presto inizieremo a ottenere alcune interfacce neurali di consumo.
Mark Zuckerberg, a differenza del chip cerebrale Neuralink di Elon Musk, ha spiegato che i dispositivi in questione non sarebbero qualcosa che “si collega al tuo cervello”, ma un dispositivo indossabile al polso in grado di “leggere i segnali neurali che il tuo cervello invia attraverso i tuoi nervi alla tua mano per muoverla in modi sottili”.
Meta ha iniziato a discutere dello sviluppo dell’“interazione basata sul polso” nel marzo 2021 come parte della ricerca di Facebook Reality Labs.
Il braccialetto di Meta funziona utilizzando l’elettromiografia (EMG) per interpretare i segnali cerebrali relativi ai gesti della mano desiderati e tradurli in comandi per controllare i dispositivi.
“Siamo fondamentalmente in grado di leggere quei segnali e usarli per controllare occhiali o altri dispositivi informatici”, .
Mark Zuckerberg
I commenti più recenti sono arrivati durante un’intervista il 18 aprile tra il co-fondatore di Facebook e l’imprenditore tecnologico e il YouTuber Roberto Nickson.
“Siamo ancora all’inizio del viaggio perché non abbiamo ancora lanciato la prima versione del prodotto, ma giocarci internamente è… è davvero interessante vedere”.
All’inizio di quest’anno, l’AD di Meta ha detto che questo braccialetto neurale potrebbe diventare un prodotto di consumo in pochi anni, utilizzando l’intelligenza artificiale per superare i limiti del tracciamento dei gesti basato su telecamera.
Mark Zuckerberg ha anche immaginato che le interfacce neurali funzionino con gli occhiali intelligenti con realtà aumentata Ray-Ban di Meta. Commentando gli occhiali intelligenti dell’azienda, ha detto che la “funzione Hero ” era l’integrazione dell’IA in essi.
“Siamo davvero vicini ad avere un’IA multimodale […] quindi non le fai solo una domanda con testo o voce; puoi chiederle delle cose che stanno succedendo intorno a te, e può vedere cosa sta succedendo e rispondere alle domande […] è piuttosto selvaggio”, ha aggiunto.
Nel frattempo, i legislatori negli Stati Uniti stanno già lavorando su una legislazione volta a proteggere la privacy nel nascente campo della neurotecnologia.
La Protect Privacy of Biological Data Act, che espande la definizione di “dati sensibili” per includere dati biologici e neurali, è stata approvata in Colorado questa settimana, secondo quanto riportato.
In altre notizie, Meta ha appena rilasciato una nuova versione di Meta AI, l’assistente che opera attraverso le applicazioni e gli occhiali dell’azienda. “Il nostro obiettivo è costruire l’IA leader nel mondo”, ha detto Zuckerberg.
Meta AI viene aggiornata con il nuovo modello di IA “Llama 3 all’avanguardia, che stiamo rendendo open source”, ha aggiunto.
Lascia un commento
Devi essere connesso per inviare un commento.