L’incrocio di linguaggi tra Intelligenza Artificiale e Scienze Cognitive e del Cervello
Luciano Floridi è un filosofo italiano naturalizzato britannico, professore ordinario di filosofia ed etica dell’informazione presso l’Oxford Internet Institute dell’Università di Oxford, dove è direttore del Digital Ethics Lab, nonché professore di Sociologia della comunicazione presso l’Università di Bologna.
Anna Christina Nobre FBA, MAE, fNASc è una neuroscienziata cognitiva brasiliana e britannica che lavora presso la Yale University di New Haven, CT, USA. Nobre è professoressa di Wu Tsai presso l’Università di Yale, dove dirige il Centro di Neurocognizione e Comportamento presso l’Istituto Wu Tsai.
Il parallelismo tra il cervello umano e le reti neurali artificiali è un concetto fondamentale sia per le scienze cognitive e le neuroscienze che per lo studio dell’Intelligenza Artificiale (IA). Questo parallelismo ha portato a un’ampia sovrapposizione di terminologia e concetti tra i due campi, che se da un lato può essere utile per la comprensione reciproca, dall’altro può generare incertezza e confusione.
Ad esempio, termini come “neurone”, “sinapsi”, “apprendimento” e “memoria” vengono utilizzati sia per descrivere i processi biologici del cervello umano che per descrivere i processi computazionali delle reti neurali artificiali. Tuttavia, questi termini possono avere significati del tutto diversi nei due contesti, generando confusione e malintesi.
Inoltre, il parallelismo tra cervello e reti neurali può portare a false aspettative riguardo alle capacità dell’IA. Ad esempio, alcuni ricercatori potrebbero aspettarsi che le reti neurali artificiali siano in grado di replicare la complessità e la flessibilità del cervello umano, ma ciò potrebbe non essere realistico con le attuali conoscenze e tecnologie.
E’ sia necessario fare attenzione a non cadere in facili sovrapposizioni concettuali e terminologiche, che possono generare confusione e false aspettative, che mantenere una prospettiva interdisciplinare e una comunicazione chiara tra i due campi per evitare malintesi e favorire una comprensione reciproca.
Quello che hanno cercato di fare i due studiosi autori di un’articolo recentemente pubblicato “Anthropomorphising machines and computerising minds: the crosswiring of languages between Artificial Intelligence and Brain & Cognitive Sciences” di Luciano Floridi e Anna C Nobre che discute il processo di “prestito concettuale”.
Secondo questo processo, quando emerge una nuova disciplina, sviluppa il suo vocabolario tecnico anche appropriandosi di termini da altre discipline vicine.
Suggerendo a mio parere un’analisi del modo in cui i linguaggi e i concetti utilizzati nei campi dell’Intelligenza Artificiale (AI) e delle Scienze Cognitive e del Cervello si influenzano a vicenda e si intrecciano.
Gli autori paragonano questo fenomeno all’osservazione di Carl Schmitt secondo cui i concetti politici moderni hanno radici teologiche.
Argomentano che, attraverso un ampio prestito concettuale, l’IA ha finito per descrivere i computer in modo antropomorfico, come cervelli computazionali con proprietà psicologiche, mentre le scienze del cervello e cognitive hanno finito per descrivere cervelli e menti in modo computazionale e informativo, come computer biologici.
Gli autori sembrano suggerirci di voler esplorare come l’AI e le Scienze Cognitive e del Cervello si avvicinino alla comprensione della mente e del comportamento umano da prospettive diverse, ma complementari.
L’intreccio di linguaggi e concetti tra AI e Scienze Cognitive e del Cervello ha importanti implicazioni teoriche, pratiche ed etiche, e che è necessario un approccio interdisciplinare per comprendere appieno le potenzialità e i limiti dell’intelligenza umana e artificiale.
Il “cablaggio incrociato” tra i linguaggi tecnici di queste discipline non è solo metaforico, ma può portare a confusione, e a dannose assunzioni e conseguenze concettuali.
Ad esempio, gli scienziati dell’IA parlano di “apprendimento automatico”. Il termine è stato coniato (o forse popolarizzato, il dibattito sembra aperto) da Arthur Samuel nel 1959 per riferirsi allo “sviluppo e allo studio di algoritmi statistici che possono apprendere dai dati, e generalizzare su nuovi dati, per eseguire compiti senza istruzioni esplicite”.
Ma questo “apprendimento” non significa ciò che gli scienziati del cervello e cognitivi intendono con lo stesso termine quando si riferiscono a come gli umani o gli animali acquisiscono nuovi comportamenti o contenuti mentali, o modificano quelli esistenti, come risultato di esperienze nell’ambiente.
Inoltre, gli scienziati dell’Intelligenza Artificiale usano il termine “allucinazioni” per descrivere errori o deviazioni nell’output di un modello rispetto a rappresentazioni accurate e fondate sui dati di input. Questi sono esempi di come il prestito di termini possa portare a confusione e interpretazioni errate.
L’articolo si conclude su una nota ottimistica riguardo alla natura auto-regolante dei significati tecnici nel linguaggio e alla capacità di lasciare indietro un bagaglio concettuale fuorviante quando si è confrontati con l’avanzamento nella comprensione e nella conoscenza fattuale.
«Solo se si capisce che l’AI è una nuova forma di capacità di agire, e non una nuova forma di intelligenza, si può capire veramente la sua sfida etica e quindi affrontarla con successo» – Luciano Floridi (dal libro Intelligenza artificiale. L’uso delle nuove macchine )
Lascia un commento
Devi essere connesso per inviare un commento.