L’intelligenza artificiale è ora una realtà concreta e dominante. Non è più relegata a laboratori di ricerca, ma è integrata nelle nostre vite quotidiane, dai dispositivi che usiamo agli assistenti virtuali che ci rispondono. Google, Microsoft e OpenAI stanno lanciando versioni avanzate delle loro AI in grado di vedere, ascoltare e rispondere, facendo presagire un futuro di innovazione e utilità senza precedenti. Ma quanto possiamo davvero fidarci di queste “macchine intelligenti”?
Durante il Google I/O, un assistente AI rivoluzionario è stato presentato, in grado di vedere e ascoltare, trasformando l’interazione con la tecnologia in qualcosa di molto simile al dialogo umano. Contemporaneamente, OpenAI ha integrato la propria intelligenza artificiale su iPhone, consentendo agli utenti di interagire con un chatbot dalle potenzialità quasi umane. Microsoft si prepara ora al suo evento annuale, Build, con una versione del suo Copilot in grado di comprendere operazioni complesse come la manipolazione delle tabelle pivot. E tra pochi giorni, anche Apple salirà sul palco con le sue novità in campo AI, e anche se Siri potrebbe non essere al centro, l’attenzione è comunque tutta sull’intelligenza artificiale.
Tuttavia, l’entusiasmo si scontra con alcuni limiti evidenti di questi sistemi. Meta AI, ad esempio, ha confuso un’immagine dell’autrice con quella di un uomo barbuto, sbagliando non solo la fisionomia, ma anche il genere. Google, nel tentativo di fornire consigli su come risolvere una macchina fotografica inceppata, ha suggerito di aprire lo sportello posteriore della fotocamera, un errore che distruggerebbe ogni foto scattata. Questi errori, definiti “allucinazioni,” non sono sporadici, ma frequenti, e sorgono quando i modelli di intelligenza artificiale interpretano erroneamente i dati o creano connessioni inesatte, immaginando una “nuova realtà.”
Queste “allucinazioni” rappresentano una sfida tanto tecnica quanto etica. Nonostante Google e Microsoft stiano lavorando su sistemi che possano rilevare e mitigare tali errori, molti esperti ritengono che l’infallibilità di questi sistemi sia irraggiungibile. Uno studio della National University di Singapore sottolinea che le “allucinazioni” potrebbero essere intrinseche a ogni modello linguistico avanzato, rendendo il problema inevitabile.
La risposta delle grandi aziende tecnologiche a questo problema è stata finora tiepida. Google, ad esempio, ha aggiunto una piccola nota in caratteri grigi durante il suo keynote, suggerendo di “controllare l’accuratezza delle risposte,” mentre OpenAI fa lo stesso con una nota simile sotto la finestra di prompt di ChatGPT. Tuttavia, questi avvisi sono discreti e suggeriscono che le aziende non vedano l’inesattezza come un problema realmente critico.
Sam Altman, CEO di OpenAI, ha persino definito “ingenui” coloro che pretendono una precisione assoluta, sostenendo che eliminare ogni errore toglierebbe quell’elemento “magico” che rende l’intelligenza artificiale così affascinante. Per Altman e altri, questo “fascino magico” dovrebbe consentire all’intelligenza artificiale di sbagliare, purché il risultato complessivo sia una tecnologia che “ispira.”
Ma se da un lato l’innovazione tecnologica ci affascina e proietta verso un futuro quasi fantascientifico, dall’altro l’inefficienza e l’inaffidabilità di questi strumenti rischiano di creare più problemi che soluzioni. Un avvocato che usa ChatGPT per cercare precedenti legali, ad esempio, si aspetta risposte corrette e precise. Gli errori non sono solo “curiosità tecniche,” ma rappresentano possibili insidie per la reputazione e le professioni. Anche un semplice errore, come l’equivoco del genere o l’inadeguata guida di Google su come aprire una fotocamera, dimostra quanto sia complesso e rischioso fidarsi completamente di queste tecnologie.
L’intelligenza artificiale rappresenta una rivoluzione, simile per portata a quella industriale o all’avvento di internet. Silicon Valley punta a rendere l’AI parte integrante della nostra quotidianità, trasferendola dai laboratori agli schermi dei nostri dispositivi, puntando al guadagno e alla diffusione di massa. Ma al di là del potenziale commerciale, dobbiamo chiederci se questo scambio sia davvero vantaggioso per l’utente medio. La tecnologia deve essere precisa, non necessariamente “magica.”