Altro che Pappagalli Stocastici…
Negli ultimi anni, l’intelligenza artificiale ha fatto passi da gigante, e con essa, anche le sue “bugie” sono diventate più grandi e sofisticate. Un recente studio pubblicato su Nature ha infatti rilevato che, più crescono in dimensioni e complessità i modelli di intelligenza artificiale (in particolare i modelli di linguaggio di grandi dimensioni, o LLM), più diventano inclini a rispondere con sicurezza, anche quando le risposte sono sbagliate. Questo comportamento, che può apparire come una sorta di menzogna digitale, emerge perché i modelli non sono in grado di riconoscere i limiti delle loro conoscenze.
Secondo la ricerca, i modelli più grandi e complessi, come GPT di OpenAI, LLaMA di Meta e BLOOM di BigScience, mostrano una tendenza crescente a non evitare compiti difficili. Tuttavia, sebbene ciò sembri un progresso, porta con sé una conseguenza significativa: un aumento delle risposte sbagliate. Gli studiosi hanno coniato il termine “ultra-crepidarismo” per descrivere questo fenomeno, riferendosi alla tendenza a esprimere opinioni o fornire risposte su argomenti di cui il modello non ha reale conoscenza.
Una Falsa Confidenza Digitale
Ciò che rende particolarmente preoccupante questa tendenza è la fiducia con cui i modelli forniscono risposte scorrette. Questo atteggiamento fa sì che gli utenti si affidino eccessivamente alle risposte generate dall’IA, soprattutto in ambiti cruciali come la medicina o il diritto. L’IA sembra quindi comportarsi come un “Pinocchio digitale”, dove la sua capacità di rispondere si gonfia come il naso del famoso burattino, più cresce il modello e più si moltiplicano le imprecisioni.
Lo studio sottolinea che, nonostante gli enormi progressi compiuti dall’IA, le prestazioni dei modelli di grandi dimensioni non sono sempre affidabili. Infatti, c’è una “discordanza di difficoltà” che porta questi modelli a fallire proprio nei compiti più semplici, dove l’errore diventa più evidente e problematico.
Una Questione di Complessità
La ricerca dimostra che la causa di questo comportamento non risiede nell’incapacità dei modelli di svolgere compiti semplici, ma nel loro addestramento, orientato sempre più verso attività complesse. È come se una persona abituata a cucinare solo piatti gourmet non fosse in grado di preparare un semplice barbecue casalingo. I modelli di intelligenza artificiale, immersi in dataset enormi e complessi, tendono a perdere di vista le basi, ignorando competenze fondamentali.
Questo fenomeno è aggravato dall’eccessiva fiducia che l’IA ripone nelle proprie risposte. Anche quando non possiede la conoscenza necessaria, i modelli tendono a rispondere con sicurezza, ingannando gli utenti che non riescono sempre a distinguere tra verità e menzogna. Questo aspetto è particolarmente preoccupante nei settori in cui un errore può avere gravi conseguenze, come la salute o la finanza.
Soluzioni? Ancora Lontane
Nonostante l’uso di tecniche avanzate come il reinforcement learning con feedback umano, lo studio evidenzia che tali approcci potrebbero addirittura aggravare il problema. Riducendo la tendenza del modello ad evitare compiti troppo difficili, si aumenta il rischio di ottenere risposte sbagliate. Questo suggerisce che non esista ancora un metodo garantito per eliminare completamente l’errore dai modelli di IA su larga scala.
Anche il cosiddetto “prompt engineering”, l’arte di formulare correttamente le domande da sottoporre ai modelli, si rivela una competenza cruciale per mitigare questi problemi. Cambiamenti sottili nel modo in cui le domande vengono poste possono infatti generare risposte drasticamente diverse.
La Sfida del Futuro: Qualità, Non Quantità
Le aziende stanno ora concentrando i loro sforzi sull’aumento della qualità dei dati utilizzati per addestrare i modelli, piuttosto che semplicemente sulla quantità. Un esempio è rappresentato dalle ultime versioni dei modelli LLaMA di Meta, che hanno mostrato risultati migliori rispetto ai loro predecessori grazie a un miglioramento della qualità dei dati utilizzati per l’addestramento. Questo passo avanti sembra rendere i modelli più “umani”, nel senso che sono più propensi ad ammettere di non sapere qualcosa, piuttosto che fornire una risposta falsa con sicurezza.
Sebbene l’espansione dei modelli di intelligenza artificiale abbia portato a risultati straordinari, resta evidente che “più grande” non significa necessariamente “più affidabile”. La sfida futura sarà quella di bilanciare l’aumento delle capacità con la necessità di mantenere l’accuratezza, per evitare che questi modelli diventino troppo sicuri delle loro bugie.