Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Tag: rag

Evoluzione dei Chatbot: dai limiti degli LLM all’approccio RAG

Uno dei limiti evidenti emerso dall’uso dei chatbot di nuova generazione, disponibili al pubblico da fine 2022, è la dispersione nella qualità ed accuratezza delle risposte evidenziata da questi strumenti. Come abbiamo già avuto modo di vedere all’interno di questo portale, il limite oggettivo degli LLM è che essi sono dipendenti dalla qualità delle informazioni con cui sono stati alimentati ed allenati, informazioni che sono state ricavate da materiale reperibile in rete, e filtrato da operatori umani incaricati di censurare i contenuti ritenuti non idonei.

Mentre questo approccio è stato vincente per creare un’applicazione in grado di dialogare con gli utenti utilizzando un linguaggio naturale – e il grado di interesse da parte di tutta la società nel suo complesso è segno tangibile del successo sin qui raccolto dai vari prodotti di AI “di intrattenimento” – gli svantaggi di questo approccio non hanno tardato a manifestarsi a coloro che intendevano fare affidamento sui LLM in ambiti strettamente legati alla conoscenza e alla produzione di contenuti ed applicazioni “competenti”.

Pochi giorni dopo il rilascio al pubblico, il portale Stackoverflow procedeva infatti alla messa al bando di risposte generate tramite AI, in quanto utenti esperti avevano subito notato la presenza di quegli errori grossolani che oggi conosciamo con il termine di “allucinazioni”, un problema tipico degli LLM
che non distingue tra concetti di plausibilità linguistica e accuratezza fattuale.

Dalla necessità di poter disporre di uno strumento “diversamente intelligente”, che possa dialogare con gli utenti sulla base di competenze e conoscenze reali si è velocemente affermato l’approccio RAG, acronimo di Retrieval Augmented Generation. Questo acronimo indica la tecnica per la generazione di testi “aumentati” dal recupero di dati puntuali e specifici di varia natura, spesso di natura proprietaria: manuali, competenze professionali o aziendali, scritti accademici, dati provenienti da interrogazioni di database strutturati o non strutturati; oppure leggi o direttive.

Un LLM usa questi dati in modo prioritario per produrre il testo di senso compiuto ed in linguaggio “naturale” (ossia il linguaggio con il quale stiamo leggendo queste righe), ovviando alla problematica legata alle allucinazioni causate dal materiale eterogeneo con il quale è stato allenato.

Grazie a queste premesse tecniche è ora possibile ipotizzare di poter arricchire molti processi che coinvolgono portatori d’interessi interni ed esterni.

Cube Finance – azienda elvetica storicamente attiva nelle soluzioni software nel settore finanziario – da noi interpellata nell’ambito di una scambio di vedute sullo stato del mercato delle nuove tecnologie AI ci conferma come la tecnologia attraverso l’intelligenza artificiale abbia la possibilità di esplodere in modo dirompente e di riqualificare o migliorare flussi di lavoro che da anni domandano ottimizzazioni, maggiore precisione, flessibilità, velocità, nel rispetto contestuale delle necessità dell’interlocutore.

La software house svizzera ha utilizzato proprio queste tecnologie per sviluppare un chatbot ad uso professionale (CubeBot Pro), “wrapper” dei migliori LLM presenti sul mercato per offrire al mondo dei professionisti e delle imprese una piattaforma “no code” per adottare gli LLM nelle proprie attività.

Sviluppare internamente la piattaforma CubeBot Pro non solo ci ha dato grande consapevolezza dei nostri mezzi sul tema AI ma, soprattutto, ci permetterà di offrire i nostri servizi conoscendo i pregi ed i limiti di tutte le tecnologie utilizzate. Rispetto agli integratori di sistemi che offrono l’integrazione di chatGpt con i sistemi aziendali, siamo in grado di sapere esattamente dove sono salvati i dati, perché le risposte sono a volte incoerenti, perché i tempi di risposta sono diversi… insomma rispetto agli altri abbiamo maggior controllo” afferma Stefano Zanchetta, CEO di Cube Finance.

Innumerevoli sono i casi citati dall’azienda con sede a Mendrisio: la stesura della documentazione legale da parte degli operatori che intendono offrire servizi in criptovalute; la fornitura di pareri legali in ambito civilistico, costruite a partire da documenti rappresentanti casistiche pluridecennali; sportelli cliente evoluti nell’ambito della sanità privata, in alcuni casi “aumentati” da esperienze immersive; assistenza nella valutazione di effetti farmacologici; manuali di assistenza (ad esempio nell’industria aerospaziale) supportati da strumenti di visualizzazione immersiva e via discorrendo.

Tuttavia l’onda dell’entusiasmo – o dell’hype a seconda della prospettiva – va parzialmente moderata quando si considerano i tanti passi necessari per garantire la sicurezza dei dati sensibili, siano essi proprietà intellettuale o legati alla sfera delle persone fisiche o giuridiche. Con ciò si evince che le competenze pregresse maturate di qualunque azienda che fornisca il servizio di chatbot debbano essere vagliate con cautela, assicurandosi che vi siano le dovute certificazioni (es. ISO 27001) e la verifica della capacità dell’integratore a saper trattare i dati sensibili sotto il profilo della sicurezza e della riservatezza, aspetti che non devono passare in secondo piano, nemmeno in questo momento di euforia e di aggressiva profilazione popolare “pro AI”. L’ottemperanza a normative nazionali e internazionali (GDPR) diventano un punto essenziale nel garantire il necessario rispetto di tutte le regole.

Chiedendo poi di nuovo a Stefano Zanchetta quali aspettative lui abbia in tema di chatbot, la risposta è che “i chatbot attualmente rappresentano il mezzo più immediato per il mondo dei professionisti e delle imprese di gestire l’adozione dell’AI, mitigando il rischio di non aderire a questa rivoluzione. Riteniamo che i prossimi anni vedranno un’adozione con crescita esponenziale di questi strumenti e che gli stessi cambieranno in forma e sostanza, passando dal testo scritto alla parola, magari integrata in alcuni dalla realtà immersiva e arrivando a livelli di efficienza sempre più sorprendenti. Sarà anche opportuno adottare dei sistemi “al di sopra” degli LLM per poter scegliere tra un modello o l’altro, in modo trasparente, senza dover rivedere la propria architettura di sistema.”

Che cos’è la RAG, la nuova frontiera dell’Intelligenza Artificiale generativa

L’Intelligenza Artificiale (AI) è la disciplina che si occupa di creare sistemi in grado di eseguire compiti che richiedono intelligenza umana, come apprendimento, il ragionamento e la risoluzione di problemi. Uno dei campi più promettenti e sfidanti di questo settore è quello della generazione di linguaggio naturale (NLG), che consiste nel produrre testi coerenti e informativi a partire da dati strutturati o non strutturati.

Per realizzare questo obiettivo, negli ultimi anni si sono sviluppati dei modelli di AI chiamati Large Language Models (LLM), che sono algoritmi in grado di comprendere e generare testi in linguaggio naturale basandosi su vasti set di dati linguistici. I modelli come GPT hanno dimostrato una sorprendente capacità di generare testi su vari argomenti e domini, rispondendo a domande, completando frasi e creando contenuti creativi.

I LLM presentano però anche dei limiti e, in alcuni casi, delle criticità, legati alla loro dipendenza dai dati di addestramento, che possono essere incompleti, obsoleti o non pertinenti al contesto specifico. Inoltre, i LLM richiedono una significativa potenza di calcolo per essere riaddestrati, il che rende difficile aggiornare continuamente i modelli con nuove informazioni.

Per superare questi problemi e migliorare la qualità dell’IA generativa, emerge una nuova tecnica chiamata Retrieval-Augmented Generation (RAG), che significa generazione aumentata con recupero. La RAG è una tecnica che consente ai LLM di sfruttare risorse di dati aggiuntive senza bisogno di retraining, integrando le abilità generative dei LLM con la capacità di reperire informazioni da fonti esterne di conoscenza.

La RAG è stata proposta per la prima volta da Patrick Lewis e un team di Facebook AI Research in questo articolo del 2020 e da allora ha suscitato l’interesse e l’attenzione di molti ricercatori accademici e del settore, che la vedono come un modo per spingere i confini della NLG.

Come funziona la RAG

La RAG funziona combinando due componenti principali: un LLM pre-addestrato e un indice di documenti di conoscenza. Il LLM pre-addestrato è un modello di IA generativa, come GPT-3, BERT o T5, che è stato addestrato su un grande dataset di testi generici. L’indice di documenti di conoscenza è una collezione di testi specifici e aggiornati, provenienti da fonti diverse, come Wikipedia, database, data warehouse, documenti aziendali o feed di notizie.

Quando la RAG riceve un input, come una domanda o una frase da completare, il LLM pre-addestrato genera una prima risposta basandosi sui dati di addestramento. Allo stesso tempo, il LLM pre-addestrato invia una query all’indice di documenti di conoscenza, che restituisce i documenti più rilevanti per l’input. Questi documenti vengono poi utilizzati dal LLM pre-addestrato per raffinare e migliorare la risposta iniziale, integrandola con informazioni più precise e aggiornate.

In questo modo, la RAG riesce a produrre non solo testi coerenti, ma anche corretti e pertinenti, sfruttando dati specifici e aggiornati provenienti da fonti esterne. La RAG non modifica il LLM pre-addestrato alla sua base, ma lo arricchisce con informazioni mirate senza bisogno di retraining.

Esempi di applicazioni della RAG

La RAG può essere applicata a diversi compiti e domini che richiedono la generazione di testi in linguaggio naturale, come la risposta a domande, il riassunto di testi, la generazione di contenuti creativi o la creazione di chatbot.

Per esempio, immagina di voler creare un chatbot per un campionato sportivo, che possa rispondere alle domande dei fan e dei media su giocatori, squadre, storia e regole dello sport, statistiche e classifiche attuali. Un LLM generico potrebbe rispondere a domande sulla storia e sulle regole, ma non sarebbe in grado di parlare della partita della sera precedente o di fornire informazioni aggiornate su un particolare infortunio di un atleta, perché non avrebbe tali informazioni.

Utilizzando la RAG, invece, diventa possibile integrare il LLM generico con un indice di documenti di conoscenza specifici per lo sport, come database, data warehouse, documenti sui giocatori e feed di notizie, che contengono informazioni dettagliate e aggiornate su ogni partita. In questo modo, il chatbot potrebbe fornire risposte più appropriate e accurate alle domande, basandosi su dati estremamente attuali.

Un altro esempio di applicazione della RAG è la generazione di contenuti creativi, come poesie, storie, canzoni o parodie di celebrità. Un LLM generico potrebbe generare contenuti creativi basandosi su dati generici, ma potrebbe non essere in grado di catturare lo stile, il tono, il vocabolario o le sfumature di un determinato autore, genere o personaggio.

Utilizzando la RAG, invece, si potrebbe invece integrare il LLM generico con un indice di documenti di conoscenza specifici per il contenuto creativo che si vuole generare, come testi di poesie, storie, canzoni o parodie di celebrità, che contengono esempi e modelli di riferimento. In questo modo, il contenuto creativo generato sarebbe più originale, interessante e divertente, riflettendo lo stile, il tono, il vocabolario e le sfumature del contenuto desiderato.

Vantaggi e svantaggi della RAG

La RAG presenta una serie di vantaggi e di svantaggi che delineano da un lato la sua complessità e dall’altro le sfide ad esso associate.

Vantaggi:

  • Maggiore completezza: la capacità della RAG di attingere informazioni da fonti esterne contribuisce a generare risposte più complete e dettagliate;
  • Maggiore correttezza: la capacità della RAG di integrare informazioni aggiornate e specifiche contribuisce a generare risposte più corrette e accurate;
  • Maggiore pertinenza: la capacità della RAG di adattare le informazioni al contesto contribuisce a generare risposte più pertinenti e rilevanti;
  • Maggiore flessibilità: la capacità della RAG di sfruttare diverse fonti di conoscenza contribuisce a generare risposte più flessibili e personalizzabili;
  • Maggiore efficienza: la capacità della RAG di ottimizzare i LLM pre-addestrati senza retraining contribuisce a generare risposte più efficienti e veloci.

Svantaggi:

  • Maggiore complessità: la RAG richiede una maggiore complessità nella progettazione e nell’integrazione dei componenti, come il LLM pre-addestrato, l’indice di documenti di conoscenza e il meccanismo di recupero e fusione delle informazioni;
  • Maggiore incertezza: la RAG introduce una maggiore incertezza nella generazione delle risposte, in quanto dipende dalla qualità e dalla rilevanza dei documenti di conoscenza recuperati, che potrebbero essere incompleti, errati o non pertinenti;
  • Maggiore difficoltà di valutazione: la RAG rende più difficile la valutazione delle risposte generate, in quanto richiede criteri e metriche più sofisticati e multidimensionali, che tengano conto non solo della coerenza, ma anche della correttezza, della pertinenza, della completezza e della flessibilità delle risposte.

In definitiva quindi la RAG è vista come la nuova frontiera dell’intelligenza artificiale generativa, per la sua promessa di migliorare la qualità e la pertinenza dei testi prodotti dai modelli di AI, combinando le abilità generative dei LLM pre-addestrati con la capacità di reperire informazioni da fonti esterne di conoscenza, senza bisogno di retraining e aprendo, in questo modo, nuove possibilità e nuovi scenari per la creazione di testi in linguaggio naturale.

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie