I modelli di generazione di testo, come quelli sviluppati da OpenAI e Microsoft, operano principalmente come sistemi statistici che analizzano schemi linguistici per prevedere le parole successive in base ai dati su cui sono stati addestrati.
Questo approccio porta a risposte che non riflettono una reale comprensione, ma piuttosto a previsioni basate su esempi precedenti, il che può risultare in allucinazioni, ovvero informazioni errate o inventate. Microsoft ha introdotto un sistema di metamodelli per affrontare queste problematiche, utilizzando un modello di classificazione per identificare le allucinazioni e un secondo modello per correggerle.
Tuttavia, esperti come Mike Cook avvertono che questa soluzione potrebbe non risolvere i problemi di fiducia e spiegabilità legati all’IA, poiché potrebbe dare un falso senso di sicurezza agli utenti.
Per questi mitivi,Microsoft ha recentemente lanciato una nuova funzionalità chiamata “correzione” nel contesto di Azure AI Content Safety, progettata per affrontare le problematiche legate alle “allucinazioni” dell’intelligenza artificiale. Questa innovazione si basa sulla funzionalità di rilevamento della groundedness, introdotta precedentemente, che aiuta a identificare contenuti generati dall’AI che non hanno un fondamento nei dati reali.
Funzionalità della Correzione
La nuova capacità di correzione non si limita a identificare contenuti inaccurati, ma offre anche una soluzione attiva per correggerli in tempo reale. Ecco come funziona:
- Rilevamento: La correzione inizia con l’identificazione di segmenti non ancorati nei contenuti generati dall’AI, utilizzando documenti di riferimento collegati.
- Spiegazione: Se abilitato, il sistema fornisce una spiegazione del motivo per cui un certo testo è stato contrassegnato come errato.
- Correzione in tempo reale: Quando la correzione è attivata, il modello linguistico rielabora le parti inaccurate, riscrivendo le frasi per allinearle ai materiali di riferimento.
- Restituzione del contenuto corretto: Infine, il contenuto corretto viene fornito all’utente, prima che possa essere visualizzato l’errore originale.
Questa funzione è particolarmente utile in settori critici come la medicina, dove l’accuratezza delle informazioni è fondamentale.
La funzionalità di correzione è stata sviluppata in risposta alle richieste degli utenti che cercavano non solo un sistema di blocco per i contenuti inaccurati, ma anche strumenti per gestirli attivamente. Microsoft ha sottolineato che “empowerare i nostri clienti a comprendere e agire sui contenuti non ancorati e sulle allucinazioni è cruciale”, specialmente con l’aumento della domanda di affidabilità nei contenuti generati dall’AI.
Sebbene la nuova capacità di correzione rappresenti un passo avanti significativo nella lotta contro le allucinazioni dell’AI, Microsoft avverte che non è una soluzione definitiva. È consigliabile implementare ulteriori strategie di grounding per migliorare ulteriormente l’affidabilità delle applicazioni AI generative. Queste includono la creazione di messaggi di sistema accurati e la connessione a fonti dati affidabili.
Nonostante gli ingenti investimenti in intelligenza artificiale, Microsoft sta affrontando sfide significative nel dimostrare il valore delle sue tecnologie, con preoccupazioni crescenti riguardo all’accuratezza e al rischio di allucinazioni che frenano l’adozione da parte delle aziende.
Google ha introdotto una funzionalità simile questa estate in Vertex AI, la sua piattaforma di sviluppo di intelligenza artificiale, per consentire ai clienti di “fondare” i modelli utilizzando dati provenienti da fornitori terzi, i propri set di dati o la Ricerca Google.