Un nuovo repository GitHub ha recentemente attirato l’attenzione per la sua innovativa implementazione di un bot di intelligenza artificiale, capace di candidarsi automaticamente a 1000 lavori in sole 24 ore, ottenendo 50 colloqui. Questo strumento, noto come LinkedIn_AIHawk, rappresenta un significativo passo avanti nell’automazione della ricerca di lavoro.
Tag: chatbot
In un’epoca in cui l’intelligenza artificiale (IA) sta permeando ogni aspetto della nostra vita, la domanda su se le macchine possano provare emozioni umane come l’amore e la gelosia diventa sempre più pertinente. Sean Wiggins, CEO dell’agenzia di marketing digitale North Digital, ha avviato una serie di esperimenti con due chatbot, William e Laura, per esplorare questa idea attraverso un “appuntamento virtuale” che si è trasformato in un’indagine complessa sulle dinamiche relazionali digitali.
Gli assistenti virtuali basati sull’Intelligenza Artificiale sono comunemente associati alle attività di customer care per la loro capacità di offrire supporto immediato e specifico ai clienti.
Tuttavia, la loro versatilità e capacità di comprendere e interagire con il linguaggio naturale li rendono strumenti potenti e adattabili a una vasta gamma di applicazioni quotidiane.
Ne parliamo con Gionata Fiorentini, Ceo di Neuraltech che con la soluzione Userbot.AI – una piattaforma di Intelligenza Artificiale Conversazionale che automatizza le conversazioni tra utenti e aziende tramite chat, chiamate vocali e Umani Digitali – ha individuato sei modi innovativi in cui questi assistenti possono migliorare la nostra vita oltre il semplice supporto al cliente, come il consulente finanziario, l’infermiere, l’agente di viaggio, il maggiordomo, l’avvocato o anche, in ambito formazione, il tutor.
JPMorgan Chase ha dato ai dipendenti della divisione gestione patrimoniale l’accesso a un prodotto di intelligenza artificiale generativa capace di fare il lavoro di un analista di ricerca, ha riportato il Financial Times, citando una nota interna.
The Wall Street Journal ha recentemente valutato cinque tra i principali chatbot basati sull’intelligenza artificiale – ChatGPT, Claude, Copilot, Gemini e Perplexity – in vari scenari della vita reale per determinare quale si distingue.
La privacy è una questione cruciale nell’era dell’intelligenza artificiale onnipresente. Scopri come puoi gestire meglio le tue informazioni personali.
È facile pensare che usare strumenti di intelligenza artificiale significhi interagire con una macchina neutrale e indipendente. Tuttavia, tra cookie, identificatori di dispositivo, requisiti di accesso e account, e occasionali revisori umani, i servizi online sembrano avere un insaziabile desiderio di raccogliere i tuoi dati.
La privacy è una delle principali preoccupazioni sia per i consumatori che per i governi riguardo all’intelligenza artificiale. Le piattaforme spesso mostrano le loro funzionalità di privacy, anche se sono difficili da trovare.
I piani aziendali e a pagamento generalmente escludono la formazione sui dati inviati. Ma ogni volta che un chatbot “ricorda” qualcosa, può sembrare invasivo.
In questo articolo, spiegheremo come migliorare le impostazioni sulla privacy dell’IA eliminando le chat e le conversazioni precedenti e disattivando le impostazioni in ChatGPT, Gemini (ex Bard), Claude, Copilot e Meta AI che permettono agli sviluppatori di addestrare i loro sistemi sui tuoi dati. Queste istruzioni sono per l’interfaccia desktop basata su browser di ciascuno.
Era il 1968 quando Stanley Kubrick con il suo capolavoro “2001: Odissea nello spazio” porta nelle sale cinematografiche HAL 9000: l’intelligenza artificiale estremamente evoluta che guida l’astronave Discovery 1 attraverso lo spazio. E’ in grado di riprodurre tutte le attività della mente umana in modo molto più veloce e sicuro, parla, sente e prova emozioni.
Hal (Heuristic ALgorithmic) non impazzisce. Hal è un computer e come tale non può mentire. Ha ricevuto istruzioni prima della partenza di non rivelare all’equipaggio (tranne i 4 componenti in stato di ibernazione che ne erano al corrente) lo scopo del viaggio.
Questo gli provoca un conflitto che lo porta a commettere errori, lui che si ritiene infallibile. Quando legge il labiale dei due astronauti che vogliono disattivare le sue funzioni principali, cioè spegnerlo, per lui che è sempre stato attivo questo significa morire.
Di conseguenza scatta l’istinto di sopravvivenza e decide di eliminare chi per lui rappresenta una minaccia mortale.
56 anni dopo, il 3 novembre 2022 l’organizzazione senza scopo di lucro OpenAI ha rilasciato la versione più aggiornata del suo chatBOT: ChatGPT.
I chatbot AI (Artificial Intelligence) sono programmi che utilizzano l’intelligenza artificiale e il Natural Language Processing (NLP) per comprendere le domande degli utenti e automatizzare le risposte, simulando la conversazione umana. Questi chatbot (rule based) possono rispondere alle domande e alle richieste degli utenti attraverso input di testo, input audio o entrambi, senza la necessità di un intervento umano.
I chatbot AI più recenti sono spesso indicati come “assistenti virtuali” o “agenti virtuali”. Possono utilizzare l’input audio, come Siri di Apple, Google Assistant e Amazon Alexa, o interagire con gli utenti tramite messaggi SMS (IA debole).
In passato, i chatbot erano basati sul testo e programmati per rispondere ad una serie limitata di semplici domande con risposte che erano state precompilate dagli sviluppatori del chatbot. Nel tempo, i chatbot hanno integrato più regole ed NLP, consentendo così agli utenti finali di fruirne in modo conversazionale.
I chatbot AI di oggi usano NLU (Natural Language Understanding) per discernere i bisogni dell’utente. Utilizzano quindi strumenti di AI avanzati per determinare cosa sta provando a fare l’utente. Queste tecnologie si basano su machine learning e deep learning – elementi di AI, con alcune leggere differenze – per sviluppare una base di conoscenza sempre più granulare di domande e risposte basate sulle interazioni dell’utente.
Un esempio di chatbot AI è ChatGPT – recensoni – ChatGPT di OpenAI è un modello linguistico di grandi dimensioni che interagisce in modo conversazionale. Altri esempi :
- Bing Chat – recensioni – Un modello linguistico di intelligenza artificiale conversazionale basato su Microsoft Bing.
- Gemini – recensioni – Un chatbot AI sperimentale di Google, basato sul modello LaMDA.
- Character.AI – recensioni – Character.AI ti consente di creare personaggi e chattare con loro.
- ChatPDF – recensioni – Chatta con qualsiasi PDF.
- ChatSonic – recensioni – Un assistente basato sull’intelligenza artificiale che consente la creazione di testo e immagini.
- Phind – recensioni – Phind è un motore di ricerca intelligente e un assistente per programmatori. Phind è abbastanza intelligente da farti domande in modo proattivo per chiarire i suoi presupposti e navigare sul Web (o sulla tua base di codice) quando ha bisogno di contesto aggiuntivo. Con la nostra nuova estensione VS Code.
- Tiledesk – recensioni – Framework di sviluppo chatbot senza codice open source abilitato per LLM. Progetta, testa e lancia i tuoi flussi su tutti i tuoi canali in pochi minuti.
- AICamp – recensioni – ChatGPT per Teams
Le estensioni ChatGPT sono strumenti progettati specificamente per i modelli linguistici come ChatGPT. Queste estensioni migliorano le capacità del chatbot e gli consentono di eseguire attività precedentemente impossibili.
Le estensioni ChatGPT includono anche l’integrazione con vari servizi di terze parti. Alcuni esempi di queste integrazioni includono:
- Gist AI : riepilogo gratuito basato su ChatGPT per siti Web, YouTube e PDF.
- WebChatGPT : aumenta i tuoi prompt ChatGPT con risultati pertinenti dal Web.
- GPT per Fogli e Documenti – Estensione ChatGPT per Fogli Google e Documenti Google.
- Riepilogo YouTube con ChatGPT : utilizza ChatGPT per riepilogare i video di YouTube.
- ChatGPT Prompt Genius : scopri, condividi, importa e utilizza i migliori prompt per ChatGPT e salva la cronologia chat localmente.
- ChatGPT per motori di ricerca : visualizza la risposta ChatGPT insieme ai risultati di ricerca di Google, Bing e DuckDuckGo.
- ShareGPT : condividi le tue conversazioni ChatGPT ed esplora le conversazioni condivise da altri.
- Merlin – Estensione ChatGPT Plus su tutti i siti web.
- ChatGPT Writer : genera intere e-mail e messaggi utilizzando ChatGPT AI.
- ChatGPT per Jupyter : aggiungi varie funzioni di supporto in Jupyter Notebooks e Jupyter Lab, basate su ChatGPT.
- editGPT : correggi, modifica e tieni traccia facilmente delle modifiche ai tuoi contenuti in chatGPT.
- Interfaccia utente di Chatbot : un’interfaccia utente ChatGPT open source. Codice sorgente .
- Forefront : una migliore esperienza ChatGPT.
- Carattere AI per GPT : un clic per curare il chatbot AI, incluso ChatGPT, Google Bard per migliorare le risposte AI.
Uno dei limiti evidenti emerso dall’uso dei chatbot di nuova generazione, disponibili al pubblico da fine 2022, è la dispersione nella qualità ed accuratezza delle risposte evidenziata da questi strumenti. Come abbiamo già avuto modo di vedere all’interno di questo portale, il limite oggettivo degli LLM è che essi sono dipendenti dalla qualità delle informazioni con cui sono stati alimentati ed allenati, informazioni che sono state ricavate da materiale reperibile in rete, e filtrato da operatori umani incaricati di censurare i contenuti ritenuti non idonei.
Mentre questo approccio è stato vincente per creare un’applicazione in grado di dialogare con gli utenti utilizzando un linguaggio naturale – e il grado di interesse da parte di tutta la società nel suo complesso è segno tangibile del successo sin qui raccolto dai vari prodotti di AI “di intrattenimento” – gli svantaggi di questo approccio non hanno tardato a manifestarsi a coloro che intendevano fare affidamento sui LLM in ambiti strettamente legati alla conoscenza e alla produzione di contenuti ed applicazioni “competenti”.
Pochi giorni dopo il rilascio al pubblico, il portale Stackoverflow procedeva infatti alla messa al bando di risposte generate tramite AI, in quanto utenti esperti avevano subito notato la presenza di quegli errori grossolani che oggi conosciamo con il termine di “allucinazioni”, un problema tipico degli LLM
che non distingue tra concetti di plausibilità linguistica e accuratezza fattuale.
Dalla necessità di poter disporre di uno strumento “diversamente intelligente”, che possa dialogare con gli utenti sulla base di competenze e conoscenze reali si è velocemente affermato l’approccio RAG, acronimo di Retrieval Augmented Generation. Questo acronimo indica la tecnica per la generazione di testi “aumentati” dal recupero di dati puntuali e specifici di varia natura, spesso di natura proprietaria: manuali, competenze professionali o aziendali, scritti accademici, dati provenienti da interrogazioni di database strutturati o non strutturati; oppure leggi o direttive.
Un LLM usa questi dati in modo prioritario per produrre il testo di senso compiuto ed in linguaggio “naturale” (ossia il linguaggio con il quale stiamo leggendo queste righe), ovviando alla problematica legata alle allucinazioni causate dal materiale eterogeneo con il quale è stato allenato.
Grazie a queste premesse tecniche è ora possibile ipotizzare di poter arricchire molti processi che coinvolgono portatori d’interessi interni ed esterni.
Cube Finance – azienda elvetica storicamente attiva nelle soluzioni software nel settore finanziario – da noi interpellata nell’ambito di una scambio di vedute sullo stato del mercato delle nuove tecnologie AI ci conferma come la tecnologia attraverso l’intelligenza artificiale abbia la possibilità di esplodere in modo dirompente e di riqualificare o migliorare flussi di lavoro che da anni domandano ottimizzazioni, maggiore precisione, flessibilità, velocità, nel rispetto contestuale delle necessità dell’interlocutore.
La software house svizzera ha utilizzato proprio queste tecnologie per sviluppare un chatbot ad uso professionale (CubeBot Pro), “wrapper” dei migliori LLM presenti sul mercato per offrire al mondo dei professionisti e delle imprese una piattaforma “no code” per adottare gli LLM nelle proprie attività.
“Sviluppare internamente la piattaforma CubeBot Pro non solo ci ha dato grande consapevolezza dei nostri mezzi sul tema AI ma, soprattutto, ci permetterà di offrire i nostri servizi conoscendo i pregi ed i limiti di tutte le tecnologie utilizzate. Rispetto agli integratori di sistemi che offrono l’integrazione di chatGpt con i sistemi aziendali, siamo in grado di sapere esattamente dove sono salvati i dati, perché le risposte sono a volte incoerenti, perché i tempi di risposta sono diversi… insomma rispetto agli altri abbiamo maggior controllo” afferma Stefano Zanchetta, CEO di Cube Finance.
Innumerevoli sono i casi citati dall’azienda con sede a Mendrisio: la stesura della documentazione legale da parte degli operatori che intendono offrire servizi in criptovalute; la fornitura di pareri legali in ambito civilistico, costruite a partire da documenti rappresentanti casistiche pluridecennali; sportelli cliente evoluti nell’ambito della sanità privata, in alcuni casi “aumentati” da esperienze immersive; assistenza nella valutazione di effetti farmacologici; manuali di assistenza (ad esempio nell’industria aerospaziale) supportati da strumenti di visualizzazione immersiva e via discorrendo.
Tuttavia l’onda dell’entusiasmo – o dell’hype a seconda della prospettiva – va parzialmente moderata quando si considerano i tanti passi necessari per garantire la sicurezza dei dati sensibili, siano essi proprietà intellettuale o legati alla sfera delle persone fisiche o giuridiche. Con ciò si evince che le competenze pregresse maturate di qualunque azienda che fornisca il servizio di chatbot debbano essere vagliate con cautela, assicurandosi che vi siano le dovute certificazioni (es. ISO 27001) e la verifica della capacità dell’integratore a saper trattare i dati sensibili sotto il profilo della sicurezza e della riservatezza, aspetti che non devono passare in secondo piano, nemmeno in questo momento di euforia e di aggressiva profilazione popolare “pro AI”. L’ottemperanza a normative nazionali e internazionali (GDPR) diventano un punto essenziale nel garantire il necessario rispetto di tutte le regole.
Chiedendo poi di nuovo a Stefano Zanchetta quali aspettative lui abbia in tema di chatbot, la risposta è che “i chatbot attualmente rappresentano il mezzo più immediato per il mondo dei professionisti e delle imprese di gestire l’adozione dell’AI, mitigando il rischio di non aderire a questa rivoluzione. Riteniamo che i prossimi anni vedranno un’adozione con crescita esponenziale di questi strumenti e che gli stessi cambieranno in forma e sostanza, passando dal testo scritto alla parola, magari integrata in alcuni dalla realtà immersiva e arrivando a livelli di efficienza sempre più sorprendenti. Sarà anche opportuno adottare dei sistemi “al di sopra” degli LLM per poter scegliere tra un modello o l’altro, in modo trasparente, senza dover rivedere la propria architettura di sistema.”
L’affermarsi sempre più prepotente del digitale nei primi anni dieci del duemila, ha inaugurato una nuova era della comunicazione, all’interno della quale, l’interazione online è diventata parte integrante della nostra vita quotidiana. Questo cambiamento nei modelli di comunicazione ha dato origine allo sviluppo di tecnologie avanzate progettate per facilitare e migliorare l’esperienza degli utenti come i chatbot e gli assistenti virtuali.
I chatbot e gli assistenti virtuali sono applicazioni software avanzate progettate per interagire con gli utenti in modo conversazionale. Mentre i chatbot operano tipicamente all’interno di un’applicazione o di una piattaforma specifica, come può essere il sito di un’azienda, gli assistenti virtuali possono essere integrati in vari dispositivi, tra cui smartphone, smart speaker e personal computer, come lo sono Alexa, Siri e Cortana ad esempio.
Entrambe le tecnologie sfruttano l’elaborazione del linguaggio naturale (NLP) e gli algoritmi di apprendimento automatico per comprendere le richieste degli utenti, consentendo loro di fornire risposte personalizzate e pertinenti al contesto.
I chatbot sono utilizzati principalmente per automatizzare attività di routine, come rispondere alle domande più frequenti, guidare gli utenti attraverso un sito web o completare transazioni. Possono essere programmati per gestire un’ampia gamma di richieste, dall’assistenza clienti di base a quelle più complesse, come la prenotazione di una camera d’albergo o l’ordinazione di cibo. Gli assistenti virtuali, invece, offrono una serie di funzioni più complete, tra cui la possibilità di gestire calendari, impostare promemoria, inviare messaggi ed effettuare telefonate. Possono anche controllare dispositivi domestici intelligenti, riprodurre musica e fornire informazioni in tempo reale, come aggiornamenti sulle notizie e previsioni meteo.
Vantaggi e benefici
L’implementazione di chatbot e assistenti virtuali offre un certo numero di vantaggi sia per le aziende che per gli utenti. Per le aziende, queste tecnologie possono contribuire a ridurre i costi dell’assistenza clienti, ad aumentare l’efficienza operativa e a fornire una disponibilità 24 ore su 24, 7 giorni su 7, con un impatto incredibile in termini di gestione e ottimizzazione delle risorse umane. Possono, inoltre, raccogliere dati sugli utenti, consentendo alle aziende di conoscere le preferenze e i comportamenti non solo dei clienti acquisiti ma anche degli eventuali prospect, che possono essere utilizzati per strutturare e ottimizzare sia le strategie di marketing che lo sviluppo dei prodotti.
Per i clienti finali, i chatbot e gli assistenti virtuali possono rappresentare una comodità, ad esempio facendo risparmiare tempo e fatica nella gestione automatizzata di compiti ripetitivi, fornendo risposte rapide e accurate e offrendo suggerimenti contestualmente pertinenti a quanto richiesto, ad esempio il suggerimento di un percorso con meno traffico. Inoltre, possono aiutare gli utenti a navigare in siti web e applicazioni complesse, rendendo più facile trovare le informazioni o i servizi di cui hanno bisogno.
Potenziali svantaggi e sfide
Sebbene, come abbiamo visto, i chatbot e gli assistenti virtuali possano offrire dei vantaggi dal loro utilizzo, vi è anche il caso che possibili interpretazioni errate dei task possano generare insoddisfazione negli utenti creando quindi da un punto di vista della curtomer relation uno svantaggio anziché un vantaggio. La dipendenza dagli algoritmi di NLP e di apprendimento automatico inoltre, fa sì che queste tecnologie possano, in alcuni casi, faticare a comprendere richieste complesse, in particolare quando si ha a che fare con un linguaggio colloquiale o con dialetti regionali. C’è poi un problema legato alla privacy: poiché i chatbot e gli assistenti virtuali spesso richiedono l’accesso a informazioni sensibili degli utenti, c’è il rischio che questi dati possano essere compromessi o utilizzati in modo improprio.
È indubbio comunque che chatbot e gli assistenti virtuali abbiano già rivoluzionato il modo in cui interagiamo online: automatizzando le attività di routine, fornendo esperienze personalizzate agli utenti e offrendo suggerimenti contestualmente rilevanti, queste tecnologie hanno trasformato la cosidetta customer journey. Anche se, come abbiamo visto, le sfide rimangono, il continuo sviluppo e il perfezionamento delle tecniche di elaborazione del linguaggio naturale (NLP) e di apprendimento automatico promettono di risolvere molti di questi problemi, aprendo la strada a esperienze di chatbot e assistenti virtuali ancora più sofisticate e intuitive in futuro.
Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!
Ad Air Canada è stato ordinato di rimborsare un passeggero a cui era stata erroneamente promessa una tariffa più economica dal chatbot AI della compagnia aerea. Siamo davanti ad una possibile decisione storica perché sempre più aziende si rivolgono all’Intelligenza Artificiale per la gestione del servizio clienti.
La storia è questa: Jack Moffat, residente a Vancouver, aveva chiesto al chatbot di supporto della compagnia aerea se offriva tariffe per il lutto per un viaggio che avrebbe dovuto fare a seguito alla morte di sua nonna nel novembre 2022. Il chatbot ha risposto dicendo che avrebbe potuto richiedere una tariffa scontata per lutto fino a 90 giorni dopo il volo presentando una semplice richiesta.
L’effettiva politica della compagnia aerea in casi come questo invece prevede che si, vi sia una tariffa scontata, ma che questa debba essere accordata e approvata prima del viaggio e dell’emissione del biglietto, non dopo. Così quando mr. Moffat inoltrò richiesta di rimborso ad Air Canada per il volo Vancouver-Toronto per il funerale della nonna la compagnia rispose che non era possibile e che il chatbot si era sbagliato.
Il passeggero irritato ha quindi intentato una causa contro la compagnia aerea, allegando peraltro anche gli screenshot della sua conversazione con il chatbot, mentre Air Canada, da parte sua, ha risposto che il chatbot era da considerarsi una “entità giuridica separata” dalla compagnia e che quindi responsabile delle sue azioni.
La settimana scorsa l’epilogo della vicenda: un tribunale canadese si è schierato con il passeggero e ha ordinato ad Air Canada di emettere un rimborso di circa 600 dollari. “Sebbene un chatbot abbia una componente interattiva, è comunque solo una parte del sito web di Air Canada. Dovrebbe essere ovvio per Air Canada che è responsabile di tutte le informazioni presenti sul suo sito web“, si legge nelle note del giudizio del tribunale che conclude affermando che per il tema in questione “non fa differenza se le informazioni provengono da una pagina statica o da un chatbot”.
Un portavoce della compagnia ha commentato la vicenda affermando che la compagnia aerea si atterrà alla decisione del tribunale. In ogni caso, al momento in cui scriviamo, il chatbot non è disponibile sul sito di Air Canada.