OpenAI ha appena lanciato l’ennesima novità per ChatGPT: Deep Research, un’aggiunta che promette di trasformare il chatbot da semplice generatore di testo in un analista autonomo capace di pianificare, eseguire ricerche multi-step e perfino tornare sui propri passi se necessario. Un’intelligenza artificiale che finalmente può correggersi da sola? Quasi, ma non troppo.
L’idea è che ora ChatGPT non si limiti a rispondere con il solito testo preconfezionato, ma mostri un processo di ricerca “trasparente” nella nuova barra laterale, includendo citazioni e spiegazioni su come ha costruito la sua risposta. Un’innovazione che suona rassicurante, fino a quando OpenAI stessa ammette che Deep Research può ancora allucinare fatti inesistenti, confondere bufale con dati ufficiali e non avere la minima idea di quanto sia sicuro delle sue risposte. Insomma, un po’ come un analista finanziario sotto pressione, ma con meno senso della realtà.
Dagli Ordini ai Tavoli: Deep Research e la Nuova Frontiera dell’Attesa AI
La vera chicca? I tempi di risposta. Dimenticate le risposte istantanee: Deep Research si prende dai 5 ai 30 minuti per elaborare un’analisi. Un progresso notevole: finalmente un’intelligenza artificiale che emula alla perfezione un dipendente aziendale intento a prendere un caffè mentre il report si genera da solo. La cosa interessante è che gli utenti possono fornire immagini, PDF e fogli di calcolo, per dare contesto alla ricerca. Il tutto per poi ricevere un resoconto in chat che, nelle demo, appare con punti elenco e tabelle – il minimo sindacale per sembrare qualcosa di vagamente professionale.
In sostanza, OpenAI sta cercando di vendere la promessa di un assistente digitale ultra-intelligente che lavora come un ricercatore umano. Ma con la precisazione che potrebbe comunque sbagliare tutto. Perché la realtà è che il vero problema dell’IA oggi non è la velocità o la trasparenza, ma il fatto che non capisce quello che sta facendo. Può cercare, riassumere, confrontare dati, ma alla fine è solo una macchina di predizione statistica, e la sua “intelligenza” è ancora un costrutto di marketing più che una realtà.
Pagare per una Ricerca che Forse è Vera, ma Forse No
Naturalmente, nulla è gratis: per i fortunati utenti Pro che sborsano 200 dollari al mese, Deep Research offre fino a 100 query mensili. Per chi invece paga di meno, c’è un “accesso limitato” – che in gergo AI significa “può funzionare, come no”. OpenAI giustifica il costo parlando di risorse computazionali elevate, facendo intendere che il processo di ricerca sia così avanzato da necessitare un’infrastruttura di calcolo massiccia. Più probabilmente, sta solo sperimentando quanto può far pagare gli utenti prima che inizino a chiedersi se non sia meglio assumere un tirocinante.
Il comunicato stampa vanta anche un traguardo straordinario: Deep Research ha superato il benchmark “Humanity’s Last Exam”, un test per valutare le risposte a domande di livello esperto. Il punteggio? 26,6% di accuratezza, il che, considerando che GPT-4o arriva solo al 3,3%, sembra un progresso incredibile. Peccato che questo significhi comunque che sbaglia più di tre volte su quattro. Se fosse un candidato a un colloquio, verrebbe scartato al primo turno.
L’IA come Servizio Premium: la Bolla Continua
Questa nuova funzione arriva poco dopo il lancio di Operator, lo strumento di OpenAI che utilizza il browser per eseguire compiti in autonomia – un chiaro segnale che il futuro dell’IA generativa è sempre più orientato a diventare un agente digitale a pagamento. Lo stesso Google, con il suo Project Mariner, sta lavorando a qualcosa di simile, ma al momento il suo tool non è ancora pubblico.
Tutto questo lascia intravedere la vera direzione del mercato: le aziende come OpenAI stanno cercando disperatamente di rendere l’IA abbastanza utile da giustificare un abbonamento, ma senza risolvere il problema centrale: la qualità delle risposte. Fino a quando strumenti come Deep Research continueranno a generare contenuti con margini di errore significativi, la vera utilità rimarrà limitata.
Per ora, la promessa è chiara: l’intelligenza artificiale può cercare, analizzare e fornirti un resoconto dettagliato – basta che tu sia disposto ad aspettare e a non fidarti ciecamente di ciò che dice. Un po’ come un consulente strapagato, ma senza la capacità di farsi un espresso mentre il report si genera.