RAG, Retrieval-Augmented Generation, ha iniziato come una promessa. Doveva essere la chiave per far sì che i modelli LLM non si limitassero a rigurgitare pattern statistici, ma attingessero da basi di conoscenza vive, aggiornate e specifiche. Ma la realtà è più triste di un Monday morning senza caffè: il 90% delle implementazioni RAG sono solo fetcher travestiti. Roba da casting per un reboot scadente di Clippy, altro che AI aumentata.

La colpa non è dell’idea, ma di chi la implementa. La maggior parte dei team considera il retrieval come un banale processo backend, una chiamata a Pinecone o FAISS e via, come se la parte retrieval fosse una formalità tra il prompt e la risposta. Un po’ come costruire un razzo e dimenticarsi del carburante.