L’intelligenza artificiale sta velocemente diventando parte integrante di ogni settore, dalla finanza alla medicina, dalle operazioni aziendali alla gestione dei dati. Ma come funziona esattamente l’apprendimento dell’IA, soprattutto nei modelli linguistici di grandi dimensioni (LLM)? La comprensione di questo processo non è solo una questione di curiosità accademica, è fondamentale per chiunque si occupi di regolamentare, interpretare e applicare le normative sull’IA. La recente ricerca di Zucchet et al., intitolata “How Do Language Models Learn Facts? Dynamics, Curricula, and Hallucinations” (2025), fornisce una panoramica fondamentale di come questi modelli apprendano e memorizzino i fatti e, forse ancor più importante, come possano produrre risultati errati che chiamiamo “allucinazioni”.