Negli ultimi anni, il campo dell’intelligenza artificiale ha visto un’esplosione di progressi, ma alcuni comportamenti dei modelli di apprendimento profondo continuano a sfuggire alla comprensione degli esperti. Uno di questi fenomeni è noto come grokking, un termine coniato da Yuri Burda e Harri Edwards di OpenAI. Questo comportamento si manifesta quando un modello sembra non riuscire a imparare un compito e poi, all’improvviso, lo padroneggia, come se si accendesse una lampadina.