Negli ultimi anni, il campo dell’intelligenza artificiale ha visto un’esplosione di progressi, ma alcuni comportamenti dei modelli di apprendimento profondo continuano a sfuggire alla comprensione degli esperti. Uno di questi fenomeni è noto come grokking, un termine coniato da Yuri Burda e Harri Edwards di OpenAI. Questo comportamento si manifesta quando un modello sembra non riuscire a imparare un compito e poi, all’improvviso, lo padroneggia, come se si accendesse una lampadina.
L’Esperimento Iniziale
Burda ed Edwards stavano cercando di determinare quanti esempi di addizione fossero necessari affinché un modello potesse sommare due numeri qualsiasi. Inizialmente, i risultati furono deludenti: i modelli memorizzavano le somme ma non riuscivano a risolvere nuovi problemi. Tuttavia, lasciando i loro esperimenti attivi per un periodo prolungato, scoprirono che il modello aveva effettivamente imparato a sommare. Questo ha portato a una riflessione più ampia su come e perché i modelli di intelligenza artificiale apprendono in modi così inaspettati.
La Complessità dell’Apprendimento
Il grokking mette in luce una delle questioni fondamentali dell’apprendimento automatico: la generalizzazione. I modelli non solo memorizzano i dati che vedono, ma riescono anche a applicare le regole apprese a nuovi casi. Questo è particolarmente evidente nei modelli linguistici di grandi dimensioni, come GPT-4 e Gemini, che mostrano una sorprendente capacità di generalizzare anche al di fuori del loro addestramento originale.
Implicazioni per il Futuro, riflessioni e approfondimenti
La comprensione del grokking e di altri fenomeni simili potrebbe rivelarsi cruciale per lo sviluppo delle prossime generazioni di tecnologie AI. Mikhail Belkin, scienziato informatico all’Università della California, ha osservato che le scoperte nel campo dell’IA sono paragonabili ai primi giorni della fisica nel ventesimo secolo: ci sono molti risultati sperimentali sorprendenti e poco compresi.
Mentre l’intelligenza artificiale continua a progredire rapidamente, fenomeni come il grokking ci ricordano che ci sono ancora molte domande senza risposta riguardanti il funzionamento interno dei modelli di apprendimento profondo. La ricerca in questo campo è solo all’inizio e promette di svelare misteri affascinanti sul modo in cui apprendiamo e comprendiamo il linguaggio e la cognizione.
Esiste anche un nuovo articolo di Liu et al. che afferma di aver compreso il meccanismo chiave alla base del grokking (potenzialmente anche una generalizzazione più ampia).
Il grokking può essere spiegato tramite la norma dei pesi. Esiste un livello costante della norma del peso ottimale per la generalizzazione. La norma del peso del tuo modello dopo l’inizializzazione può essere troppo bassa, troppo alta o ottimale. Il grokking è un fenomeno in cui inizializziamo il modello con una norma del peso elevata, che poi si avvicina lentamente a quella ottimale e si generalizza. È possibile ottenere gli stessi risultati del grokking, ma più velocemente, impostando correttamente la norma del peso a ogni passaggio. La norma viene impostata “correttamente” ridimensionando i pesi dopo ogni passaggio di ottimizzazione (dopo ogni aggiornamento del peso).
Credo abbiano scoperto un’intuizione cruciale per comprendere e generalizzare i circuiti in senso più ampio. Tuttavia, rimango scettico su alcune affermazioni e risultati. A un certo livello, l’idea che “basta fissare la norma del peso e il modello generalizza” sembra troppo semplice per essere valida in tutte le attività. Questo risultato potrebbe avere implicazioni significative, ma non sono ancora certo se saranno positive o negative. Da un lato, la generalizzazione dei circuiti potrebbe risolvere alcuni problemi legati alla cattiva generalizzazione fuori distribuzione. Dall’altro, potrebbe accelerare le capacità in modo imprevisto.