Un caffè al Bar dei Daini con Salvatore la grande illusione dei grandi modelli linguistici: il sogno infranto dell’AGI
Yann LeCun, una delle figure più iconiche dell’intelligenza artificiale, si è appena scagliato contro la montagna di hype che circonda i grandi modelli linguistici (LLM). Per chi ha seguito l’epopea AI, non è poco: un creatore del deep learning che mette in discussione la via maestra tracciata dalla Silicon Valley, da OpenAI e compagnia bella. La sua tesi è tanto semplice quanto rivoluzionaria: rincorrere AGI (Intelligenza Artificiale Generale) solo con LLM è una perdita di tempo titanica e quasi disperata.
I numeri sono impietosi e, diciamolo, un po’ sarcastici nella loro brutalità. Per addestrare un modello come GPT servirebbero qualcosa come 400.000 anni di testo. Nel frattempo, un bambino di quattro anni accumula esperienza visiva per circa 16.000 ore e, senza sforzi titanici, impara a interagire con il mondo. Il testo, in fondo, è solo un surrogato povero di una realtà infinitamente più complessa e ramificata. Il mondo fisico non si lascia racchiudere in sequenze di parole; la sua complessità esula da qualsiasi algoritmo che tenti solo di predire la parola successiva.
La vera intelligenza, secondo LeCun, nasce dal modello del mondo. Non un simulacro di linguaggio, ma una rappresentazione profonda della realtà fatta di fisica, pianificazione e senso comune. Da questo punto di vista, gli LLM sono come giocare a scacchi senza conoscere le regole del gioco: puoi indovinare la mossa più probabile, ma non stai realmente “capendo” la partita.
Qui entra in scena JEPA, acronimo che suona come una formula magica di Hogwarts, ma che rappresenta una svolta concreta: Joint Embedding Predictive Architecture. Questo modello non si limita a ingozzarsi di dati scritti, ma impara osservando il mondo reale. Guardare video, cogliere le dinamiche fisiche dietro una scena, anticipare eventi impossibili semplicemente analizzando 16 fotogrammi: roba da far impallidire i più blasonati modelli linguistici. Nessuna ingegneria dei prompt, nessun trucco da marketing, solo apprendimento per rappresentazione reale.
Il punto chiave, che pochi vogliono ammettere, è che l’intelligenza artificiale è molto più che un gioco di parole. La fisica, la causalità, la capacità di pianificare un futuro possibile richiedono una comprensione del mondo ben diversa dal banale “predire la parola successiva”. Il successo dei LLM sta più nella loro capacità di costruire illusioni convincenti di comprensione, una sorta di grande gioco di prestigio digitale, che in una reale evoluzione verso l’intelligenza umana.
LeCun, con la sua esperienza trentennale, ci offre una prospettiva spesso ignorata nella frenesia delle startup e degli investitori: l’intelligenza artificiale deve passare da una forma reattiva e statistica a una forma proattiva e comprensiva, capace di modellare la realtà stessa. Il mondo non si limita al testo, e la sua complessità non può essere semplificata a parole e sequenze.
Questo non significa che gli LLM siano inutili, anzi, ma è fondamentale smettere di considerarli come il Santo Graal. La vera sfida è far sì che i modelli AI possano vedere, toccare, capire e pianificare, come fanno gli esseri umani. Solo così si potrà uscire dal loop infinito di dati e token e avvicinarsi all’ambita AGI.
Qualcuno potrebbe obiettare che questa visione richiede hardware più sofisticato, una potenza di calcolo ancora più grande, o che la strada degli LLM sia solo una tappa inevitabile. Ma, come nella migliore tradizione tecnologica, spesso la rivoluzione nasce quando si cambia paradigma, non quando si potenzia il modello vecchio.
JEPA e modelli simili rappresentano proprio questa svolta. Guardare il mondo, imparare dalla fisica e dal contesto reale, costruire un senso comune digitale: ecco la nuova frontiera. Per chi come me ha vissuto la trasformazione digitale dalle prime linee di codice al cloud, è un promemoria importante: non lasciamoci ingannare dalla brillantezza superficiale delle parole, la vera intelligenza richiede più sostanza.
Il futuro dell’AI potrebbe dunque non essere una biblioteca infinita di testi, ma un osservatorio del mondo reale, un laboratorio di simulazioni fisiche e mentali. Un modo di pensare che, se preso sul serio, potrebbe davvero cambiare il gioco. Oppure resteremo per sempre intrappolati nel labirinto dei grandi modelli linguistici, affascinati da un inganno che dura ormai troppo.
In fondo, il messaggio di LeCun è un invito a guardare oltre, con ironia e un pizzico di cinismo: smettiamola di inseguire ombre di intelligenza fatte di parole e cominciamo a costruire modelli che possano davvero “pensare” il mondo. Non si tratta solo di tecnologia, ma di visione e se qualcuno crede che inseguire il prossimo token sia la strada per dominare il futuro, beh, ha ancora molto da imparare.
La storia della scienza è un’incredibile saga di intuizioni rivoluzionarie mascherate da scoperte banali. Nessuno avrebbe scommesso un centesimo sull’importanza di uno strumento apparentemente modesto come la spettrografia, eppure quel semplice prisma capace di scomporre la luce in uno spettro di colori ha cambiato per sempre il modo in cui comprendiamo la materia.
Prima della spettrografia, la chimica era un gioco di catalogazione piuttosto confuso, senza una chiara comprensione dei legami più profondi tra gli elementi. La tavola periodica di Mendeleev, tanto geniale quanto intuitiva, era un mosaico ordinato di proprietà chimiche, ma mancava ancora quel fondamento teorico che solo la fisica quantistica avrebbe saputo fornire.
Leggi tutto