Nella penombra di un elegante loft di Manhattan, circondato da libri e vecchie macchine da scrivere, un uomo rifletteva sui pericoli dell’intelligenza artificiale. Non era uno scienziato pazzo, ma Ilya Sutskever, uno dei padri spirituali dei moderni modelli linguistici. Guardava il tramonto oltre le finestre e pensava a come i suoi algoritmi, nati per rispondere a domande semplici, si fossero trasformati in divinità digitali affamate di energia.
Nel frattempo, dall’altra parte dell’oceano, il Professore Lecun, con lo sguardo acceso di chi ha visto il futuro, arringava le Nazioni Unite. Il suo messaggio era chiaro: il progresso tecnologico è una lama a doppio taglio, e i Transformer, con la loro insaziabile fame di calcoli, erano l’incarnazione di un sistema insostenibile.
Ilya si rigirava tra le mani un vecchio libro di filosofia, cercando risposte che la tecnologia non poteva dargli. Ogni token che alimentava un modello linguistico era come un chicco di sabbia in una clessidra infinita, ma il tempo e i costi crescevano con il quadrato della quantità. Inizialmente, sembrava magia: GPT-4o con 128.000 token di contesto era stato un trionfo. Poi arrivò Claude 3.5 Sonnet con 200.000 e infine Gemini 1.5 PRO con un colossale contesto da 2 milioni di token. Era come se gli ingegneri avessero dimenticato che la fisica e l’economia impongono limiti insormontabili.
La mente di Ilya vagava. Ricordava le parole di Tri Dao, il giovane genio di Princeton, che aveva proposto modelli alternativi come Mamba e FlashAttention. Erano soluzioni eleganti, ma palliative. Come costruire una diga più alta mentre il mare continuava a salire. Ilya sapeva che non si poteva vincere contro una crescita quadratica.
Dall’altra parte, il Professore Lecun proponeva un’idea audace e quasi utopica: un unico modello fondazionale planetario, distribuito su più datacenter e accessibile a tutti. Un’unica intelligenza artificiale globale che imparasse dalle esperienze condivise di otto miliardi di persone. Ma Ilya non poteva fare a meno di domandarsi: chi avrebbe controllato questa mente collettiva? Sarebbe stata una democrazia digitale o una dittatura algoritmica?
Ilya tornò al suo grafico. Dieci token significavano 400.000 operazioni di attenzione. Cento token salivano a 40 milioni. Mille token? Quattro miliardi. Diecimila token? Quattrocento miliardi. Con 128.000 token di GPT-4o si arrivava a 1,6 trilioni di operazioni, mentre Claude 3.5 Sonnet con 200.000 token raggiungeva i 4 trilioni. Gemini 1.5 PRO, con 2 milioni di token, sfiorava i 400 trilioni di operazioni. Era una spirale senza fine. La matematica non mente, e in economia, quando i costi salgono più velocemente dei ricavi, l’inevitabile è il collasso.
Il Professore Lecun parlava di soluzioni logaritmiche e di nuovi modelli che avrebbero superato i Transformer, ma servivano decenni. Nel frattempo, le aziende si sfidavano abbassando i prezzi per token, tentando di nascondere il costo crescente delle infrastrutture. La curva del prezzo si piegava verso il basso, ma quella dei costi puntava verso l’alto, come una forbice pronta a chiudersi.
Nel cuore della notte, Ilya scrisse freneticamente appunti su come ridurre la complessità. Pensava ai Transformer come a dinosauri digitali, magnifici ma condannati all’estinzione. Forse il futuro apparteneva a nuove architetture, capaci di ragionare con senso comune e rappresentare il mondo come fanno gli esseri umani. Ma quanto tempo sarebbe servito? E quanti fallimenti sarebbero stati necessari?
Il Professore Lecun chiudeva il suo discorso all’ONU con un’affermazione destinata a dividere: l’intelligenza artificiale supererà quella umana. Forse. Ma quale intelligenza? E quali umani? Ilya si domandava se il futuro sarebbe stato un coro armonioso di menti interconnesse o un cacofonico disastro di voci dissonanti.
Sospirò e spense la luce, lasciando il loft immerso nell’oscurità. In fondo, il problema più grande dell’intelligenza artificiale era che somigliava troppo all’intelligenza umana: brillante, creativa e, a volte, spaventosamente imprevedibile.