A un certo punto, Geoffrey Hinton quello che ha praticamente inventato il deep learning, mica uno qualsiasi si è alzato in piedi e ha detto: “Ragazzi, qui stiamo facendo finta di essere intelligenti, ma stiamo sbagliando tutto.” O quasi tutto.
Un fulmine nella Silicon Valley non lo lancia mai a caso, e infatti la sua uscita suona come una bestemmia per chi da anni campa (e lucra) sulla backpropagation e sull’addestramento centralizzato dei modelli.
Ma cosa c’è davvero dietro questo suo ritorno al “cervello biologico”? Un rimpianto? Un’epifania da scienziato disilluso? O forse, semplicemente, la stanchezza di vedere l’intelligenza artificiale diventare sempre più… stupida?
Perché diciamocelo: mettere milioni di dati in un datacenter, frullarli come un minestrone e tirarne fuori un modello che sa distinguere un cane da un gatto non è proprio un atto di genialità. È forza bruta. È un lavoro da fabbrica, non da mente.
L’apprendimento federato prova a cambiare musica. Invece di centralizzare tutto, dice: “Oh, ma se ogni dispositivo ha già dei dati, perché non fargli imparare qualcosa lì, sul posto, senza inviare tutto al mega-cervellone?”
Un’idea elegante, quasi zen. I dati restano dove nascono, si addestra localmente, si aggregano solo i risultati. Più privacy, meno consumo, meno traffico di rete. Teoricamente.
Sì, perché poi c’è la realtà. I modelli addestrati localmente sono come studenti in DAD: ognuno fa un po’ come gli pare, i risultati sono disomogenei, qualcuno imbroglia (vedi attacchi avversari), qualcuno dorme (dispositivi offline), qualcuno è semplicemente scarso (dataset minuscoli e sporchi).
Quando poi si prova ad “unificare” tutto, salta fuori che il modello finale è un po’ schizofrenico: ha imparato tutto e niente.Eppure funziona.
Non sempre, ma quando serve un’AI che impari senza vedere tutto, senza violare ogni regola sulla privacy, senza accendere server come albero di Natale in un blackout… ecco, lì torna utile.
Ma non è magia. È compromesso. È ingegneria sotto anestesia.Poi c’è Hinton, che ci guarda e scuote la testa. Dice: “Ma vi rendete conto che il cervello non funziona così? Che non fa backpropagation? Che non ha un supervisore centrale? Che è tutto asincrono, sporco, rumoroso eppure geniale?”
Allora propone qualcosa di più vicino al cervello, magari ispirato al neuromorphic computing. Non vuole tornare all’analogico come lo intende chi si scalda per i vinili, ma vuole un’AI che non sembri progettata da contabili.
Una che dimentica, sbaglia, si adatta. Una che viva, non che simuli.Solo che… noi non siamo pronti. Non ancora. Il digitale è ordine, controllo, log. L’analogico è instabile, imprevedibile, vivo.
Per questo il federated learning è un compromesso geniale: ti fa sembrare innovativo, mentre resti nel recinto del digitale.
Hinton lo sa, ma spera ancora che qualcuno abbia il coraggio di uscire davvero.Forse l’unico modo per onorare la sua visione è smettere di chiedere all’AI di essere precisa, efficiente, perfetta. Forse dobbiamo chiederle di essere sorprendente. Imperfetta.
Creativa. Come il cervello che ce l’ha insegnato. E se questo significa tornare a pensare fuori dal cloud, ben venga. Magari, nel prossimo futuro, avremo intelligenze che non si aggiornano solo su GitHub, ma si evolvono come noi: sbagliando, inciampando, crescendo. Un po’ federate, un po’ folli. Ma vive.
GRAZIE a Piero Savastano per la scintilla neuronale.
The Collective intelligence of the Hyve Mind