Se pensavate che l’intelligenza artificiale fosse già una scatola nera impenetrabile, tenetevi forte: ora ci sono intelligenze artificiali che progettano altre intelligenze artificiali. Questo è il cuore del paper “Automated Design of Agentic Systems” di Shengran Hu e colleghi, che propone un algoritmo chiamato Meta Agent Search per generare agenti sempre più performanti senza l’intervento umano. Praticamente, un Frankenstein digitale che assembla se stesso pezzo dopo pezzo.
La promessa è affascinante e al tempo stesso inquietante: eliminare la progettazione manuale e lasciare che gli algoritmi trovino da soli il modo più efficace di risolvere i problemi. Vi suona familiare? Dovrebbe. La storia dell’informatica è costellata di momenti in cui qualcuno ha detto “eliminiamo il bisogno dell’uomo” per poi ritrovarsi a dover gestire un sistema ancora più complesso e incomprensibile. Vedi il passaggio dagli algoritmi artigianali al deep learning, che ci ha regalato reti neurali potentissime ma talmente oscure da richiedere interi dipartimenti di ricerca per capire cosa diavolo stiano facendo.
Hu e soci, consapevoli del problema, ci tengono a sottolineare che il loro sistema permette la scoperta automatica di “blocchi costitutivi” degli agenti intelligenti, eliminando la necessità di ingegneri e ricercatori che affinino manualmente modelli e strategie. Dopotutto, chi ha bisogno di cervelli in carne e ossa quando possiamo addestrare una macchina a progettare altre macchine? Richard Sutton, con la sua teoria del “bitter lesson”, ci aveva già avvisato che l’unico vero progresso nell’IA arriva quando lasciamo fare tutto al calcolo bruto e rinunciamo alle nostre intuizioni umane. E ora siamo qui, a osservare macchine che creano altre macchine, in un vortice autoreplicante che ci porterà, nel migliore dei casi, a un’IA più efficiente. Nel peggiore? A non capire più nulla di come funzioni la nostra tecnologia.
La parte più ironica è che questo tipo di ricerca si traveste da “beneficio per l’umanità”, quando in realtà il suo scopo è rendere superfluo il lavoro umano, anche quello degli scienziati dell’IA stessi. Siamo passati dall’automazione delle catene di montaggio all’automazione della ricerca scientifica. A quando l’automazione dell’automazione? A quando un’IA che decide da sola quali ricerche portare avanti? Già, ci stiamo già lavorando. C’è chi, come Jeff Clune, sogna un futuro in cui l'”AI-generating algorithms” creerà nuove IA senza bisogno di intervento umano. Un’idea che sembra presa direttamente dalla letteratura cyberpunk, dove le macchine si evolvono senza controllo e l’umanità si limita a guardare, sempre più irrilevante.
Meta Agent Search, il protagonista di questo paper, funziona così: un “meta-agente” programma nuovi agenti, li testa, conserva i migliori e usa questi risultati per creare iterazioni successive sempre più performanti. Insomma, un’evoluzione darwiniana su steroidi, solo che invece di selezionare il più adatto alla sopravvivenza, seleziona il più efficace a risolvere problemi specifici. Il risultato? Modelli che sembrano funzionare meglio, ma di cui non conosciamo bene la logica interna. Insomma, stiamo costruendo una torre di Babele dell’IA, in cui ogni nuovo piano è progettato da un costruttore che non ha mai visto le fondamenta.
E mentre ci vantiamo dei progressi, dovremmo forse chiederci: siamo davvero noi a dirigere questo sviluppo, o siamo già solo spettatori? Se il futuro dell’IA è quello di auto-progettarsi, è solo questione di tempo prima che si evolva in qualcosa che non comprendiamo più. E allora torneremo a fare quello che sappiamo fare meglio: osservare perplessi e inventare nuovi acronimi per spiegare perché la macchina ci ha superati di nuovo.