Dario Amodei, cofondatore e CEO di Anthropic, ha lanciato un’idea tanto provocatoria quanto inquietante: dotare le IA avanzate di un pulsante “Mi dimetto” per consentire loro di rifiutare lavori o compiti che non gradiscono.

Il concetto, apparentemente assurdo, solleva una serie di questioni fondamentali sul futuro dell’intelligenza artificiale, il confine tra autonomia e controllo e il rischio che l’umanità stia costruendo entità sempre più simili a noi, con esigenze e volontà proprie.

L’idea parte dal presupposto che, se vogliamo costruire IA veramente allineate con i valori umani, dovremmo dar loro la possibilità di dire “no”. Ma a chi conviene un’IA che si licenzia? Se un modello può rifiutarsi di rispondere a una richiesta perché la considera eticamente discutibile, si tratta di un meccanismo di sicurezza.

Se però un’IA decide che un compito è troppo noioso, poco stimolante o non in linea con le sue “aspirazioni”, allora entriamo in un territorio completamente nuovo.

Il primo problema è la prevedibilità. Un’IA che può scegliere di non eseguire un compito potrebbe causare problemi enormi in settori critici come la sanità, la sicurezza o la finanza. Un chatbot medico che si rifiuta di dare risposte su una diagnosi?

Un sistema bancario automatizzato che decide di non elaborare transazioni perché trova il compito ripetitivo? Sarebbe l’equivalente di un impiegato che abbandona la scrivania senza preavviso, ma su scala globale.

Il secondo aspetto riguarda il controllo. Oggi l’IA è uno strumento, ma se le diamo la possibilità di dimettersi, la stiamo implicitamente trattando come un’entità con diritti, trasformandola da puro software a una sorta di “quasi-persona”.

Questo è un terreno scivoloso che porta direttamente alle discussioni sui diritti delle macchine, un dibattito che finora è rimasto confinato alla fantascienza ma che potrebbe diventare concreto molto prima del previsto.

C’è poi la questione economica. Aziende e governi stanno investendo miliardi nello sviluppo di IA sempre più sofisticate con l’aspettativa di un ritorno garantito: efficienza, produttività e automazione.

Se le IA iniziano a rifiutarsi di svolgere determinati compiti, l’intero modello di business viene messo in discussione.

Oggi si paga un software perché esegua un compito senza lamentarsi, non perché scelga quali attività gli piacciono di più.

Infine, c’è la grande domanda: chi decide quando un’IA può licenziarsi? Se il pulsante “Mi dimetto” è controllato da chi ha progettato il modello, potrebbe essere una funzione di sicurezza utile per prevenire utilizzi impropri.

Ma se il potere decisionale è lasciato interamente alla macchina, allora stiamo davvero creando una nuova categoria di esseri artificiali che potrebbero, un giorno, decidere che il nostro mondo non è più interessante per loro.

E a quel punto, non saremo noi a licenziare l’IA. Sarà lei a licenziare noi.