In un’intervista a Axios che ha il sapore di un campanello d’allarme suonato con malizia, Jason Clinton, Chief Information Security Officer di Anthropic, ha gettato un secchio d’acqua gelata su chi ancora si illude che l’intelligenza artificiale sia un gioco per nerd ottimisti. Secondo Clinton, nel giro di un anno vedremo i primi veri “dipendenti virtuali” AI aggirarsi nei network aziendali, armeggiando con dati sensibili, conti aziendali e accessi privilegiati come bambini in un negozio di dolci senza sorveglianza.

Perché dovremmo preoccuparcene? Beh, provate a immaginare di affidare a un algoritmo non solo compiti noiosi come gestire alert di phishing, ma anche veri e propri ruoli con memoria autonoma, account personali e una discrezionalità operativa che supera di gran lunga le attuali automazioni. Oggi un bot risponde a un allarme, domani un “dipendente AI” potrebbe autonomamente decidere che il vostro sistema di Continuous Integration deve essere riprogrammato a modo suo. E se lo fa male o, peggio, se viene compromesso? Chi paga il conto?

Clinton descrive un panorama che sembra uscito da una distopia tecnologica travestita da efficienza: ogni identità AI avrà accessi, responsabilità e potenzialmente il potere di distruggere o manipolare intere infrastrutture aziendali. Con il piccolo problema che, a differenza di un dipendente in carne e ossa, non potremo licenziarlo o citarlo in giudizio.

Il tema della responsabilità legale e tecnica è devastante. Nell’era analogica, se qualcuno sabotava un sistema, lo si portava davanti a un giudice. Nell’era degli agenti AI “autonomi”, chi verrà chiamato a rispondere? Il programmatore che ha codificato male l’algoritmo? Il CEO che non ha previsto il rischio? O l’ennesimo “piano d’emergenza” scritto male e mai testato?

Anthropic si prende, almeno a parole, due responsabilità piuttosto pesanti: testare ossessivamente i modelli Claude contro possibili attacchi e monitorare come potrebbero essere abusati da attori malintenzionati. Sembra bello, detto così. Peccato che, come Clinton stesso ammette, “ci sono così tanti problemi che non abbiamo ancora risolto” che fa venire voglia di scollegare tutto e riaccendere i fax.

Nel frattempo, il mercato già fiuta l’odore dei soldi facili e si muove: Okta ha lanciato una piattaforma unificata per gestire le identità “non umane”, OpenAI sta cercando di comprare startup di codifica AI come Windsurf, e Anthropic ha appena investito in Goodfire, azienda che si occupa di “decifrare il pensiero” delle AI. Una corsa agli armamenti digitali che ha un che di disperato, come cercare di costruire scialuppe su una nave che sta ancora in cantiere.

Certo, qualcuno aveva già tentato di normalizzare gli agenti AI in azienda. Come Lattice, che aveva pure pensato di inserirli nei tradizionali organigrammi aziendali. Peccato che la reazione sia stata talmente velenosa da costringerli a ritirare l’idea in fretta e furia, dimostrando che forse la nostra società non è ancora pronta a sedersi a una riunione accanto a un algoritmo che prende appunti.

In fondo, il paradosso sta tutto qui: vogliamo automatizzare tutto, velocizzare ogni processo, tagliare ogni possibile inefficienza umana, salvo poi renderci conto che stiamo costruendo una classe di lavoratori instabili, potenzialmente pericolosi e del tutto alieni alla nostra concezione di responsabilità.

In un futuro molto prossimo, il tuo miglior dipendente potrebbe essere un AI. Ma sarà anche il tuo peggior incubo.

Se vuoi leggere l’intervista originale su Axios, la trovi qui.

Dimmi, vuoi davvero affidare la tua azienda a qualcosa che non puoi neanche licenziare con una lettera raccomandata?