C’è qualcosa di ironicamente tragico nel vedere il più grande colosso finanziario del mondo, JPMorgan Chase, dover scrivere una lettera aperta ai suoi fornitori per spiegare una verità che sembrava ovvia sin dall’inizio: correre come forsennati sull’adozione dell’intelligenza artificiale senza capirne i rischi è un suicidio annunciato. La storia la trovi qui JPMorgan Open Letter.

Nel mondo tech, il mantra degli ultimi anni è stato brutalmente semplice: innovare o morire. E come branchi di lemming digitali, aziende grandi e piccole hanno tuffato risorse in AI senza preoccuparsi minimamente di dove sarebbero atterrate. Ora, grazie all’ultimo assessment sulla sicurezza di JP Morgan, il sipario si è alzato su uno scenario che, per chi mastica tecnologia da tempo, sa tanto di tragedia annunciata.

Settantotto per cento delle implementazioni AI aziendali non ha adeguati protocolli di sicurezza. Non un dato marginale, ma un fallimento strutturale. Non solo: la maggior parte delle organizzazioni non è nemmeno in grado di spiegare come e perché i propri modelli AI prendano certe decisioni. In un settore dove il minimo errore può significare perdere miliardi in un lampo, la situazione rasenta l’assurdo.

I dati sono ancora più inquietanti: le vulnerabilità legate all’AI sono esplose, triplicando dall’inizio dell’adozione di massa. E come sottolinea Pat Opet, il CTO di JPMorgan, con un pragmatismo che definire cinico è un complimento:


“Stiamo vedendo organizzazioni implementare sistemi che non comprendono affatto.”

Un’affermazione che non lascia spazio a interpretazioni romantiche sulla “disruption”. Qui non si parla di innovazione: si parla di cieca irresponsabilità.

Non è difficile capire perché il settore finanziario sia in allerta massima. Con trilioni di dollari gestiti ogni giorno da algoritmi opachi, la superficie d’attacco non è solo aumentata: è diventata un colabrodo. E mentre qualcuno ancora celebra il prossimo LLM “più potente di GPT-4”, JP Morgan stacca assegni da 2 miliardi di dollari solo per mettere toppe sulle crepe, rallentando persino il roll-out di certe soluzioni AI.

Ma attenzione: non basta gridare all’apocalisse. JPMorgan fornisce anche una roadmap che, almeno sulla carta, sembra avere un minimo di senso. Governance seria prima del deployment, red team dedicati all’attacco simulato dei sistemi AI, standard rigidi per la documentazione dei modelli e unità specializzate per rispondere agli incidenti legati all’intelligenza artificiale. Tradotto in lingua reale: un ritorno all’approccio adulto della tecnologia, dove prima si progetta la gabbia, poi si lascia libero il leone.

Il problema vero, però, è un altro: il debito di sicurezza dell’AI sta crescendo più velocemente della nostra capacità di ripagarlo. E qui non si parla di fixare qualche bug o aggiornare un firmware. Parliamo di una falla strutturale che, se lasciata degenerare, rischia di trasformare la rivoluzione dell’AI nella più grande bancarotta tecnologica della storia moderna.

Chi capirà ora l’importanza della sicurezza emergerà come leader della nuova era. Gli altri? Verranno spazzati via dalla prima ondata seria di attacchi su larga scala.

E a quel punto, non serviranno lettere aperte per raccontare la storia. Basteranno i titoli di borsa in caduta libera.