l’AI red teaming. La parola d’ordine dell’industria, capace di evocare visioni di eroi cibernetici che irrompono nel castello dell’intelligenza artificiale come cavalieri digitali alla ricerca della gloria della sicurezza. Affascinante, vero? Ma ammettiamolo: dietro al dramma dell’“AI red teaming” si nasconde una bestia molto familiare – il solito processo di testing che l’industria del software sta affrontando da decenni. Nel caso te ne fossi dimenticato, la valutazione dell’AI è solo un altro episodio della saga senza fine di “vediamo se questo software si rompe prima di farci ammazzare tutti.” È come se stessimo guardando una replica, ma questa volta abbiamo sostituito i cattivi con algoritmi e le esplosioni con decisioni “intelligenti” andate storte. (vedi articolo su CISA) don’t reinvent the wheel