l’AI red teaming. La parola d’ordine dell’industria, capace di evocare visioni di eroi cibernetici che irrompono nel castello dell’intelligenza artificiale come cavalieri digitali alla ricerca della gloria della sicurezza. Affascinante, vero? Ma ammettiamolo: dietro al dramma dell’“AI red teaming” si nasconde una bestia molto familiare – il solito processo di testing che l’industria del software sta affrontando da decenni. Nel caso te ne fossi dimenticato, la valutazione dell’AI è solo un altro episodio della saga senza fine di “vediamo se questo software si rompe prima di farci ammazzare tutti.” È come se stessimo guardando una replica, ma questa volta abbiamo sostituito i cattivi con algoritmi e le esplosioni con decisioni “intelligenti” andate storte. (vedi articolo su CISA) don’t reinvent the wheel
Quindi, cosa c’è dietro tutta questa faccenda del testing, della valutazione, della validazione e della verifica (TEVV) dell’AI? Secondo il National Institute of Standards and Technology (NIST), siamo nel bel mezzo della prossima rivoluzione tecnologica. Ma prima che ti metta a fare gli applausi, scaviamo un po’ in questa congettura, perché quando si vanno a sviscerare i fondamenti, l’AI è ancora solo un software con un nome più elegante e un ego in continua crescita.
La Fantasia del “Red Team”: Siamo Sicuri che sia una Novità?
Per chi vive in una caverna, l’AI red teaming è l’idea di assumere un gruppo di professionisti altamente qualificati per fingere di essere il tuo nemico e cercare di mandare all’aria il sistema. Ah, la bellezza di un dramma teatrale che, alla fine dei conti, si riduce a una valutazione della sicurezza, come se fosse una novità assoluta. Eppure, in realtà, il testing della sicurezza e la valutazione dei sistemi sono cose che il mondo del software fa da decenni. Non è che l’AI abbia inventato il concetto di “cercare di far esplodere tutto”, è solo che ora lo fa in modo più… elegante.
Quindi, cosa c’è di nuovo nel red teaming dell’AI? Nulla, a meno che tu non consideri il fatto che stiamo usando algoritmi per cercare di capire come questi stessi algoritmi possano distruggere il mondo. Mentre ai vecchi tempi i software venivano testati da esperti umani, ora facciamo lo stesso con un po’ più di probabilità e incertezza, tipiche dell’AI. Il resto è la solita routine: testare, verificare, validare. E attenzione, ci sono anche delle differenze tecniche, ma non abbastanza da giustificare l’idea che siamo entrati in una nuova era.
L’Evoluzione del TEVV: Software e AI, un Mondo che Cambia ma Non Troppo
Quando si parla di TEVV (Testing, Evaluation, Validation, Verification), la gente tende a pensare che l’AI debba essere un campo completamente diverso rispetto al software tradizionale. Ma chi è che davvero crede che un software che fa cose simili a quelle di un umano debba essere trattato come una specie di divinità informatica a sé stante? In realtà, TEVV è sempre stato lo stesso, solo che ora si applica a qualcosa che sa giocare a scacchi e risolvere equazioni, ma che, alla fine, è solo un altro software.
Chi lavora nel campo dell’AI dovrebbe smetterla di reinventare la ruota. Le metodologie che da decenni proteggono la sicurezza dei software sono lì, pronte per essere sfruttate. Come sempre, i problemi di sicurezza, affidabilità e robustezza sono gli stessi: basta guardare il passato. Un buon esempio? Il disastro del Therac-25, un dispositivo medico che negli anni ’80 ha ucciso diverse persone a causa di un errore nel software. Era un software con un piccolo difetto, che ha avuto conseguenze devastanti. E ora siamo qui a parlare di AI che potrebbe fare danni anche peggiori. E allora, perché non applicare le stesse tecniche che si usano da anni per testare software critici alla stessa identica cosa, solo che ora l’algoritmo ha imparato a mentire meglio?
Il Ruolo di CISA nell’AI TEVV: Missione di Sicurezza o Pubblicità?
E ora arriviamo alla CISA (Cybersecurity and Infrastructure Security Agency), che sta cercando di fare la sua parte in questo teatrino di AI red teaming. Ma chi vogliamo davvero prendere in giro? La CISA ha una lunga tradizione nel monitorare la sicurezza informatica, quindi non è certo che aiuterà a scoprire qualcosa di nuovo. Invece, ciò che fa è applicare le stesse tecniche di testing della sicurezza che sono state sviluppate in decenni di esperimenti. E attenzione, ci sono anche delle belle parole su come i modelli avanzati di AI possano essere testati per la sicurezza nazionale, ma alla fine, è sempre lo stesso disco rotto: come possiamo evitare che il software non ci faccia esplodere la casa?
CISA, come molte altre organizzazioni, sta cercando di “securizzare” l’AI attraverso test pre-deployment, post-deployment e altre forme di valutazione, ma alla fine, cosa sta facendo di nuovo? Mettendo il vestito più elegante al solito controllo di sicurezza, sperando che gli algoritmi non abbiano il potere di fare il lavoro sporco.
Nuovo, ma Sempre lo Stesso
Trattare l’AI TEVV come un sottogruppo del tradizionale software TEVV porta sicuramente a una conclusione rassicurante: il vecchio mondo della sicurezza software non è morto. Anzi, è vivo e vegeto, mascherato da un software più complesso e dal nome altisonante. E forse, proprio come ai vecchi tempi, l’unica vera novità è che, invece di un programmatore che cerca bug, abbiamo un algoritmo che cerca altri algoritmi da abbattere. Ma la verità? Alla fine, tutto è solo una questione di ingegneria, un po’ più probabilistica, certo, ma pur sempre ingegneria.
E mentre il mondo dell’AI prova a rimanere al passo con la rapidità del cambiamento, possiamo sempre contare sulle solite metodologie. Semplice, no? Il bello dell’AI è che, alla fine, è solo un altro software che abbiamo imparato a testare.