Ecco, lo sapevamo che sarebbe successo. L’era in cui l’intelligenza artificiale (AI) non è più solo uno strumento per auto a guida autonoma, trading algoritmico o meme generati automaticamente ha preso una piega inquietante. Gli attacchi recenti a Las Vegas e New Orleans hanno mostrato quanto sia facile per menti malintenzionate sfruttare la tecnologia avanzata.
Vediamo di fare chiarezza, perché forse è il momento di riflettere sulle conseguenze involontarie del nostro splendido futuro digitale.
L’Incidente del Cybertruck e ChatGPT: AI per il Caos
Partiamo da Las Vegas – dove le luci brillano, ma purtroppo la sicurezza non sempre è all’altezza. Il 1° gennaio, il sergente maggiore delle forze speciali dell’esercito degli Stati Uniti, Matthew Livelsberger, un Green Beret decorato con disturbi da stress post-traumatico (PTSD) – che è un problema su cui dovremmo riflettere, ma lasciamo perdere per ora – ha deciso che ChatGPT non fosse solo per scrivere saggi o rispondere a domande curiose.
Secondo il capo della polizia di Las Vegas, Kevin McMahill, questo uomo ha usato ChatGPT per costruire una bomba. Seriamente. Il 37enne ha consultato la piattaforma di AI per calcolare quantità esplosive, ricercare canali per procurarsi fuochi d’artificio e persino scoprire come acquistare telefoni usa e getta senza lasciare tracce digitali. Non proprio il miglior utilizzo per uno strumento progettato per aiutarti a fare la lista della spesa, vero?
Il piano di Livelsberger non è stato affatto improvvisato. Ha studiato con attenzione come costruire un’arma mortale utilizzando il Cybertruck noleggiato, versando carburante da corsa e provocando un’esplosione con un colpo di pistola. Il risultato? Sette feriti, uno morto (Livelsberger stesso), e un hotel che non ha subito danni. La lezione? Se ChatGPT ti aiuta a risolvere problemi di matematica, è anche in grado di insegnarti a costruire una bomba. E questa è una cosa terrificante.
Gli Occhiali Intelligenti di Meta: Una Nuova Prospettiva sul Terrorismo
Ma aspettate – Las Vegas non è stato l’unico dramma della giornata di Capodanno. A New Orleans, il veterano dell’esercito 42enne Shamsud-Din Jabbar stava conducendo una ricognizione con gli occhiali intelligenti Ray-Ban di Meta. Questi gadget, alimentati dall’intelligenza artificiale di Meta, gli permettevano di mescolarsi alla folla mentre osservava da vicino la zona di Bourbon Street, in preparazione per il suo attacco. Un esempio lampante di come la sorveglianza possa prendere una piega sbagliata.
Jabbar aveva visitato il Quartiere Francese due volte prima dell’attacco, registrando video e foto senza dover tenere in mano nulla. Mentre pedalava per la zona, usava gli occhiali per registrare ogni angolo e ogni disposizione, tutto in preparazione per guidare il suo furgone attraverso una folla alle 3 del mattino, uccidendo 14 persone e ferendone 35, inclusi due agenti di polizia. Non è stato un atto impulsivo; era tutto studiato e pianificato, con precisione.
Gli occhiali avevano una luce di registrazione, ma la verità è che è talmente sottile che potresti quasi considerarla invisibile. Jabbar non ha attivato la registrazione durante l’attacco, ma aveva già utilizzato gli occhiali per pianificare e testare l’angolo di visione. È come usare Google Maps per pianificare una rapina e poi dire: “Non ho davvero bisogno di usare le mappe durante il crimine.” Già, certo.
Le Aziende di AI sotto Pressione: L’Atto di Bilanciamento
E ora, che si fa per evitare che l’AI diventi la prossima arma scelta dai terroristi? Le aziende tecnologiche stanno cercando di tappare i buchi nei loro sistemi, ma non facciamoci illusioni: non stanno facendo un lavoro straordinario. OpenAI, che alimenta ChatGPT, è sotto osservazione. Hanno implementato misure per bloccare le richieste dannose, ma, come riportato da Decrypt, basta un po’ di creatività e qualche trucco di “jailbreaking” (tipo scrivere in leetspeak o fare del roleplay) per aggirare queste protezioni e ottenere contenuti pericolosi. Fantastico, vero?
In risposta, OpenAI ha rassicurato il pubblico dicendo che stanno “lavorando per migliorare i protocolli di sicurezza” e hanno collaborato pienamente con le forze dell’ordine. Bene, ma la verità è che quando costruisci un modello che può scrivere poesie, non stai certo pensando a come evitare che qualcuno lo usi per un manuale di costruzione di bombe.
Nel frattempo, Meta sta cercando di affrontare la possibilità che i suoi occhiali intelligenti vengano usati per scopi malvagi. L’azienda ha riconosciuto il problema, ma la loro risposta sembra più una strategia di gestione dei danni che una vera innovazione per prevenire l’abuso. Un portavoce di Meta ha dichiarato a NBC che sono “in contatto con le forze dell’ordine,” ma dov’erano queste precauzioni quando gli occhiali sono stati lanciati sul mercato? La luce di registrazione discreta è l’equivalente digitale di chiedere a qualcuno di non rapinare una banca… con un cartello al neon che punta direttamente alla cassaforte.
La cruda realtà è che non stiamo facendo un lavoro eccezionale nel bilanciare l’innovazione tecnologica con la sicurezza. La capacità dell’AI di aiutare i terroristi a pianificare attacchi è una preoccupazione enorme, ma non dimentichiamoci: questa tecnologia è stata progettata per aiutarci, non per farci del male. Non dobbiamo buttarla via, ma dobbiamo sicuramente fare un lavoro migliore nel tenere le redini strette.
Quindi, la prossima volta che usi ChatGPT per cercare una ricetta o gli occhiali intelligenti di Meta per fare un selfie senza mani, ricorda: la stessa tecnologia che rende la tua vita più facile sta anche rendendo la vita più pericolosa per altri. L’AI non è intrinsecamente malvagia, ma può essere sfruttata se non stiamo attenti.
Newsletter – Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale: iscriviti alla newsletter di Rivista.AI e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!