Migliaia di persone che utilizzano la metropolitana di Londra sono state sorvegliate da un software di Intelligenza Artificiale (AI) progettato per individuare comportamenti criminali o situazioni pericolose. È quanto riportato da una inchiesta di Wired secondo cui il software di riconoscimento automatico è stato combinato con le immagini delle telecamere a circuito chiuso per poter rilevare comportamenti aggressivi, l’eventuale presenza di persone armate all’interno della metro, passeggeri che saltano i tornelli per non pagare il biglietto o, in casi più estremi, eventuali cadute sui binari.
Dal 2022 fino alla fine del 2023, il Transport for London (TfL), la società che gestisce la metropolitana e i bus della città, ha testato 11 algoritmi per monitorare le persone che passano dalla stazione della metropolitana di Willesden Green, nel nord-ovest della città. Si tratta del primo test in cui sono state combinate le immagini video in tempo reale con tool di Intelligenza Artificiale per generare avvisi inviati al personale delle metropolitana addetto ai controlli. Durante la fase di test sono stati emessi più di 44.000 avvisi, di cui 19.000 consegnati al personale della stazione in tempo reale.
I documenti di cui Wired riferisce di essere in possesso dettagliano come TfL abbia utilizzato una vasta gamma di algoritmi di visione artificiale per monitorare il comportamento delle persone nella stazione, concentrandosi non solo su temi legati alla sicurezza, ma anche su possibili comportamenti criminali e antisociali.
Gli stessi documenti evidenzierebbero poi anche errori del sistema durante il test, come l’errata segnalazione dei bambini accompagnati dai genitori come evasori del biglietto.
Sempre secondo Wired, gli esperti in materia di privacy che hanno esaminato i documenti avrebbero messo in dubbio l’accuratezza degli algoritmi di riconoscimento degli oggetti e avvertito che sistemi di sorveglianza simili potrebbero facilmente essere ampliati in futuro per includere sistemi di riconoscimento facciale.
Anche se TfL non ha finora risposto alla richiesta di commenti da parte di Wired, sembrerebbe che il test abbia generato preoccupazioni riguardo alla governance e alla trasparenza nell’uso delle tecnologie di controllo, sorveglianza e di riconoscimento facciale supportate dall’AI, per le quali sarebbe necessario comunque un adeguato supporto normativo che sia in grado di stabilire i limiti entro i quali questi tool possono essere utilizzati.
Da questo punto di vista infatti è fondamentale bilanciare attentamente i rischi e i benefici dell’impiego dei tool di Intelligenza Artificiale nei sistemi di controllo e sorveglianza perché, se da un lato possono contribuire alla sicurezza dei cittadini prevenendo atti criminali o terroristici, dall’altro è imprescindibile garantire la tutela della privacy individuale e un uso etico dei dati dei cittadini.
Lascia un commento
Devi essere connesso per inviare un commento.