Notizie di Intelligenza Artificiale Inclusiva in Tempo Reale: Innovazione e Accessibilità Pro bono publico

Tag: sicurezza

Sicurezza e Intelligenza Artificiale: Roma investe nella prevenzione dei reati con 5000 nuove telecamere

Aumentano i reati e aumenta anche la consapevolezza e la fiducia delle persone, più propense a denunciare. Ma soprattutto aumenta la percezione di insicurezza dei cittadini romani“. Così a Il Sole 24 Ore l’ex procuratore di Milano Francesco Greco, delegato alla Sicurezza dal sindaco di Roma Roberto Gualtieri, commenta i dati sui reati nella Capitale che la vedono al primo posto in Italia nella non invidiabile classifica sui reati commessi con oltre 256 mila denunce nel 2023.

Sorveglianza AI nella metropolitana di Londra: cosa rivela il nuovo studio di Wired

Migliaia di persone che utilizzano la metropolitana di Londra sono state sorvegliate da un software di Intelligenza Artificiale (AI) progettato per individuare comportamenti criminali o situazioni pericolose. È quanto riportato da una inchiesta di Wired secondo cui il software di riconoscimento automatico è stato combinato con le immagini delle telecamere a circuito chiuso per poter rilevare comportamenti aggressivi, l’eventuale presenza di persone armate all’interno della metro, passeggeri che saltano i tornelli per non pagare il biglietto o, in casi più estremi, eventuali cadute sui binari.

Dal 2022 fino alla fine del 2023, il Transport for London (TfL), la società che gestisce la metropolitana e i bus della città, ha testato 11 algoritmi per monitorare le persone che passano dalla stazione della metropolitana di Willesden Green, nel nord-ovest della città. Si tratta del primo test in cui sono state combinate le immagini video in tempo reale con tool di Intelligenza Artificiale per generare avvisi inviati al personale delle metropolitana addetto ai controlli. Durante la fase di test sono stati emessi più di 44.000 avvisi, di cui 19.000 consegnati al personale della stazione in tempo reale.

I documenti di cui Wired riferisce di essere in possesso dettagliano come TfL abbia utilizzato una vasta gamma di algoritmi di visione artificiale per monitorare il comportamento delle persone nella stazione, concentrandosi non solo su temi legati alla sicurezza, ma anche su possibili comportamenti criminali e antisociali.

Gli stessi documenti evidenzierebbero poi anche errori del sistema durante il test, come l’errata segnalazione dei bambini accompagnati dai genitori come evasori del biglietto.

Sempre secondo Wired, gli esperti in materia di privacy che hanno esaminato i documenti avrebbero messo in dubbio l’accuratezza degli algoritmi di riconoscimento degli oggetti e avvertito che sistemi di sorveglianza simili potrebbero facilmente essere ampliati in futuro per includere sistemi di riconoscimento facciale.

Anche se TfL non ha finora risposto alla richiesta di commenti da parte di Wired, sembrerebbe che il test abbia generato preoccupazioni riguardo alla governance e alla trasparenza nell’uso delle tecnologie di controllo, sorveglianza e di riconoscimento facciale supportate dall’AI, per le quali sarebbe necessario comunque un adeguato supporto normativo che sia in grado di stabilire i limiti entro i quali questi tool possono essere utilizzati.

Da questo punto di vista infatti è fondamentale bilanciare attentamente i rischi e i benefici dell’impiego dei tool di Intelligenza Artificiale nei sistemi di controllo e sorveglianza perché, se da un lato possono contribuire alla sicurezza dei cittadini prevenendo atti criminali o terroristici, dall’altro è imprescindibile garantire la tutela della privacy individuale e un uso etico dei dati dei cittadini.

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie