Google, OpenAI, Roblox e Discord hanno appena annunciato la creazione di un’organizzazione no-profit per migliorare la sicurezza online dei minori. Un’alleanza dal nome rassicurante, Robust Open Online Safety Tools (ROOST), che suona tanto come una nobile crociata per proteggere i bambini, ma che in realtà potrebbe avere obiettivi ben più pragmatici. Con il fiato delle autorità regolatorie sul collo, le aziende stanno cercando di anticipare possibili interventi legislativi, proponendo una soluzione “open-source” che, guarda caso, mette loro al centro del discorso sulla sicurezza digitale.
L’iniziativa nasce con la promessa di rendere più accessibili le tecnologie per la protezione online, in particolare gli strumenti di rilevamento dei materiali di abuso sessuale su minori (CSAM). Il progetto sarà guidato da un vecchio lupo della Silicon Valley, Eric Schmidt, ex CEO di Google, che sottolinea la necessità di “accelerare l’innovazione nella sicurezza online dei minori”. Un’affermazione ineccepibile, ma che lascia aperte diverse domande: chi controllerà questi strumenti? Chi deciderà cosa è accettabile e cosa no?
ROOST arriva in un contesto in cui le pressioni normative sono sempre più forti. Discord e Roblox sono già finiti sotto accusa per la diffusione di contenuti inappropriati e la facilità con cui adulti possono contattare minori sulle loro piattaforme. Roblox, in particolare, è stato ripetutamente criticato per la scarsa moderazione, con metà dei bambini americani iscritti al servizio già nel 2020. Non è un caso che queste aziende ora si stiano affrettando a dimostrare il loro impegno per la sicurezza online.
La strategia è chiara: piuttosto che subire regolamentazioni imposte dall’esterno, le aziende tech cercano di creare un framework autoregolamentato che metta loro stesse in una posizione di controllo. Il tutto con un budget iniziale di 27 milioni di dollari, finanziati da varie fondazioni filantropiche come McGovern Foundation, Knight Foundation e AI Collaborative.
Sul piano tecnico, ROOST promette di fornire strumenti di moderazione basati sull’intelligenza artificiale, con tecnologie che potrebbero includere la moderazione audio di Roblox o il progetto Lantern di Discord, già in collaborazione con Google e Meta. Nonostante le buone intenzioni, il livello di trasparenza di queste soluzioni è ancora un’incognita. Ad esempio, resta da capire come queste tecnologie si integreranno con strumenti già esistenti come PhotoDNA di Microsoft, uno standard nella lotta al CSAM.
Discord, nel frattempo, ha colto l’occasione per lanciare una nuova funzione chiamata “Ignore”, che permette agli utenti di silenziare messaggi e notifiche senza avvisare i mittenti. Una funzione utile, ma che non sembra certo una rivoluzione nella sicurezza digitale.
L’interrogativo più grande rimane: ROOST sarà davvero un punto di svolta per la sicurezza online, o semplicemente un modo per le Big Tech di autoconservarsi, evitando sanzioni e mantenendo il controllo sui loro ecosistemi digitali? Per ora, l’iniziativa è piena di buoni propositi e dichiarazioni altisonanti. Ma come sempre, il diavolo si nasconde nei dettagli – dettagli che, almeno per ora, restano sorprendentemente vaghi.