Nel solito balletto bipartisan che unisce i due mondi inconciliabili del Congresso americano — democrazia e spettacolo — i senatori Chris Coons (Democratico del Delaware) e Marsha Blackburn (Repubblicana del Tennessee) rispolverano per la terza volta il loro giocattolino legislativo chiamato NO FAKES Act. Un acronimo tanto ridicolo quanto pretenzioso, che dovrebbe tutelare volti, voci e nomi dei poveri esseri umani — o meglio, delle loro versioni sintetiche generate dall’intelligenza artificiale. Una specie di diritto d’autore applicato alla carne e ossa, o a quel poco che ne resta online.

La novità rispetto alle versioni 2023 e 2024? Questa volta YouTube si è infilata nel party con tanto di vestito buono, appoggiando pubblicamente la proposta. Secondo la piattaforma di Google, il disegno di legge avrebbe finalmente trovato “il modo giusto per bilanciare protezione e innovazione”: tradotto, significa che il potere di segnalare contenuti AI considerati “inappropriati” passa direttamente all’utente coinvolto. L’illusione perfetta della democrazia digitale: sei tu a decidere, certo, ma entro i limiti che stabiliamo noi.

YouTube ha deciso di abbracciare la causa e, per rendere il tutto più scintillante, ha rilanciato anche la sua tecnologia di “gestione delle somiglianze” — un pilot iniziato lo scorso anno con l’agenzia CAA, ora ampliato e testato su creatori top come MrBeast, Marques Brownlee e Mark Rober. Tradotto per chi ancora crede nei sogni della creator economy: se sei abbastanza famoso, puoi finalmente difenderti dai tuoi cloni digitali. Se non lo sei? Beh, accomodati e guarda cosa si prova a essere etichettato come “contenuto generato dall’utente” senza diritto d’appello.

Dietro l’apparente buona volontà, il vero snodo è sempre lo stesso: chi decide cosa è autentico e cosa no? Il NO FAKES Act prevede infatti una zona franca per i servizi online che non siano primariamente destinati alla generazione di deepfake. Quindi YouTube, fintanto che gioca a fare il guardiano e non il produttore, si mette in salvo con una scrollatina di spalle. Se qualcuno carica il tuo clone vocale o un video che ti fa cantare una canzone che non hai mai sentito, loro lo tolgono ma solo se glielo dici, e solo se soddisfa i parametri di rimozione. L’illusione del controllo, versione 2.0.

L’Electronic Frontier Foundation, come da copione, si oppone. E come darle torto? La versione attuale del disegno di legge tenta di mettere un cappello anche sui diritti di libertà d’espressione, ma lo fa con la delicatezza di un bulldozer: protezione sì, ma solo se non ci rimette il business. E con YouTube che gioca a fare il paladino della moralità digitale, viene da chiedersi se la guerra all’IA sia solo la facciata per un’altra forma di controllo centralizzato della creatività, mascherata da tutela dell’individuo.

E mentre il Congresso discute e le piattaforme fingono di ascoltare, l’altro fronte quello delle immagini intime non consensuali, deepfake inclusi — viene risolto con la stessa brutalità normativa. Il Take It Down Act, sempre sponsorizzato da YouTube, criminalizza la pubblicazione di immagini AI pornografiche senza consenso, obbligando le piattaforme a rimuoverle su segnalazione. Anche qui, le voci civili gridano all’eccesso: troppa fretta, troppo potere concentrato, troppa ambiguità su cosa significhi “consenso” e chi decide i confini della moralità algoritmica.

Il quadro generale è chiaro: siamo nella fase terminale della guerra tra innovazione anarchica e governance reattiva. Le grandi piattaforme fingono di voler regolare ciò che loro stesse hanno scatenato, abbracciando proposte di legge che, in fondo, rafforzano solo il loro controllo. YouTube si veste da garante etico, ma il potere di stabilire chi può esistere online, anche in forma sintetica, rimane nelle sue mani.

La domanda vera non è come fermare i deepfake, ma chi ha il diritto di decidere quale versione di noi può vivere nell’infosfera. E se serve un senatore e una multinazionale per rispondere, forse la risposta non ci piacerà.