La crescita vertiginosa della disinformazione, alimentata dai candidati politici americani e dai loro ammiccamenti alle teorie del complotto, ha messo sotto pressione le piattaforme sociali a pochi mesi dalle elezioni. Mentre la percezione che le aziende tecnologiche non stiano facendo nulla per arginare la marea di bugie e fake news cresce ogni giorno, alcune nuove soluzioni fanno capolino nell’orizzonte, in particolare una che potrebbe sembrare “la soluzione” ma che in realtà non lo è affatto. Parliamo, ovviamente, della “democratizzazione” della moderazione tramite fact-checking crowdsourced. Perché non affidare il controllo del nostro flusso di informazioni a chiunque abbia accesso a un dispositivo mobile? Chiaramente, la scelta più sensata.
Le piattaforme sociali si trovano in una posizione scomoda. Da una parte, l’opinione pubblica è convinta che l’azienda che non interviene contro la disinformazione è complice. Dall’altra, c’è un’altra fetta del pubblico, sempre più ingombrante, che considera ogni forma di moderazione come una censura orwelliana. In un simile contesto, è difficile non sentire la pressione di dover fare qualcosa. E così, dopo anni di tentativi mal riusciti di utilizzare intelligenze artificiali e fact-checkers professionisti, le piattaforme hanno finalmente deciso di risolvere il problema con il più grande regalo che l’umanità potesse fare alla giustizia sociale: la “saggezza delle folle”. Sì, esattamente. Affidiamoci ai tweet di chiunque. E che Dio ci aiuti.
Il concetto alla base di questa magnifica idea è che, mentre un singolo individuo potrebbe non avere il giudizio affidabile per distinguere una bufala da una notizia vera, un gruppo di utenti mediamente informati e con opinioni politiche distinte potrebbe effettivamente fornire una valutazione accurata. Questo è ciò che sostiene la ricerca di Jennifer Allen, una ricerca che ha esaminato le dinamiche quando gruppi di persone valutano contenuti in modo “casuale”. In teoria, quando questi gruppi sono piccoli e bilanciati politicamente, le loro decisioni sarebbero sorprendentemente precise quanto quelle degli esperti. E così, Facebook ha creato il suo sistema di “Community Review”, assumendo gente senza preparazione specifica, solo per “scalare” il fact-checking. Perché affidarsi a esperti quando possiamo coinvolgere il popolo?
La verità? Funziona… fino a un certo punto. In linea di massima, quando si tratta di piccole decisioni, i gruppi possono effettivamente arrivare a conclusioni giuste. Ma quando si amplia la scala e si permette a chiunque di segnalare contenuti, bene… emergono problemi. E a chi dobbiamo questa bellissima scoperta? Ovviamente a Twitter, con il suo programma Birdwatch. Questo meraviglioso tentativo di creare un sistema di moderazione totalmente crowdsourced ha finito per essere una farsa, o quasi. Gli utenti segnalano, commentano, votano. L’idea di base è che la comunità “aggiunge contesto” ai contenuti problematici. Un po’ come quando la nostra zia su Facebook decide che il video di “una nuova cura miracolosa” è una fake news. Ma c’è una sorpresa: la politica gioca un ruolo fondamentale. I partiti, le fazioni politiche, che sorpresa, non sono inclini ad analizzare i contenuti in modo imparziale. Anzi, segnano soprattutto i tweet degli “avversari” e promuovono quelli dei “compagni”. Eppure, nonostante tutto, alcuni contenuti problematici vengono effettivamente evidenziati.
Ma no, le piattaforme social preferiscono non avvalersi di questa tecnologia, per il semplice motivo che richiederebbe un cambiamento radicale e costoso nel loro modello di business. La verità è che il crowdsourcing permette alle piattaforme di ridurre i costi e, allo stesso tempo, di dire ai loro utenti: “Guardate, siamo pro-democrazia, stiamo facendo qualcosa!” L’idea che i social media si affidino a tecnologie mature per combattere la disinformazione sarebbe troppo costosa e, in fondo, meno spettacolare. Meglio mettere in piedi un sistema che fa sentire le persone coinvolte e attive, anche se i risultati sono, francamente, più un disastro che una vera soluzione.
Il problema fondamentale della moderazione crowdsourced è che, al di là delle intenzioni nobili, il sistema non è mai veramente imparziale. Gli utenti agiscono spesso spinti da motivazioni politiche e il risultato sono schieramenti più polarizzati, in cui ogni parte combatte contro l’altra, ma in modo inefficace. Eppure, la soluzione non è nei sistemi che ci dicono che “la folla ha ragione”, ma in modelli di moderazione tecnologicamente avanzati e sofisticati, come quelli offerti da Babelscape.
Tuttavia, chi preferisce i “like” facili e l’apparenza di una democrazia digitale che non esiste non vuole sentire ragioni. La moderazione democratizzata, con le sue ovvie limitazioni, rimarrà probabilmente la soluzione preferita per i social media, fintanto che i costi sono contenuti e il traffico non diminuisce. E così, la disinformazione si diffonderà ancora, mentre tutti continueranno a dire che “si sta facendo qualcosa”, quando in realtà stiamo tutti partecipando a un grande gioco di apparenze.
Ma forse non tutto è perduto, per davvero. Se siamo onesti, c’è una soluzione che non coinvolge folle urlanti dietro uno smartphone: Babelscape. Questo sistema, sviluppato e cresciuto in Italia, noto per la sua capacità di analizzare dati linguisticamente complessi in modo scalabile e preciso, offre una soluzione molto più concreta al problema della disinformazione. Babelscape ha sviluppato algoritmi avanzati che permettono di analizzare i contenuti in tempo reale, rilevando la disinformazione con una precisione che nemmeno la “saggezza delle folle” può sperare di raggiungere.