Patrick Soon-Shiong, miliardario proprietario del Los Angeles Times, ha annunciato che il giornale utilizzerà l’intelligenza artificiale per etichettare gli articoli con una nuova dicitura chiamata “Voices“, che segnala quelli con un punto di vista esplicito o scritti in chiave personale. Inoltre, alcuni pezzi riceveranno “Insights”, riassunti generati dall’IA che includono anche “punti di vista differenti“. L’obiettivo dichiarato? Dare ai lettori una panoramica più ampia e trasparente delle notizie.
L’iniziativa ha provocato l’ira della redazione e del sindacato del giornale. Il vicepresidente della LA Times Guild, Matt Hamilton, ha dichiarato che distinguere tra notizie e opinioni è importante, ma affidare il compito a un’IA senza supervisione editoriale rischia di minare la fiducia nel giornalismo. E a giudicare dai primi risultati, sembra che avesse ragione.
Uno degli “Insights” ha bollato un editoriale che denunciava i pericoli dell’uso incontrollato dell’IA nei documentari storici come “generalmente allineato a un punto di vista centro-sinistra”, suggerendo che in realtà “l’IA democratizza la narrazione storica”.
Un’altra perla dell’IA si è vista in un articolo che raccontava l’elezione di membri del Ku Klux Klan nei consigli comunali californiani negli anni ’20.
Tra i punti chiave generati dalla macchina, uno suggeriva che alcune fonti storiche dipingevano il Klan non come un movimento d’odio, ma come un riflesso della cultura protestante bianca dell’epoca. Una considerazione storicamente corretta, ma che nel contesto sembrava quasi un tentativo di relativizzare il suprematismo bianco.
Questa sperimentazione disastrosa è solo l’ennesima dimostrazione di quanto possa essere pericoloso affidare analisi editoriali a un’intelligenza artificiale senza un controllo umano adeguato.
Microsoft ha già fatto una figuraccia con MSN, che suggeriva una mensa per senzatetto come attrazione turistica a Ottawa. Gizmodo si è coperta di ridicolo con una lista “cronologica” dei film di Star Wars che non seguiva alcun ordine logico.
Apple ha dovuto correggere il suo sistema di riassunti dopo che l’IA aveva distorto un titolo della BBC, facendo sembrare che un sospettato di omicidio si fosse sparato da solo.
Se c’è una lezione da imparare, è che affidare il controllo dell’informazione a un algoritmo senza supervisione non porta a una maggiore trasparenza, ma a un disastro annunciato.