Nel disperato tentativo di sottrarsi a una tempesta mediatica, il deputato di La France Insoumise (LFI) Paul Vannier ha deciso di giocarsi la carta dell’Intelligenza Artificiale. La polemica è nata da un manifesto del partito in cui Cyril Hanouna, noto conduttore televisivo francese, veniva raffigurato in un modo che molti hanno ritenuto essere una caricatura antisemita. Quando le critiche sono esplose, Vannier ha provato a dare la colpa a Grok, l’IA generativa sviluppata da XAI, l’azienda di Elon Musk. Il ragionamento? Grok sarebbe intriso delle “idee nauseabonde” del suo creatore, e quindi responsabile del risultato finale.

Se non fosse grottesco, sarebbe quasi brillante: l’IA diventa una comoda scusa per l’irresponsabilità politica. Vannier non si ferma a dire che il suo partito ha fatto un errore, ma scarica la colpa direttamente su un software. Il sottotesto è chiaro: non è colpa di chi ha usato l’IA, né di chi ha pubblicato l’immagine, ma di Musk e del suo algoritmo. Insomma, una colpevolizzazione tecnologica che permette agli Insoumis di schivare l’accusa di antisemitismo.
Il problema? L’Intelligenza Artificiale non è un’entità autonoma con opinioni o pregiudizi propri. Non fa altro che generare output sulla base di input umani. Se l’algoritmo ha prodotto un’immagine problematica, è perché qualcuno gli ha chiesto qualcosa in un certo modo, e poi qualcun altro ha deciso di pubblicarla. Non è stato Musk a postarla sui social ufficiali di LFI, né tantomeno a validarne la diffusione.