Nel mondo della musica digitale e dell’intelligenza artificiale, Benn Jordan ha lanciato una sfida che sembra destinata a scuotere le fondamenta della produzione musicale automatizzata. Utilizzando una tecnica chiamata “adversarial noise”, Jordan ha trovato un modo per sabotare i generatori musicali basati su IA, creando quello che lui stesso definisce un “attacco di avvelenamento” che rende la musica generata non solo inutilizzabile, ma potenzialmente dannosa per il sistema stesso. Questo concetto di sabotaggio sonoro sta aprendo un nuovo capitolo nell’intersezione tra arte e tecnologia, dove il confine tra creatività umana e potenza dell’IA è sempre più sfumato.

Il trucco dietro il “Poisonify” di Benn Jordan è tanto semplice quanto geniale: l’aggiunta di rumore avversario a file audio che, per l’orecchio umano, suonano perfettamente normali. Tuttavia, per i modelli di IA, questi file non sono ciò che sembrano. Il rumore avversario agisce come un “veleno” sonoro che destabilizza l’apprendimento della macchina, facendo sì che i generatori musicali non siano più in grado di produrre musica coerente. Il risultato è devastante: non solo la musica diventa “non allenabile”, ma l’intero modello rischia di essere compromesso.