Nel teatrino dell’IA generativa, dove ogni player misura la virilità del proprio modello a colpi di miliardi di parametri e petaflops di addestramento, ByteDance ha appena fatto qualcosa di inaudito: ha messo KO i muscolosi Google Veo, OpenAI Sora e compagnia cantando con Seaweed, un modello video “snello” da 7 miliardi di parametri. Una piuma, se confrontato con gli elefanti del settore. Eppure, Seaweed vince. Anzi, surclassa. Perché l’efficienza, quando è ben pensata, non è un compromesso: è un vantaggio competitivo.
Partiamo da ciò che conta davvero, non dai numeri: il risultato. Seaweed genera video di 20 secondi in output nativo, partendo da testo, immagine o audio. Non ci sono pipeline spezzate, stadi intermedi malamente incollati tra loro, né effetti Frankenstein tipici di alcuni modelli occidentali. Il flusso è fluido, naturale, quasi cinematografico. Sì, perché il cuore di Seaweed è la narrazione. Lì dove molti modelli si perdono in pixel e frame, Seaweed orchestra un racconto. E lo fa con multi-shot control, movimenti di camera logici, e colpo di classe una sincronizzazione labiale che non sembra più un esperimento universitario, ma una vera produzione audiovisiva.