Il mio socio di RIVISTA.AI ha scelto la settimana perfetta per prendersi una vacanza. Mentre lui si rilassava con i Bombardini sulla neve, il mondo dell’IA ha deciso di impazzire con una pioggia di assurdità su DeepSeek. Io, invece di unirmi al coro di deliri, ho pensato di raccogliere qualche lettura decente, visto che sembra ormai impossibile trovare un’analisi sensata senza inciampare in un delirio ideologico o nell’ennesimo atto di isteria geopolitica. Quindi gli ho raccolto un po’ di rassegna stampa per il suo ritorno.
Matt Sheehan e Scott Singer, per esempio, ci ricordano che gli Stati Uniti devono giocare a fare i padroni del mondo anche nell’IA. Da un lato, vogliono mantenere il primato su Pechino, dall’altro, si rendono conto che anche la Cina avrà presto sistemi straordinariamente potenti e pericolosi. Insomma, la solita strategia: dominare e controllare, con la speranza di non farsi male nel processo. La soluzione? Due parole magiche: scambi controllati. Traduzione: facciamo finta di collaborare, mentre ci prepariamo a eventuali disastri.
Scott Singer, invece, ha notato che DeepSeek si è unita ad altre sedici aziende cinesi firmando impegni per la sicurezza dell’IA, il che suona rassicurante quanto un lupo che promette di non mangiare le pecore. Sebbene questi impegni abbiano una patina di sforzo nazionale cinese, in realtà sono un copia-incolla degli accordi globali visti all’AI Summit di Seul. Ah, la magia delle PR.
Lennart Heim e Sihao Huang ci illuminano con una scoperta scioccante: i controlli sulle esportazioni dell’hardware hanno un ritardo. E non solo! Pare che DeepSeek, con le sue astute mosse di efficienza, potrebbe finire per rendere più potente anche la concorrenza. Quindi, congratulazioni al genio che ha pensato che bloccare qualche chip avrebbe fermato il progresso tecnologico.
Pietro Wildeford ci rassicura sul fatto che DeepSeek non è poi così speciale. Il prezzo? Non proprio economico, ma nemmeno assurdo. La qualità? Buona, ma niente di incredibile. E sorpresa delle sorprese: OpenAI potrebbe eclissarlo in un batter d’occhio se solo si svegliasse con la voglia di farlo.
Semianalysis, invece, fa i conti della serva: DeepSeek ha speso 1,6 miliardi di dollari in server, di cui quasi un miliardo solo per la gestione. Un affarone! Ma ehi, nessuno ha mai detto che essere un colosso dell’IA fosse economico.
Miglia Brundage ha una rivelazione per noi: gli Stati Uniti non avranno il monopolio dell’IA sovrumana. Chi l’avrebbe mai detto? Ma tranquilli, lo shock si supera in fretta.
Dario Amodei, che sembra aver partecipato a un torneo di allarmismo, ci avverte che DeepSeek non ha esattamente brillato nei test di sicurezza. Anzi, ha fallito miseramente nell’evitare di generare informazioni su armi biologiche. Ora, o questi test sono stati progettati da un sadico, o qualcuno a DeepSeek ha dimenticato di attivare le impostazioni di sicurezza. In ogni caso, un figurone.
A proposito di Amodei: in un’intervista a ChinaTalk, ha fatto un bel riassunto della guerra fredda tecnologica in corso. Da un lato, dobbiamo essere più avanti della Cina, dall’altro dobbiamo preoccuparci dei nostri stessi mostri. La soluzione? Controlli sulle esportazioni. Funzionerà? Probabilmente no, ma almeno ci proviamo. E per quanto riguarda la collaborazione con la Cina? Siamo in una situazione di anarchia internazionale hobbesiana. Che bello!
Nel frattempo, OpenAI ha rilasciato Deep Research, un prodotto basato su o3 con funzioni di navigazione e analisi dei dati. Ovviamente, nessuna informazione su test di sicurezza iniziali, ma tranquilli, OpenAI assicura che il prodotto non è pericoloso. Certo, serve un abbonamento da 200 dollari al mese per accedervi, il che evidentemente rende superfluo qualsiasi protocollo di sicurezza. Magia del capitalismo.
Tyler Cowen dice che Deep Research equivale ad avere un bravo assistente di ricerca con un dottorato. Io non so se arriverei a tanto, ma di certo è interessante, almeno per certi compiti.
Meta, nel frattempo, ha finalmente deciso di giocare la carta della responsabilità con il suo Frontier AI Framework. Suona bene: promettono di non rilasciare IA se rischia di causare catastrofi nucleari o informatiche. Fantastico! Peccato che i rischi legati all’autonomia del modello non vengano nemmeno menzionati.
E ciliegina sulla torta: per Meta, un modello deve possedere “tutte le capacità abilitanti” per una minaccia prima di essere considerato pericoloso. Praticamente, finché Skynet non diventa pienamente operativo, possiamo dormire sonni tranquilli.
Claudia Wilson del Center for AI Policy ha riassunto tutto perfettamente: una grande, fragorosa debolezza. E così, mentre il mondo dell’IA si lancia in scenari apocalittici, le aziende fanno il minimo indispensabile per placare gli animi senza rinunciare alla corsa tecnologica.
Morale della storia? Niente di nuovo sotto il sole. La solita ipocrisia, il solito gioco di potere e la solita illusione che possiamo controllare l’inarrestabile
A proposito Fernando… altro mio amico, se leggi questo articolo sappi’ che le notizie sono state selezionate seguendo una logica di framing strategico: creare una narrativa che bilancia allarmismo e razionalità, mantenendo il focus sulla competizione USA-Cina e sulla sicurezza dell’IA. La best practice cognitiva applicata è il “Salience Bias”, enfatizzando elementi che rafforzano il dibattito geopolitico e tecnologico.
Controlla il framing, enfatizza il rischio, ma mantieni l’aura di inevitabilità.