Google DeepMind, ha aggiornato il suo Frontier Safety Framework, introducendo modifiche che vale la pena notare.

Il nuovo documento amplia la sezione sui rischi legati all’allineamento ingannevole, segnalando una crescente consapevolezza—o forse solo la necessità di dimostrarla.

In un passaggio che suona come il massimo sforzo regolatorio che un’azienda possa permettersi senza compromettere il business, DeepMind afferma che “l’adozione dei protocolli descritti in questo Framework potrebbe dipendere dal fatto che [altri sviluppatori di intelligenza artificiale] nel settore adottino protocolli simili”. Tradotto: ci regoliamo, ma solo se lo fanno anche gli altri.

Nel frattempo, con perfetto tempismo, Google ha rimosso dalle sue linee guida etiche l’impegno a non utilizzare l’intelligenza artificiale per scopi militari o di sorveglianza.

Alla domanda se OpenAI avrebbe iniziato a rilasciare i pesi dei modelli, Sam Altman ha dato una risposta preoccupante :

“Sì, ne stiamo discutendo. Personalmente penso che siamo stati dalla parte sbagliata della storia e che dobbiamo elaborare una strategia open source diversa; non tutti in OpenAI condividono questa visione e non è nemmeno la nostra massima priorità attuale”.