Vitalik Buterin, il fondatore di Ethereum, ha richiesto un approccio più prudente alla ricerca sull’intelligenza artificiale, definendo l’attuale entusiasmo “molto rischioso”. Rispondendo alle critiche di Ryan Selkis, CEO di Messari, Buterin ha espresso le sue opinioni sui principi che dovrebbero guidare lo sviluppo dell’IA.
“L’intelligenza artificiale superintelligente è molto rischiosa e non dovremmo affrettarci a farlo, e dovremmo spingere contro le persone che ci provano”, “Niente server farm da 7 trilioni di dollari, per favore.”
Buterin.
L’intelligenza artificiale superintelligente è un tipo di intelligenza artificiale che supera quella umana in quasi tutti i campi. Mentre molti vedono l’intelligenza generale artificiale (AGI) come il massimo potenziale della tecnologia, i modelli superintelligenti rappresentano il passo successivo. Anche se i sistemi attuali non hanno ancora raggiunto questo livello, i progressi nell’apprendimento automatico, nelle reti neurali e in altre tecnologie continuano a crescere, suscitando sia entusiasmo che preoccupazione.
Dopo che Messari ha twittato che “l’AGI è troppo importante per essere nelle mani di un altro narcisista ben parlante”, Buterin ha evidenziato l’importanza di un ecosistema di intelligenza artificiale diversificato per evitare che il suo enorme valore sia controllato da pochi.
“Un forte ecosistema di modelli aperti in esecuzione su hardware di consumo [è] un’importante copertura per proteggersi da un futuro in cui il valore catturato dall’intelligenza artificiale è iperconcentrato e la maggior parte del pensiero umano viene letto e mediato da pochi server centrali controllati da poche persone, ” “Tali modelli sono anche molto più bassi in termini di rischio catastrofico rispetto sia alla megalomania aziendale che ai militari.”
Buterin
Lascia un commento
Devi essere connesso per inviare un commento.