Negli ultimi anni, l’intelligenza artificiale (IA) è diventata una presenza sempre più significativa nella nostra vita quotidiana. Dalla guida autonoma ai chatbot, le applicazioni dell’IA stanno trasformando vari settori. Tuttavia, la rapida crescita di questa tecnologia ha sollevato preoccupazioni riguardo ai suoi potenziali effetti negativi. In un’intervista rilasciata alla CNBC, Illia Polosukhin, un architetto chiave dell’intelligenza artificiale moderna, ha espresso una prospettiva importante su chi è realmente responsabile delle guerre e dei conflitti: gli umani.

Chi è Illia Polosukhin?

Illia Polosukhin è un nome prominente nel campo dell’intelligenza artificiale. Cofondatore di NEAR Protocol, una piattaforma blockchain, Polosukhin ha lavorato per anni su tecnologie avanzate e ha contribuito in modo significativo allo sviluppo dell’IA. La sua esperienza e la sua visione lo rendono una voce autorevole in materia di tecnologia e delle sue implicazioni sociali.

L’intervista alla CNBC

Durante l’intervista con la CNBC, Polosukhin ha discusso le preoccupazioni crescenti riguardo all’uso dell’IA nei conflitti armati. Ha sottolineato che, nonostante le paure diffuse, non è la tecnologia in sé a scatenare le guerre, ma gli esseri umani che la utilizzano. “L’intelligenza artificiale è uno strumento, e come tutti gli strumenti, può essere usato per scopi positivi o negativi,” ha detto Polosukhin. “La responsabilità di come viene utilizzata ricade su di noi, non sulla tecnologia.”

Preoccupazioni degli Esperti

Le parole di Polosukhin arrivano in un momento in cui molti esperti e studiosi sono preoccupati per il potenziale uso dell’IA nei conflitti militari. I sistemi d’arma autonomi, o “robot killer”, sono un esempio di come l’IA potrebbe essere impiegata in modi pericolosi. Questi sistemi, che possono identificare e attaccare bersagli senza intervento umano, rappresentano una minaccia significativa se utilizzati senza un’adeguata supervisione e controllo etico.

L’Etica dell’Intelligenza Artificiale

La discussione sull’IA e la guerra solleva importanti questioni etiche. Come possono i governi e le organizzazioni garantire che l’IA venga utilizzata in modo responsabile? Polosukhin suggerisce che è essenziale stabilire regolamentazioni e linee guida chiare per l’uso dell’IA, soprattutto in ambito militare. “Abbiamo bisogno di un quadro etico e legale che guidi lo sviluppo e l’uso dell’IA,” ha affermato. “Solo così possiamo assicurarci che questa tecnologia venga utilizzata per il bene dell’umanità.”

Il Ruolo delle Nazioni Unite

Le Nazioni Unite stanno attivamente lavorando per affrontare queste preoccupazioni. La Convenzione sulle Armi Convenzionali ha avviato discussioni su come regolamentare i sistemi d’arma autonomi, con molti paesi che chiedono un divieto totale. Tuttavia, le negoziazioni sono complesse e i progressi sono lenti.

La Responsabilità Individuale e Collettiva

Polosukhin ha anche sottolineato l’importanza della responsabilità individuale e collettiva. “Ogni individuo ha un ruolo nel determinare come viene utilizzata l’IA,” ha detto. “Che si tratti di sviluppatori, politici o cittadini comuni, tutti dobbiamo essere consapevoli delle implicazioni delle nostre azioni.”

L’intervista di Illia Polosukhin alla CNBC offre una prospettiva cruciale in un dibattito in corso su tecnologia e conflitti. La sua affermazione che sono gli umani, non l’IA, a scatenare le guerre, pone l’accento sulla necessità di una gestione responsabile e etica delle tecnologie emergenti. Mentre l’IA continua a evolversi e a integrarsi nella nostra vita, diventa sempre più importante che affrontiamo queste sfide con consapevolezza e determinazione, per assicurare un futuro in cui la tecnologia serva davvero il bene comune.

Guarda l’intervista completa

Le parole di Polosukhin ci ricordano che, nonostante le potenzialità transformative dell’IA, il vero fattore decisivo rimane l’essere umano. La nostra capacità di prendere decisioni etiche e responsabili determinerà il futuro della tecnologia e il suo impatto sulla società.

Fast Onset of Overwhelming Mastery

Questo tema è in discussione da anni. Un famoso dibattito sull’argomento si è svolto 11 anni fa tra il ricercatore di intelligenza artificiale Eliezer Yudkowsky e l’economista Robin Hanson.

I due hanno parlato della possibilità di raggiungere “foom”, che significa “Fast Onset of Overwhelming Mastery”, il punto in cui l’intelligenza artificiale diventa molto più intelligente degli umani e capace di auto-migliorarsi. (L’origine del termine “foom” è discussa.) “Eliezer e i suoi seguaci credono che le IA diventeranno ‘foom’ senza preavviso, cioè un giorno costruisci un’AGI [intelligenza artificiale generale] e in poche ore o giorni questa si auto-migliora fino a diventare un’intelligenza divina e poi domina il mondo. È realistico?” ha twittato recentemente Perry Metzger, un informatico attivo nella comunità dell’IA.

Metzger ha sostenuto che anche quando i sistemi informatici raggiungono un livello di intelligenza umana, c’è ancora molto tempo per prevenire qualsiasi risultato negativo. “‘Foom’ è logicamente possibile? Forse. Non ne sono convinto”, ha detto. “È possibile nel mondo reale? Sono abbastanza sicuro di no. L’intelligenza artificiale profondamente sovrumana a lungo termine diventerà una cosa? Sì, ma non un ‘foom'”