Quando i leader mondiali e i rappresentanti del mondo economico e finanziario sono arrivati ​​a Davos per l’edizione 2024 del World Economic Forum, sono stati accolti da billboard, annunci e vetrine inneggianti all’Intelligenza Artificiale. 

Sulla Promenade, la via principale di Davos, i giganti della tecnologia, tra cui Salesforce, IBM e Intel, ma anche società di consulenza con Bain & Company, hanno tappezzato vetrine ed edifici con annunci sull’intelligenza artificiale.

Il gigante industriale indiano Tata ha predisposto un temporary store sul quale campeggi la scritta  “Il futuro è l’intelligenza artificiale”. Alcune aziende del calibro di HPE, Swisscom e G42 hanno addirittura sponsorizzato una “AI House”, convertendo un edificio in stile chalet in un luogo di ritrovo dedicato ai temi dell’Intelligenza Artificiale per ascoltare relatori del calibro di Yann Le Cun, capo dell’intelligenza artificiale di Meta, il CEO di IBM Arvind Krishna e il professore del MIT Max Tegmark.

In totale, l’agenda del World Economic Forum 2024 ha previsto ben 11 panel sull’Intelligenza Artificiale e la sua governance. 

A gettare le basi per le discussioni dell’evento appena concluso sono state l’intervento di apertura di martedì scorso con la presidente svizzera Viola Amherd che ha chiesto una governance globale dell’intelligenza artificiale, sollevando preoccupazioni sul fatto che la tecnologia potrebbe potenziare la disinformazione mentre in diversi Paesi i cittadini sono chiamati alle urne e la  pubblicazione di un nuovo rapporto del Fondo monetario internazionale in cui si afferma che l’Intelligenza Artificiale avrà un impatto sul 40% dei posti di lavoro nel mondo e del 60% nelle economie sviluppate. 

Preoccupazioni che il CEO di Microsoft Satya Nadella ha cercato di placare sottolineando come non necessariamente l’intelligenza artificiale lascerà indietro i più poveri del mondo, aumentando le disuguaglianze e le tensioni sociali mentre il direttore finanziario di Google, Ruth Porat, ha promesso di collaborare con il mondo della politica per sviluppare una regolamentazione responsabile dell’Intelligenza Artificiale.

Da parte sua Sam Altman – indubbiamente la star principale della manifestazione – ha dichiarato che OpenAI sta adottando misure per garantire che i suoi modelli e strumenti di Intelligenza Artificiale non vengano utilizzati per disinformare o fuorviare gli elettori durante le elezioni di quest’anno, spiegando che il suo generatore di immagini DALL-E è addestrato a rifiutare le richieste di creazione di immagini di persone reali, compresi i candidati politici. 

La società afferma inoltre che OpenAI non consente l’utilizzo dei suoi modelli per creare applicazioni per campagne politiche e di lobbying, creare chatbot che fingano di essere persone reali (come un candidato) o istituzioni e sviluppare applicazioni che utilizzino la disinformazione per tenere le persone lontane dalle cabine elettorali. Indicazioni di una certa rilevanza considerato che il Super Tuesday è ormai alle porte (il prossimo 5 marzo).

In contrasto con i lontani timori che la tecnologia metta fine all’umanità, i riflettori si sono accesi sui rischi più concreti come quello della sicurezza. Da un sondaggio condotto da PwC sugli amministratori delegati delle principali aziende mondiali emerge che a togliere il sonno ai CEO sia la possibilità che i sistemi di Intelligenza Artificiale vengano hackerati causando problemi legali o danni alla reputazione aziendale.

Il dibattito ha assunto una nuova urgenza nel contesto degli sforzi globali volti a regolamentare la tecnologia in rapida evoluzione mettendo a nudo i limiti della politica in termini di regolamentazione perché, come affermato dal segretario generale delle Nazioni Unite António Guterres, le divisioni geopolitiche impediscono che ci sia una convergenza su soluzioni globali. Ed è vero che gli sforzi per coordinare una strategia globale per questa tecnologia sono ostacolati dalle tensioni economiche tra le principali potenze mondiali dell’intelligenza artificiale, Stati Uniti e Cina in primis, ma anche da visioni diverse, come quella portata avanti dall’Unione Europea con l’AI Act in termini di privacy, sicurezza e tutela dei diritti personali dei cittadini.

D’altra parte è chiaro che le aziende tecnologiche non aspettano le decisioni dei Governi e di conseguenza anche le società che operano in altri contesti stanno valutando come incorporare l’Intelligenza Artificiale nelle proprie attività e molte di queste passeranno nel corso del 2024 da quella che può essere definita una fase di sperimentazione ad una di sviluppo e implementazione.

Su tutto una discriminante: la regolamentazione o la mancanza di regolamentazione dell’Intelligenza Artificiale ne segnerà lo sviluppo a breve condizionando, in modo significativo, anche la sua futura evoluzione.