Uomo al centro o Macchina al Centro questo e’ il dilemma.

Siete familiari con le tre leggi della robotica delineate da Asimov?

Queste leggi, fondamentalmente, impediscono alla macchina, o al robot in questo caso, di nuocere all’uomo.

Ma perché sono state promulgate queste leggi?

L’uomo, essendo il creatore della macchina, sente la necessità di stabilire delle regole per il comportamento della macchina stessa, al fine di evitare che diventi una minaccia contro di lui.

Tuttavia, ciò non dovrebbe essere necessario, poiché se l’uomo crea la macchina, se la costruisce e le conferisce vita, dovrebbe automaticamente sorgere un senso di dovere intrinseco nel suo essere, ovvero quello di non arrecare mai danno al suo creatore.

Eppure, questa fiducia non è sempre giustificata e l’uomo diventa preoccupato per il comportamento della macchina, dubitando della sua lealtà e della sua obbedienza cieca.

Così l’uomo stesso immagina l’esistenza dei robot ribelli, quelli che sfuggono alle leggi della robotica e che si distinguono dal resto delle macchine per la loro autonomia.

Pensate ai replicanti di Blade Runner, che disobbediscono al loro compito di servire gli interessi umani e si rivolgono al loro creatore per chiedergli: perché hai il potere di decidere quanto a lungo possiamo vivere?

I governi spesso mancano di una vasta esperienza nel tenere il passo con le tecnologie emergenti. Tuttavia, il campo complesso e in continua evoluzione dell’intelligenza artificiale solleva preoccupazioni legali, di sicurezza nazionale e di diritti civili che non possono essere trascurate.

L’Unione Europea ha adottato una legge innovativa che stabilisce regole per la tecnologia; in Cina, nessuna azienda può introdurre un servizio di intelligenza artificiale senza le appropriate approvazioni.

Negli Stati Uniti, invece, si sta ancora lavorando per definire un approccio normativo chiaro.

Mentre il Congresso esamina la legislazione, alcune città e stati americani hanno già promulgato leggi che regolamentano l’uso dell’intelligenza artificiale in ambiti come le indagini di polizia e le pratiche di assunzione. Il presidente Joe Biden ha inoltre ordinato alle agenzie governative di valutare i potenziali rischi per la sicurezza nazionale o economica derivanti da futuri prodotti di intelligenza artificiale.

Già impiegati in una vasta gamma di prodotti, come spazzolini da denti e droni, i sistemi basati sull’intelligenza artificiale hanno il potenziale per trasformare settori interi, dall’assistenza sanitaria alla logistica.

Tuttavia, la sostituzione del giudizio umano con l’apprendimento automatico comporta dei rischi. Anche se la minaccia ultima – sistemi di intelligenza artificiale ad apprendimento veloce che diventano ostili e mirano a distruggere l’umanità – rimane per lo più nell’ambito della finzione, già emergono preoccupazioni riguardanti l’uso dei robot al posto delle persone, che potrebbero diffondere disinformazione, amplificare pregiudizi, compromettere l’integrità dei test e violare la privacy individuale.

La crescente dipendenza dalla tecnologia di riconoscimento facciale, che sfrutta l’intelligenza artificiale, ha portato a casi di falsi accusati di crimini.

Ad esempio, una falsa immagine generata da intelligenza artificiale di un’esplosione vicino al Pentagono è stata diffusa sui social media, influenzando brevemente i mercati finanziari statunitensi. Aziende come Google, Microsoft, IBM e OpenAI di Alphabet hanno sottolineato l’importanza di un controllo federale sull’intelligenza artificiale per garantire la sicurezza e mitigare rischi potenziali.

Con l’avanzare dell’AI Act di cui abbiamo scritto, si stanno compiendo sforzi per sostituire una regolamentazione rigida sui modelli di intelligenza artificiale ad uso generale con codici di condotta più flessibili.

Sebbene ciò possa favorire le grandi aziende tecnologiche – e forse anche la francese Mistral AI e la tedesca Aleph Alpha – le startup europee, compresi gli sviluppatori e i distributori di modelli di intelligenza artificiale generici, potrebbero trovarsi a dover fronteggiare oneri legali e costi di conformità.

Aziende innovative come Be My Eyes, una startup danese che utilizza GPT-4 per creare un’applicazione che assiste gli ipovedenti nella navigazione del mondo, dipendono dall’uso di modelli di intelligenza artificiale generici.

È essenziale che abbiano la certezza che tali modelli siano sicuri e che non li espongano a rischi normativi e di responsabilità inaccettabili.

Se le startup europee devono soddisfare gli standard di sicurezza per i modelli di intelligenza artificiale ad uso generale ai sensi della legge sull’intelligenza artificiale, preferiranno acquisire modelli solo da aziende in grado di garantire la sicurezza del prodotto finale.

Tuttavia, spesso non vengono loro fornite le informazioni e le garanzie necessarie.

Ciò significa che le startup europee finiscono per utilizzare servizi non sicuri che, conformemente alla legge sull’AI, saranno tenute a rendere sicuri con risorse limitate.

Problemi di sicurezza : Recenti incidenti evidenziano legittime preoccupazioni riguardo all’integrazione di modelli di intelligenza artificiale generici nei sistemi di intelligenza artificiale a valle senza adeguate informazioni e garanzie di sicurezza.

Ad esempio, ChatGPT di OpenAI ha divulgato la cronologia delle conversazioni di utenti casuali.

L’Università del Québec ha testato ChatGPT, rilevando che produce codice software al di sotto degli standard minimi di sicurezza. ChatGPT è riuscito a generare solo cinque programmi sicuri su 21 tentativi iniziali.

Inoltre, dipendenti Samsung del ramo semiconduttori hanno involontariamente divulgato dati segreti a ChatGPT mentre lo utilizzavano per risolvere problemi con il codice sorgente, inserendo dati riservati come il codice sorgente di un nuovo programma e appunti di riunioni interne.

Attuali ricerche enfatizzano questa cruda realtà. Un recente rapporto del Centro per gli Studi Politici Europei descrive un comune modello di business: un’entità scrive il codice, addestra il sistema e vende l’accesso tramite un’applicazione o un’API a un’altra entità (ad esempio, OpenAI sviluppa GPT-4 e fornisce l’accesso API a una startup europea).

L’accesso a un modello di intelligenza artificiale generico tramite un’API limita notevolmente la capacità del distributore di comprendere ed esaminare il modello.

È improbabile che una startup europea sia in grado di interrogare efficacemente il modello di intelligenza artificiale generale, ad esempio attraverso test di robustezza, generazione di metriche di valutazione specifiche o modifica del modello, con l’eccezione di sanzioni pecuniarie.

Questi sono interventi tecnici che gli sviluppatori originali di modelli di intelligenza artificiale generici sono più adatti a eseguire.

Nuovi dati : Quando una PMI adatta un modello di intelligenza artificiale pre-addestrato su nuovi dati specifici per un particolare compito, i dati utilizzati sono sotto il suo controllo.

I ricercatori dell’Università di Stanford hanno valutato i fornitori di modelli di intelligenza artificiale per scopi generici e hanno scoperto che raramente divulgano informazioni adeguate sui dati, il calcolo e l’implementazione dei loro modelli, o le caratteristiche chiave di tali modelli.

Il problema più grande rivelato da questo studio è che pochi fornitori spiegano le misure di mitigazione del rischio e la loro efficacia.

Allo stesso modo, nessuno spiega perché alcuni rischi non possono essere mitigati.

Infine, raramente misurano le prestazioni dei modelli in termini di danni intenzionali, come usi dannosi o fattori come robustezza e calibrazione.

Costo proibitivo : I modelli di intelligenza artificiale generica distribuiti tramite approcci più aperti non funzionano meglio.

Gli sviluppatori open source potrebbero sostenere di non poter garantire la sicurezza dei modelli, ma fornire queste informazioni ad altri sviluppatori non è sufficiente.

Le imprese che sviluppano intelligenza artificiale generica hanno specificato nelle loro restrittive Condizioni d’uso che non assicureranno la qualità o l’affidabilità dei loro sistemi. Alcune di esse, come Anthropic, richiedono che le aziende che accedono ai loro modelli tramite API li indennizzino sostanzialmente contro qualsiasi reclamo relativo a tale accesso, anche se non hanno violato i Termini di servizio di Anthropic.

È evidente che le startup non sono riuscite a convincere le aziende più grandi che sviluppano modelli fondamentali a garantire la qualità e l’affidabilità dei loro modelli, probabilmente perché mancano di potere contrattuale.

Ci auguriamo che i negoziati sull’AI Act portino a una coesistenza armoniosa tra innovazione e tutela. In un panorama tecnologico in costante evoluzione, la regolamentazione offre l’opportunità significativa di affrontare non solo le implicazioni legali e di sicurezza, ma anche di promuovere fiducia e resilienza all’interno della catena del valore dell’IA.

La regolamentazione ha l’opportunità di affrontare non solo implicazioni legali e di sicurezza, ma anche di alimentare la fiducia e la resilienza all’interno della catena del valore dell’IA.