L’intelligenza artificiale è la grande rivoluzione tecnologica del nostro tempo, ma la sua governance resta un tema aperto e controverso. Durante l’evento organizzato da Seeweb ed EuropIA, l’esperto di affari istituzionali Dario Denni ha sottolineato come l’attenzione normativa dovrebbe essere posta più sui dati che sui sistemi. Un’affermazione che sembra quasi scontata, ma che in realtà tocca il cuore di uno dei problemi più rilevanti del momento: mentre sui dati personali esiste una solida normativa, come il GDPR, e una giurisprudenza consolidata, lo stesso non si può dire per i dati aziendali. Eppure, questi ultimi rappresentano un asset strategico fondamentale, spesso più prezioso di qualsiasi brevetto o proprietà industriale.

Le imprese che affidano i propri dati a sistemi globali di IA devono essere consapevoli di un rischio sottovalutato: la perdita del diritto di sfruttamento esclusivo. I dati, una volta elaborati da un modello IA, possono diventare parte del suo “know-how”, alimentando sistemi che potrebbero non solo imparare da essi, ma anche utilizzarli per generare output che avvantaggiano terze parti. Questo scenario crea un problema di governance enorme, che non può essere ignorato.

La soluzione proposta da Denni e da altri esperti del settore è la Private AI: un’intelligenza artificiale che opera entro i confini aziendali, garantendo che i dati non finiscano nelle mani di fornitori esterni, evitando così il rischio di perdere il controllo su di essi. Questo approccio non solo consente alle imprese di rimanere aderenti alle normative vigenti, ma permette anche di preservare il loro vantaggio competitivo.
Un caso concreto riguarda il settore bancario e assicurativo, dove le aziende gestiscono enormi quantità di dati sensibili e strategici. Se questi dati venissero elaborati da un sistema di IA globale senza tutele adeguate, si rischierebbe di favorire indirettamente la concorrenza o di compromettere informazioni critiche. Con la Private AI, invece, le imprese possono implementare modelli di intelligenza artificiale in-house, mantenendo il controllo totale sulle informazioni e sulle modalità di utilizzo.

A rendere ancora più complesso il quadro normativo è il divario tra l’AI Act dell’Unione Europea e il GDPR. Il primo si basa su un approccio “risk-based”, ovvero valuta i rischi dei sistemi IA a seconda del loro impatto sulla società, mentre il secondo è costruito attorno al principio di minimizzazione dei dati. Questo genera una sovrapposizione normativa che rischia di mettere in difficoltà le aziende europee, le quali devono bilanciare il rispetto delle normative sulla privacy con le nuove regolamentazioni in materia di IA.
Il problema principale è che l’AI Act classifica i sistemi IA in base a quattro livelli di rischio: basso, limitato, alto e inaccettabile. Tuttavia, la definizione di rischio non è sempre chiara e rischia di penalizzare eccessivamente le aziende che vogliono adottare l’IA in modo innovativo. Il GDPR, d’altro canto, impone restrizioni stringenti sull’uso dei dati personali, rendendo difficile l’addestramento di modelli IA senza ottenere esplicito consenso dagli utenti. La sfida, dunque, è trovare un punto di incontro tra questi due approcci, in modo da non soffocare l’innovazione, ma garantire al tempo stesso la tutela dei diritti fondamentali.

Un altro grande tema legato alla governance dell’IA è quello della sostenibilità. Da un lato, ci sono aziende e ricercatori che sostengono che l’intelligenza artificiale non debba necessariamente richiedere enormi quantità di risorse computazionali ed energetiche. Un esempio è il pensiero di Grandis, secondo cui “l’intelligenza artificiale non si fa a colpi di centrali nucleari”. Lo stesso concetto è ripreso da Madotto di Intelligentiae, il quale prevede che il futuro vedrà una progressiva transizione verso modelli più piccoli, efficienti e meno energivori.
Dall’altro lato, troviamo colossi come Nvidia, il cui CEO, Jensen Huang, ha recentemente dichiarato che per sostenere la crescita dell’intelligenza artificiale sarà necessario aumentare di 100 volte la potenza di calcolo. Un’affermazione che lascia poco spazio all’interpretazione: la direzione intrapresa dai big del settore prevede un massiccio investimento in hardware, data center e chip sempre più performanti. Nvidia ha infatti annunciato la nuova generazione di processori Blackwell, progettati specificamente per il deep learning e per accelerare l’addestramento dei modelli di IA generativa.

Ma questa visione è davvero sostenibile? O si sta rischiando di entrare in una spirale di consumi energetici insostenibili? Il problema della sostenibilità dell’IA è già oggi evidente: addestrare modelli di grandi dimensioni richiede enormi quantità di energia, spesso proveniente da fonti non rinnovabili. Google DeepMind e OpenAI, per esempio, stanno cercando di ottimizzare i processi per ridurre i consumi, ma i numeri restano preoccupanti.

A complicare ulteriormente il quadro c’è la competizione globale per la leadership nel settore dell’IA. Nvidia domina il mercato dei chip per l’intelligenza artificiale, ma la sua posizione è minacciata dall’ascesa di nuovi concorrenti, in particolare dalla Cina. La società DeepSeek ha sviluppato un modello di IA capace di ottenere prestazioni elevate utilizzando chip meno avanzati, ma più economici. Questa strategia ha permesso all’azienda di offrire soluzioni più accessibili, mettendo sotto pressione Nvidia e spingendo gli investitori a riconsiderare il valore della società americana.
Il risultato? Nvidia ha subito un crollo in borsa del 17%, la peggiore perdita della sua storia, segnalando che il mercato dell’IA è ancora altamente volatile e che la competizione globale potrebbe ridisegnare gli equilibri nei prossimi anni.

La governance dell’intelligenza artificiale è una sfida aperta, che richiede un bilanciamento tra innovazione, regolamentazione e sostenibilità. Il tema del controllo dei dati aziendali deve essere affrontato con urgenza, attraverso soluzioni come la Private AI, mentre il divario tra AI Act e GDPR deve essere colmato per garantire un quadro normativo chiaro e favorevole allo sviluppo tecnologico.
Sul fronte della sostenibilità, il dibattito tra modelli piccoli ed efficienti contro l’approccio basato su mega-datacenter è destinato a intensificarsi, con implicazioni non solo economiche, ma anche ambientali. Infine, la battaglia tra Nvidia e i nuovi attori emergenti dimostra che il settore dell’IA è tutt’altro che consolidato e che il futuro potrebbe riservare sorprese inaspettate.

L’intelligenza artificiale è una tecnologia straordinaria, ma senza una governance adeguata rischia di diventare un’arma a doppio taglio. Spetta ora ai legislatori, alle aziende e agli esperti del settore trovare un equilibrio che consenta di sfruttarne tutto il potenziale senza comprometterne la sostenibilità e la sicurezza.