Nell’era dell’intelligenza artificiale (AI), uno dei temi più delicati e cruciali riguarda la titolarità degli output generati dai sistemi AI e l’uso dei dati di addestramento. Il dibattito si è intensificato soprattutto a causa dell’ampio utilizzo di servizi AI forniti dai grandi hyperscaler globali – giganti tecnologici come Google, Microsoft e Amazon – che impongono Termini e Condizioni (T&C) restrittivi. Questi contratti sono concepiti in modo tale da non lasciare spazio agli utenti per negoziare i diritti sui risultati prodotti dall’intelligenza artificiale o sull’utilizzo dei dati che alimentano i modelli.
Il Ruolo dei Contratti e le Opinioni Giuridiche
Il punto centrale del dibattito giuridico risiede nella contrattualizzazione dell’utilizzo degli output generati dall’AI. Molti esperti legali sostengono che gli output di un sistema di intelligenza artificiale, a seconda della natura e del contesto, potrebbero essere soggetti alla tutela della proprietà intellettuale. Secondo il diritto europeo, in particolare, qualora l’output soddisfi i requisiti di originalità e creatività, potrebbe essere trattato come un’opera protetta da copyright. Tuttavia, il vero nodo giuridico è il controllo su questi output e, in parallelo, sui dati impiegati per l’addestramento dell’AI.
Il prof. Giovanni Sartor, esperto di diritto e tecnologie, evidenzia che i diritti sugli output delle intelligenze artificiali devono essere interpretati alla luce delle leggi sui diritti d’autore, con particolare attenzione alle creazioni intellettuali che presentano elementi di originalità. Ma il problema pratico è che i grandi fornitori di servizi di intelligenza artificiale vincolano l’utente a termini contrattuali che li privano di tali diritti. Gli utenti accettano contratti predefiniti, che spesso stabiliscono che l’output generato dalla piattaforma venga trattato come dati di addestramento aggiuntivi, destinati ad essere riutilizzati per perfezionare ulteriormente il modello AI. Questo ciclo chiuso, che alimenta continuamente i sistemi delle grandi piattaforme, priva l’utente di una reale proprietà intellettuale sui risultati generati.
Il dott. Luca Bolognini, presidente dell’Istituto Italiano per la Privacy, sostiene che le aziende europee non hanno una reale leva contrattuale con le grandi piattaforme, il che impedisce loro di difendere i propri diritti sugli output prodotti dai sistemi AI. Questo crea un ambiente giuridico sbilanciato, in cui il potere è completamente nelle mani delle big tech, e l’utente finale è costretto a cedere i propri diritti, senza alcuna possibilità di negoziare condizioni più favorevoli.
La Sfida della Protezione dei Dati Personali e Aziendali
Un altro aspetto cruciale è la protezione dei dati personali e aziendali, regolamentata in Europa dal Regolamento Generale sulla Protezione dei Dati (GDPR). Questo regolamento impone stringenti obblighi sulla gestione e l’utilizzo dei dati personali, obbligando le aziende a garantire la sicurezza e la riservatezza dei dati trattati. Tuttavia, molti sistemi AI globali non offrono garanzie sufficienti in merito alla conformità con queste normative, in particolare quando i dati sono utilizzati per l’addestramento di modelli di AI.
Diverse opinioni giuridiche hanno sollevato l’importanza di un maggiore controllo sui dati aziendali. I dati non personali, come quelli relativi ai processi produttivi, ai modelli di business o agli asset intellettuali di un’azienda, sono oggi altrettanto preziosi quanto i dati personali. Francesco Banfi, avvocato esperto in diritto delle nuove tecnologie, sottolinea che questi dati, pur non essendo soggetti alla tutela diretta del GDPR, sono spesso proprietà intellettuale critica per le imprese, che si trovano a cederli alle grandi piattaforme globali senza possibilità di controllarne il successivo utilizzo. Il potere accumulato dalle big tech, che integrano tali dati nei propri modelli AI, rappresenta un grave rischio per la sovranità digitale delle imprese.
Giusella Finocchiaro, docente di diritto privato e delle nuove tecnologie, ha sottolineato in diverse occasioni l’importanza di definire contrattualmente la titolarità degli output generati da sistemi di intelligenza artificiale e l’utilizzabilità dei dati di addestramento. La Professoressa ha evidenziato che, per un corretto utilizzo dell’intelligenza artificiale, è fondamentale chiarire a chi appartengano gli output prodotti dall’AI e come possano essere utilizzati i dati impiegati per addestrare i modelli.
Tuttavia, come spesso accade con i grandi provider globali, queste questioni rimangono fuori dal controllo degli utenti. Le clausole contrattuali predefinite imposte dalle big tech non offrono spazio per la negoziazione, lasciando l’utente senza strumenti per rivendicare i propri diritti sugli output e sui dati.
Secondo Finocchiaro, la regolamentazione contrattuale dovrebbe essere uno degli strumenti primari per assicurare un equilibrio tra utenti e provider, proteggendo la sovranità digitale degli utenti e delle imprese. Senza la possibilità di definire tali aspetti a livello contrattuale, i rischi di abuso dei dati e di perdita di controllo sugli output dell’AI diventano troppo elevati.
L’ex CEO di Google, Eric Schmidt, ha suggerito in passato che i dati protetti dovrebbero essere comunque utilizzati e che le eventuali questioni legali potrebbero essere risolte successivamente dagli avvocati. Questo approccio, sebbene accettabile per i giganti tecnologici con vasti team legali, non è sostenibile per piccole e medie imprese che rischiano di perdere il controllo su asset strategici e critici per la loro crescita.
La Soluzione: Verso una Private AI
Di fronte a questi problemi, una delle soluzioni più promettenti sembra essere la creazione e lo sviluppo di una Private AI, un sistema di intelligenza artificiale autonomo, che operi all’interno di un perimetro giuridico sicuro e conforme alle normative europee. La Private AI si fonda su tre pilastri fondamentali:
- Sovranità sui Dati: Utilizzando cloud locali offerti da operatori europei, le aziende possono mantenere il pieno controllo sui propri dati, sia personali che aziendali. In questo modo, viene garantito il rispetto delle normative europee in materia di privacy e protezione dei dati, come il GDPR, evitando la migrazione dei dati al di fuori della giurisdizione europea.
- Contrattualizzazione Flessibile: A differenza dei grandi hyperscaler, i fornitori di Private AI possono offrire contratti personalizzati che proteggano meglio i diritti dell’utente sugli output generati dai sistemi di AI. Questo permette alle aziende di rivendicare la titolarità sugli output e di definire chiaramente i termini di utilizzo dei dati per l’addestramento del modello.
- Protezione dei Dati Aziendali: Le aziende possono tutelare meglio i propri dati non personali, che includono informazioni strategiche e industriali fondamentali per la competitività economica. Questi dati, spesso trascurati nei dibattiti, rappresentano il driver economico primario dell’intelligenza artificiale. Con una Private AI, tali dati rimangono sotto il controllo esclusivo dell’azienda, impedendo che vengano sfruttati da terzi senza consenso.
L’introduzione di una Private AI, gestita da operatori locali e conforme alle normative europee, rappresenta l’unica strada praticabile per mantenere la sovranità digitale e proteggere i dati aziendali e personali in Europa. Questo modello offre alle imprese e ai cittadini europei la possibilità di esercitare un controllo diretto sui propri dati, riducendo i rischi legati alla concentrazione di potere nelle mani delle grandi piattaforme globali. L’equilibrio giuridico tra protezione dei dati e sfruttamento dell’AI può essere raggiunto solo attraverso una strategia che valorizzi le tecnologie locali e promuova un quadro contrattuale più equo e negoziabile per tutti gli utenti.
In definitiva, una Private AI offre non solo sicurezza giuridica, ma anche la possibilità di preservare l’innovazione e la competitività in un panorama tecnologico in continua evoluzione, garantendo al contempo il rispetto delle normative e il controllo totale sugli asset digitali delle imprese.