L’Illuminismo, con il suo focus sulla ragione e sulla scienza, ha promosso l’idea che il sapere dovesse essere universale, accessibile e libero dalle restrizioni della censura o del controllo religioso. Filosofi come Voltaire, Rousseau e Kant sostenevano che la conoscenza fosse un diritto naturale e non una concessione delle autorità. Allo stesso modo, il “diritto all’apprendimento” per le IA incoraggia un accesso libero ai dati e alle informazioni, similmente a come l’Illuminismo ha aperto le porte alla conoscenza scientifica per il bene collettivo.
Microsoft e Andreessen Horowitz (a16z) stanno guidando una nuova direzione per la regolamentazione dell’intelligenza artificiale, focalizzata sulla promozione dell’open source e sul concetto di “diritto all’apprendimento”. Questa iniziativa mira a stabilire un framework normativo che favorisca l’innovazione e la sicurezza, mantenendo i benefici dell’intelligenza artificiale accessibili a tutti. In un contesto in cui i modelli IA open source sono sotto scrutinio, queste linee guida si distinguono per difendere il libero utilizzo dei dati ai fini dell’apprendimento e della sperimentazione, rivendicando un approccio che non ostacoli l’avanzamento tecnologico.
L’idea chiave è di evitare che la normativa sul copyright si trasformi in una barriera alla crescita della tecnologia: come dichiarato nel documento congiunto, “la legge sul copyright non dovrebbe essere cooptata per implicare che alle macchine dovrebbe essere impedito di utilizzare i dati per apprendere allo stesso modo delle persone”. In pratica, questa posizione sostiene che il copyright non dovrebbe limitare la capacità delle intelligenze artificiali di elaborare informazioni e migliorarsi autonomamente, così come farebbe un essere umano leggendo o studiando materiali protetti dal diritto d’autore.
Il principio del “diritto all’apprendimento” risponde a una visione in cui l’intelligenza artificiale open source possa garantire un accesso diffuso alla tecnologia, favorendo un ecosistema di sviluppo più inclusivo. Tale impostazione risponde anche a preoccupazioni sulla concentrazione di potere tecnologico nelle mani di pochi attori privati, puntando a un’equa distribuzione delle capacità di innovazione.
Parallelamente, Anthropic, una delle aziende di spicco nel settore IA, ha proposto una visione strategica per la regolamentazione, affermando che i governi dovrebbero adottare normative specifiche entro i prossimi 18 mesi. Anthropic ritiene che sia urgente definire delle regole che affrontino questioni etiche e di sicurezza, sottolineando che le norme devono essere chiare, ma anche sufficientemente flessibili per adattarsi alla rapida evoluzione dell’intelligenza artificiale. La posizione di Anthropic riflette una comprensione delle responsabilità intrinseche nello sviluppo delle IA, specie in settori delicati come la sicurezza, la privacy e l’uso etico delle tecnologie.
La convergenza tra le posizioni di Microsoft, Andreessen Horowitz e Anthropic sottolinea una necessità comune: una regolamentazione che equilibri la sicurezza con l’accessibilità, senza soffocare la possibilità di innovare. Questa visione prospetta un futuro in cui la regolamentazione dell’IA favorisce un progresso inclusivo e sicuro, sostenendo il principio che l’intelligenza artificiale debba essere una risorsa collettiva, accessibile e innovativa.