Un’ulteriore ondata di preoccupazioni ha travolto OpenAI, con una lettera aperta firmata da figure eminenti nel mondo dell’intelligenza artificiale e della giustizia economica che ha suscitato un nuovo dibattito sul futuro dell’azienda e sul suo passaggio a una struttura a scopo di lucro. La missiva, indirizzata ai procuratori generali della California e del Delaware, chiede esplicitamente che la trasformazione di OpenAI da organizzazione non profit a società a scopo di lucro venga bloccata. Tra i firmatari figurano nomi di primissimo piano come Geoffrey Hinton e Stuart Russell, due tra i pionieri della ricerca sull’intelligenza artificiale, nonché Margaret Mitchell, Joseph Stiglitz e un gruppo di ex dipendenti della stessa OpenAI. Una coalizione di voci influenti che, con forza, condanna la deriva verso il profitto che l’azienda starebbe intraprendendo.
L’argomento di questa lettera non è nuovo, ma assume una risonanza ancora più forte data la crescente preoccupazione sul controllo delle tecnologie avanzate in ambito AI. Se finora le critiche si erano limitate a chiedere maggiore trasparenza e una supervisione più rigorosa sul processo di monetizzazione, stavolta il gruppo chiede un blocco totale della transizione, un intervento che vada ben oltre il semplice innalzamento del prezzo delle azioni, ma che preservi l’intento etico originale dell’organizzazione. Non si tratta più solo di preoccupazioni economiche o di marketing, ma di una questione che tocca l’anima stessa di OpenAI: la missione iniziale di servire l’intera umanità, invece di cedere alle pressioni del mercato.
C’è una frattura che non si può ignorare tra l’OpenAI originale e la sua nuova visione. La transizione da un modello no-profit a un’entità lucrativa non è solo una questione di numeri e bilanci, ma segna un punto di non ritorno. Ci si chiede quale sarà l’impatto di un controllo sempre maggiore da parte degli investitori su un’intelligenza artificiale che dovrebbe, almeno nelle intenzioni, essere al servizio del bene collettivo. Con le ambizioni di Microsoft e altre big tech in agguato, la paura che l’intelligenza artificiale diventi un dominio esclusivo di pochi è sempre più palpabile.
Il documento, purtroppo, non è esente da polemiche. La risposta di OpenAI alla lettera, che ha cercato di ridurre il peso della questione accusando erroneamente alcuni firmatari di lavorare per Anthropic, è solo l’ennesima mossa che ha sollevato dubbi su quanto la trasparenza sia ancora un valore centrale nell’organizzazione. La strategia di difesa, purtroppo, ha scatenato nuove critiche per la superficialità con cui si è cercato di screditare gli oppositori. La confusione creatasi con queste affermazioni infondate non fa altro che peggiorare l’immagine di un’azienda che già lotta per bilanciare etica e interesse economico.
Per molti, la vera questione riguarda la natura di OpenAI stessa: un’organizzazione che ha iniziato come una non-profit con l’ambizioso obiettivo di evitare che l’IA venisse monopolizzata da chi avrebbe potuto usarla solo per fini lucrativi. Ma ora, con l’introduzione di una struttura a scopo di lucro, la promessa di un’AI libera e democratica sembra più lontana che mai. In molti, in particolare quelli che hanno firmato la lettera, temono che, una volta che il motore economico prenderà il sopravvento, non solo l’accesso alle tecnologie diventerà più costoso, ma la direzione futura della ricerca potrebbe essere influenzata più dalle necessità del mercato che dalle esigenze della società.
La decisione finale su questa questione non è ancora stata presa, ma le implicazioni potrebbero essere enormi non solo per OpenAI, ma per l’intero settore della tecnologia. Se OpenAI dovesse trasformarsi completamente in una società a scopo di lucro, potrebbe segnare un precedente che altre aziende, forse meno ideologiche, seguiranno. E questo potrebbe cambiare radicalmente il panorama della ricerca e dello sviluppo nell’intelligenza artificiale.