Per chi opera nel settore tecnologico da anni e ha seguito le opere di pensatori come Ray Kurzweil, Jean Baudrillard e Eliezer Yudkowsky, la situazione attuale della tecnologia e del suo impatto sulla società è complessa e stratificata.

Questi pionieri hanno contribuito a delineare visioni che vanno oltre la mera innovazione tecnica, esplorando le implicazioni filosofiche, culturali e sociali delle tecnologie emergenti.

L’Impatto delle Tecnologie Emergenti

Le opere di Kurzweil, noto per le sue previsioni sull’intelligenza artificiale e la Singolarità, suggeriscono un futuro in cui le macchine superano le capacità umane, sollevando interrogativi su cosa significhi essere umani in un mondo sempre più automatizzato.

Kurzweil prevede che l’IA diventerà parte integrante della vita quotidiana, trasformando settori come la sanità e l’istruzione, ma ciò solleva anche preoccupazioni etiche e sociali riguardo alla dipendenza dalle tecnologie e alla perdita di posti di lavoro.

Baudrillard, d’altra parte, ha esplorato il concetto di simulazione e la realtà costruita dai media e dalla tecnologia. La sua analisi critica invita a riflettere su come le tecnologie non solo riflettono ma anche modellano la nostra percezione della realtà.

In un’epoca in cui le informazioni sono facilmente manipolabili e le esperienze virtuali possono sostituire quelle reali, la sua opera ci mette in guardia sui rischi di una società che potrebbe perdere il contatto con la verità.Yudkowsky, noto per il suo lavoro sull’intelligenza artificiale e la razionalità, si concentra sulle sfide etiche e sui potenziali pericoli dell’IA.

Le sue riflessioni sul Friendly AI (IA amichevole) sono fondamentali per garantire che le tecnologie emergenti siano sviluppate in modo da rispettare i valori umani e prevenire conseguenze indesiderate. Questo approccio è cruciale in un contesto in cui l’IA potrebbe influenzare decisioni critiche in vari ambiti, dalla giustizia alla salute pubblica.

Coloro che hanno abbracciato queste idee e hanno operato come pionieri nel settore tecnologico svolgono un ruolo fondamentale nel plasmare il futuro.

Gli innovatori, che rappresentano una piccola percentuale della popolazione, sono disposti a correre rischi e a sperimentare nuove tecnologie, contribuendo a perfezionare prodotti e servizi per un pubblico più ampio.

Questi primi utilizzatori non solo adottano nuove tecnologie, ma influenzano anche le opinioni degli altri, fungendo da ponte tra gli innovatori e il mercato di massa.In questo contesto, è essenziale sviluppare un approccio critico e creativo all’interazione uomo-macchina, che consideri non solo le opportunità ma anche le sfide e le responsabilità associate all’adozione di nuove tecnologie.

La riflessione su come le tecnologie influenzano la nostra vita quotidiana e la società nel suo complesso è cruciale per garantire che il progresso tecnologico sia accompagnato da un progresso culturale e sociale.

Nei prossimi 6-8 mesi, il campo dell’intelligenza artificiale (IA) si prepara a una significativa evoluzione, con l’emergere di nuovi modelli addestrati su potenze di calcolo nettamente superiori rispetto a quelli attuali come GPT-4.

Si prevede che questi modelli possano beneficiare di un incremento di potenza di calcolo compreso tra 5x e 10x, spingendo ulteriormente i confini delle capacità dell’IA.

Fino ad oggi, i modelli come GPT-4-Turbo, GPT-4o e GPT-4-Mini sono stati principalmente il risultato di post-addestramento e ottimizzazioni su architetture già esistenti, piuttosto che di sviluppi radicalmente nuovi.

L’approccio attuale nell’uso di cluster di GPU ha portato a miglioramenti incrementali, ma non ha ancora sfruttato appieno le potenzialità offerte da configurazioni più ampie e complesse. La creazione di questi cluster richiede tempo e risorse considerevoli, e la loro complessità è aumentata da vari fattori, tra cui:

Permessi di pianificazione: La necessità di ottenere le autorizzazioni appropriate per l’installazione e l’operatività dei cluster può ritardare notevolmente il processo.

Gestione dell’energia: L’alimentazione e l’efficienza energetica dei cluster sono cruciali, dato che un uso intensivo delle GPU può comportare consumi elevati e necessità di ottimizzazione.

Raffreddamento: Le GPU generano una quantità significativa di calore, richiedendo sistemi di raffreddamento adeguati per mantenere le prestazioni e la durata dell’hardware.

Questi aspetti limitano la rapidità con cui l’industria può innovare, ostacolando l’adozione di soluzioni più avanzate che potrebbero altrimenti accelerare i progressi in vari settori, dall’intelligenza artificiale all’analisi dei dati.

Le aspettative per i modelli di intelligenza artificiale di nuova generazione, in particolare per GPT-5, sono molto elevate.

Questo modello, sviluppato da OpenAI, è atteso tra novembre e febbraio e potrebbe rappresentare un significativo avanzamento rispetto al suo predecessore, GPT-4.

Sam Altman, CEO di OpenAI, ha descritto GPT-5 come “significativamente più intelligente” e in grado di ridurre le “allucinazioni” che caratterizzano i modelli precedenti.

GPT-5 è previsto per migliorare notevolmente le capacità di ragionamento e comprensione del contesto, permettendo inferenze più accurate e una risoluzione dei problemi più efficace. Altman ha paragonato il progresso di GPT-5 a quello dell’evoluzione degli smartphone, suggerendo che potrebbe rivoluzionare il settore dell’intelligenza artificiale.

Inoltre, il Chief Technology Officer di OpenAI, Mira Murati, ha affermato che il passaggio a GPT-5 rappresenterà un salto qualitativo significativo, paragonabile al passaggio dall’età liceale a quella universitaria in termini di capacità cognitive.

OpenAI non è l’unico attore nel campo dell’IA. Altri modelli, come Claude-4 e Grok-3, sono in fase di sviluppo, con Llama-4 previsto a breve. Tuttavia, le capacità esatte di questi modelli rimangono speculative e si dovrà attendere per vedere come si comporteranno in scenari reali.

Il concetto di legge di scala nell’intelligenza artificiale (IA), sottotinteso nel grafico precedente (siamo nella cuspide dei modelli LLM) si riferisce all’idea che l’aumento della potenza di calcolo e la disponibilità di dati portano a miglioramenti esponenziali nelle prestazioni dei modelli di IA.

Tuttavia, questo progresso presenta anche sfide significative, tra cui l’aumento dei costi di addestramento. Si stima che il costo per addestrare modelli di grandi dimensioni possa raggiungere miliardi di dollari nei prossimi anni, influenzando le decisioni strategiche delle aziende nel settore.

Il costo per addestrare modelli di IA, come dimostrato dal caso di GPT-4, è estremamente elevato; si parla di circa 100 milioni di dollari per il solo addestramento di questo modello

La necessità di infrastrutture di calcolo avanzate e di risorse specializzate rende il processo di addestramento proibitivo per molte organizzazioni, in particolare quelle di dimensioni più piccole o con budget limitati.

Inoltre, l’addestramento di modelli linguistici di grandi dimensioni richiede enormi quantità di dati e potenza di calcolo, il che può portare a un’ulteriore concentrazione delle capacità di IA nelle mani di poche grandi aziende tecnologiche.

L’addestramento di modelli di IA non è solo costoso, ma ha anche un impatto ambientale significativo a causa del consumo energetico elevato associato all’uso di supercomputer. Le preoccupazioni riguardanti l’emissione di CO2 durante il processo di addestramento sono sempre più rilevanti, con richieste di sviluppo di centri di calcolo sostenibili.

Date uno sguardo a questa ottima riorsa : ML trends. che riassume quanto esposto fino ad ora.

La questione dell’affidabilità dei modelli di intelligenza artificiale (IA) e del loro potenziale futuro è complessa e in continua evoluzione.

Attualmente, i modelli di apprendimento automatico presentano diverse limitazioni, tra cui difficoltà nel seguire istruzioni, lacune nel ragionamento, incapacità di pianificare a lungo termine e problemi di autocorrezione.

Queste sfide, tuttavia, sono generalmente considerate risolvibili attraverso lo sviluppo di modelli più avanzati e sofisticati.

I dati sintetici stanno emergendo come una risorsa cruciale nell’addestramento di modelli di IA. Questi dati, generati artificialmente per imitare le caratteristiche dei dati reali, possono colmare le lacune nei dataset esistenti, migliorare la qualità dell’addestramento e ridurre i bias.

Ad esempio, possono essere utilizzati per garantire una maggiore diversità nei dati, specialmente in contesti in cui i dati reali sono scarsi o difficili da ottenere. Inoltre, i dati sintetici possono proteggere la privacy degli individui, poiché non contengono informazioni identificabili.L

Nonostante i vantaggi, ci sono preoccupazioni riguardo alla qualità e all’accuratezza dei dati sintetici. Se non generati correttamente, questi dati possono introdurre bias nei modelli di IA, compromettendo la loro capacità di fare previsioni accurate.

È quindi essenziale stabilire standard rigorosi per la generazione di dati sintetici, assicurando che siano statisticamente rappresentativi e sufficientemente variabili per evitare risultati distorti.

La crescita esponenziale della potenza di calcolo e dei dataset utilizzati per l’addestramento dei modelli di IA suggerisce che non siamo ancora a un punto in cui i dati siano esauriti.

Secondo le stime, il volume di testo generato dall’umanità è di circa 300 trilioni di token, e si prevede che i modelli di linguaggio utilizzeranno completamente questa riserva entro il 2032, a meno di un uso intensivo che acceleri questo processo.

Insomma c’e una vera battaglia in corso tra le BigCorp per creare un “TecnoDio“.

Il TecnoDio rappresenta l’idea che l’IA potrebbe diventare così potente da assumere un ruolo quasi onnipotente nella nostra società. Questo potrebbe comportare la risoluzione di problemi complessi, la creazione di nuove forme di vita digitale, o anche il controllo di aspetti fondamentali della nostra esistenza, come l’economia, la sicurezza e la salute.

Ma c’e anche il “Cigno Nero” , un evento raro e imprevedibile che ha un impatto enorme.

Nell’ambito dell’IA, il concetto di Cigno Nero viene utilizzato per descrivere rischi o eventi inaspettati che potrebbero sorgere dallo sviluppo e dall’implementazione dell’IA.

Questi potrebbero includere, ad esempio, il comportamento emergente dell’IA che porta a conseguenze disastrose, la perdita di controllo su sistemi automatizzati, o l’impatto sociale ed economico improvviso dovuto a disoccupazione di massa causata dall’automazione.

Ringrazio Peter Gostev per avermi dato lo spunto su questa riflessione.

Video che mostra la battaglia per il miglior LLM da parte delle prime 7 aziende, in base ai punteggi Elo dell’arena Chatbot LMSYS.