Notizie di Intelligenza Artificiale Inclusiva in Tempo Reale: Innovazione e Accessibilità Pro bono publico

Tag: Sustainability

Sostenibilità: Sustainable Computing for a Sustainable Planet

La crescente domanda di energia necessaria per alimentare l’intelligenza artificiale (IA) è una preoccupazione, ma la tecnologia stessa potrebbe offrire soluzioni.

Secondo l’Agenzia Internazionale per l’Energia, il consumo di elettricità dei data center potrebbe raddoppiare entro il 2026 rispetto al 2022, quando rappresentava il 2% dell’elettricità mondiale. Tuttavia, l’IA sta anche creando efficienze energetiche in altri settori, potenzialmente compensando il suo alto consumo energetico.

L’impronta di carbonio dell’Intelligenza Artificiale è più grande di quanto pensi, affermano le scienziate del MIT

Non sono io a dirlo ma alcune studiose del MIT. Sasha Luccioni, con Emma Strubell e Yacine Jernite, hanno testato 88 modelli su 30 set di dati da 10 attività diverse con modalità diverse e hanno trovato cose davvero interessanti:

  • I compiti generativi e quelli che coinvolgono le immagini consumano più energia e carbonio rispetto ai compiti discriminativi e a quelli che coinvolgono il testo. Abbiamo scoperto che Stable Diffusion XL utilizza quasi 1 carica telefonica di energia per generazione.
  • La formazione continua ad essere molto più ad alta intensità di energia e di carbonio rispetto all’inferenza. Sono necessari dai 200 ai 500 milioni di deduzioni da un modello della famiglia BLOOM per raggiungere la quantità di energia utilizzata durante l’allenamento. Ma questo può essere raggiunto abbastanza velocemente per un modello popolare utilizzato da milioni di utenti, come ChatGPT.

L’utilizzo di modelli multiuso per compiti discriminativi richiede un maggiore dispendio energetico rispetto ai modelli specifici per compiti per gli stessi compiti. Ciò è particolarmente vero per l’analisi del sentiment e la risposta alle domande. La differenza può essere un fattore di 30 volte a seconda del set di dati.

Ma c’è una cosa di cui la gente non parla abbastanza, ed è l’impronta di carbonio dell’Intelligenza Artificiale. Uno dei motivi è che le grandi aziende tecnologiche non condividono l’impronta di carbonio della formazione e dell’utilizzo dei loro enormi modelli, e non disponiamo di  metodi standardizzati per misurare  le emissioni di cui è responsabile l’intelligenza artificiale. E anche se sappiamo che  addestrare modelli di Intelligenza Artificiale è altamente inquinante , le emissioni attribuibili all’utilizzo  dell’Intelligenza  Artificiale finora sono state un tassello mancante. Cioè, fino ad ora. 

In un nuovo studio condotto dai ricercatori della startup AI Hugging Face e della Carnegie Mellon University, generare un’immagine utilizzando un potente modello di Intelligenza Artificiale richiede la stessa quantità di energia necessaria per caricare completamente uno smartphone. Tuttavia, hanno scoperto che l’utilizzo di un modello di Intelligenza Artificiale per generare testo richiede molta meno energia. La creazione di testo 1.000 volte consuma solo il 16% della carica completa di uno smartphone.

Il loro lavoro, che deve ancora essere sottoposto a revisione paritaria, mostra che, sebbene l’addestramento di enormi modelli di Intelligenza Artificiale richieda un’enorme quantità di energia, è solo una parte del quadro. La maggior parte della loro impronta di carbonio deriva dal loro utilizzo effettivo.

Lo studio segna la prima volta che i ricercatori calcolano le emissioni di carbonio causate dall’utilizzo di un modello di Intelligenza Artificiale per vari compiti, secondo Sasha Luccioni, ricercatrice di intelligenza artificiale presso Hugging Face che ha guidato il lavoro. Spera che la comprensione di queste emissioni possa aiutarci a prendere decisioni informate su come utilizzare l’intelligenza artificiale in un modo più rispettoso del pianeta.

Il consumo di energia e l’impronta di carbonio dell’intelligenza artificiale sono un argomento sempre più importante con la crescita dell’uso dei sistemi di intelligenza artificiale.

Il consumo energetico dei sistemi di Intelligenza Artificiale può essere suddiviso in due fasi principali: addestramento e inferenza.

La fase di formazione, che prevede l’insegnamento del modello di Intelligenza Artificiale utilizzando grandi quantità di dati, è in genere più dispendiosa in termini di energia.

La fase di inferenza, che prevede l’utilizzo del modello addestrato per effettuare previsioni o decisioni, generalmente consuma meno energia ma può comunque accumularsi nel tempo, soprattutto per i sistemi che effettuano previsioni frequenti.

Il consumo energetico dei sistemi di Intelligenza Artificiale è in gran parte determinato dall’hardware e dall’infrastruttura che utilizzano. Ciò include i computer e i server utilizzati per l’addestramento e l’inferenza, nonché i data center che ospitano questi sistemi. Hardware e infrastrutture più efficienti dal punto di vista energetico possono ridurre significativamente il consumo di energia e l’impronta di carbonio dei sistemi di intelligenza artificiale.

La generazione di immagini è di gran lunga l’attività basata sull’Intelligenza Artificiale più dispendiosa in termini di energia e carbonio.

La generazione di 1.000 immagini con un potente modello di intelligenza artificiale, come Stable Diffusion XL, è responsabile della produzione di una quantità di anidride carbonica pari a quella di guidare l’equivalente di 4,1 miglia in un’auto media a benzina.

L’impronta di carbonio dei sistemi di Intelligenza Artificiale dipende anche dalle fonti energetiche utilizzate per alimentarli. I sistemi di Intelligenza Artificiale alimentati da fonti di energia rinnovabile, come l’energia eolica o solare, hanno un’impronta di carbonio inferiore rispetto a quelli alimentati da combustibili fossili.

ESG – La ricerca di Luccioni evidenzia anche come le emissioni legate all’uso dell’intelligenza artificiale dipenderanno da dove verrà utilizzata, afferma Jesse Dodge, ricercatore presso l’Allen Institute for AI, che non ha preso parte allo studio. L’impronta di carbonio dell’intelligenza artificiale in luoghi in cui la  rete elettrica è relativamente pulita, come la Francia , sarà molto inferiore rispetto a luoghi con una rete fortemente dipendente dai combustibili fossili, come alcune parti degli Stati Uniti.

Esistono varie strategie per rendere i sistemi di AI più efficienti dal punto di vista energetico, come l’utilizzo di modelli più piccoli, l’ottimizzazione di algoritmi per l’efficienza energetica o l’utilizzo di tecniche come la potatura o la quantizzazione per ridurre i requisiti computazionali dei modelli di AI.

Politiche e normative: le politiche e le normative possono svolgere un ruolo chiave nel ridurre il consumo di energia e l’impronta di carbonio dell’AI. Ciò potrebbe comportare la definizione di standard di efficienza energetica per i sistemi di intelligenza artificiale, l’incentivazione dell’uso di energie rinnovabili o la richiesta alle aziende di segnalare e ridurre le proprie emissioni di carbonio.

Ecco alcuni numeri che evidenziano il consumo energetico e l’impronta di carbonio dell’AI:

Uno studio pubblicato su Nature Climate Change nel 2019 ha stimato che l’addestramento di un singolo modello di intelligenza artificiale può emettere tanto carbonio quanto cinque automobili nel corso della loro vita. Ciò equivale a circa 284.000 libbre (129.000 chilogrammi) di anidride carbonica.
Secondo un rapporto del 2020 dell’Agenzia internazionale per l’energia (IEA), i data center, che ospitano molti sistemi di intelligenza artificiale, rappresentano circa l’1% del consumo globale di elettricità. Ciò equivale all’incirca al consumo di elettricità dell’intero paese dell’Australia.

Uno studio del 2020 condotto da ricercatori dell’Università del Massachusetts, Amherst, ha stimato che l’energia utilizzata per l’inferenza dell’intelligenza artificiale nei data center potrebbe rappresentare il 2,5% del consumo globale di elettricità entro il 2030.


Un rapporto del 2020 di OpenAI ha rilevato che la quantità di potenza di calcolo utilizzata nelle più grandi sessioni di formazione sull’intelligenza artificiale è raddoppiata ogni 3,4 mesi dal 2012. Tuttavia, il rapporto ha anche osservato che i miglioramenti nell’efficienza dell’hardware hanno aiutato per compensare parte di questo aumento del consumo di energia.

Alcune aziende di intelligenza artificiale stanno compensando le proprie emissioni di carbonio. Ad esempio, Google è a zero emissioni di carbonio dal 2007 e mira a operare con energia priva di emissioni di carbonio 24 ore su 24, 7 giorni su 7 in tutti i suoi data center e campus in tutto il mondo entro il 2030.

L’Unione Europea ha fissato l’obiettivo di ridurre le proprie emissioni di gas serra di almeno il 55% entro il 2030 rispetto ai livelli del 1990, e di raggiungere l’azzeramento delle emissioni nette entro il 2050. Questi obiettivi potrebbero portare a riduzioni il consumo energetico e l’impronta di carbonio dell’intelligenza artificiale nell’UE.

La strategia di Microsoft: Sustainability – l’abilità dell’IA fusa con l’energia nucleare per dominare il cloud computing di prossima generazione!

“Il nucleare sta tornando in tutto il mondo”. Lo ha detto in questi giorni la commissaria Ue all’Energia Kadri Simson.

L’ Agenzia internazionale dell’energia faceva riferimento a “Una nuova alba per l’energia nucleare” nel report annuale del 2022 anno in cui l’Europa ha inserito questa risorsa assieme al gas tra quelle da utilizzare nella transizione energetica.

Dall’altra parte dell’atlantico le manovre strategiche di Microsoft nello spazio dell’intelligenza artificiale vanno ben oltre l’aiutare OpenAI a creare chatbot migliori in modo che possano vendere le licenze di Office 365 Co-Pilot. 

Mentre si rafforza la loro partnership con OpenAI e le loro alleanze si fanno sempre più profonde assistiamo anche a una trasformazione dell’infrastruttura, con Microsoft che investe pesantemente nell’energia nucleare (attraverso una società in portafoglio di Sam Altman Helion) per sostenere i suoi ampi data center creando una nuova business unit cloud competitiva che ha la promessa di offrire un insieme unico di servizi.

Bill Gates ha anche avviato un incubatore per progetti SMR chiamato TerraPower. Tuttavia, TerraPower “non ha attualmente alcun accordo per la vendita di reattori a Microsoft”, secondo una dichiarazione alla CNBC .

Sebbene Azure con OpenAI sia fondamentale, i costi diventeranno un problema. 

Secondo quanto riferito, Sam Altman sta cercando di chiedere a Microsoft maggiori finanziamenti per gestire OpenAI poiché i costi per addestrare i modelli di intelligenza artificiale sono aumentati vertiginosamente.

Una parte importante di questo costo è l’elettricità. L’energia rappresenta il 60-70% dei costi di gestione di un data center. Se Microsoft riesce a ridurre questi costi (sia per OpenAI che per i suoi clienti), otterrà un enorme vantaggio in termini di prezzi che potrà offrire ai propri clienti finali.

Inoltre, Microsoft ha firmato una partnership con l’operatore della centrale nucleare con sede in Virginia Constellation Energy per portare l’energia nucleare nei propri data center, dimostrando l’impegno di Microsoft nel ridurre la propria impronta di carbonio e nell’innovazione nel settore energetico. 

Ad esempio, in questa partnership, un data center a Boydton, in Virginia, avrà fino al 35% della sua energia fornita dall’energia nucleare.

Questa strategia prevede l’adozione di piccoli reattori modulari (SMR), che rappresentano una potenziale soluzione ai limiti di potenza delle crescenti operazioni dei data center. In italia ci stanno lavorando Enea e Ansaldo Nucleare .

Gli SMR usano le scorie come combustibile per reattori. Sulla quarta generazione e sugli Smr si sta muovendo per esempio Enel che collabora con Newcleo, società italiana con sede a Londra. 

In effetti, Microsoft sta assumendo attivamente esperti in tecnologia nucleare per implementare una strategia globale per l’energia SMR e microreattori per supportare le esigenze energetiche sia del cloud che dell’intelligenza artificiale di Microsoft.

Gli effetti di questo passaggio sono grandi. L’energia nucleare rappresenta solo il 50-70% del costo dell’energia da carbone (già considerata attualmente una delle fonti di elettricità più economiche). 

Ci vuole molto capitale in anticipo per costruire una centrale nucleare (che si tratti di un SMR o di una centrale elettrica completa), ma per Microsoft il risparmio potrebbe valere miliardi di dollari per i propri data center.

Ciò significa realizzare una delle più rapide crescite di software o piattaforme aziendali mai viste (da dimostrare), oltre a riprogettare un nuovo alimentatore per gestire molti dei loro data center che alimenteranno il sistema ChatGPT/API di OpenAI a un costo molto più conveniente.!

Giovedì 9 marzo Eni ha firmato un accordo di cooperazione tecnologica con Commonwealth Fusion Systems, spinout dell’Mit. Obiettivo: accelerare l’industrializzazione dell’energia da fusione e non da fissione, ha un obiettivo ambizioso: realizzare nel 2025 il primo impianto pilota a confinamento magnetico, ed entro il 2035, costruire la prima centrale elettrica industriale in grado di immettere elettricità nella rete.

Il 6 Marzo  Edf, Edison e Ansaldo hanno sottoscritto una lettera di intenti per collaborare allo sviluppo del nuovo nucleare in Europa, per favorirne la diffusione anche in Italia.

La sfida è complessa, sia dal punto di vista tecnico che da quello economico: nelle stesse ore dell’annuncio sono andati in fumo i piani della statunitense NuScale di costruire il primo reattore Smr sul suolo americano.

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie