Recentemente, i ricercatori nel campo della robotica hanno introdotto un metodo di addestramento innovativo per i robot, ispirato ai modelli di linguaggio di grandi dimensioni. Questo approccio unisce diverse fonti di dati per migliorare l’apprendimento e l’adattabilità dei robot in una varietà di compiti. Secondo un articolo pubblicato dal MIT, l’obiettivo di questa nuova metodologia è quello di superare i limiti dell’apprendimento per imitazione tradizionale, sfruttando un dataset più completo. Tale progresso ha il potenziale di rivoluzionare il modo in cui i robot acquisiscono nuove abilità, portando a sistemi più autonomi e intelligenti in una vasta gamma di settori.
Tag: MIT
Il Massachusetts Institute of Technology (MIT) è una delle istituzioni leader mondiali nel campo dell’intelligenza artificiale (IA) e le sue recenti ricerche stanno plasmando il futuro della tecnologia. Negli ultimi anni, i ricercatori del MIT hanno proposto nuove teorie e approcci che cercano di superare alcune delle limitazioni sia dell’IA forte che di quella debole, proponendo soluzioni ibride e innovative che mirano a rendere le macchine più intelligenti e autonome, senza però cadere nel determinismo della coscienza artificiale. Vediamo alcune delle principali teorie emergenti.
L’evoluzione della robotica di uso generale è stata accelerata grazie a una tecnica di addestramento innovativa sviluppata dai ricercatori del MIT. Questa metodologia rivoluzionaria, ispirata ai grandi modelli di linguaggio (LLM) come GPT-4, promette di ridurre drasticamente i tempi e i costi di addestramento dei robot, permettendo loro di apprendere nuove competenze utilizzando dati eterogenei provenienti da fonti disparate. La ricerca, guidata da Lirui Wang del Dipartimento di Ingegneria Elettrica e Informatica (EECS) e pubblicata di recente, rappresenta un notevole passo avanti verso la creazione di robot in grado di adattarsi a diversi ambienti e svolgere una vasta gamma di compiti.
La pareidolia è un fenomeno psicologico curioso, che porta gli esseri umani a percepire volti e pattern in oggetti inanimati, come la famosa “Madonna” apparsa in un panino alla griglia nel 1994, venduto successivamente per 28.000 dollari. Ma quanto sappiamo veramente di questo fenomeno? E, soprattutto, può essere replicato nelle macchine?
Un nuovo studio del MIT Computer Science and Artificial Intelligence Laboratory (CSAIL) esplora la questione in modo innovativo, introducendo un dataset di immagini etichettate manualmente da esseri umani, che comprende oltre 5.000 esempi di volti pareidolici. Questo studio offre nuove prospettive sulla percezione umana e algoritmica, rivelando differenze interessanti e potenziali legami evolutivi tra la capacità di riconoscere volti animali e il fenomeno della pareidolia.
L’uso dell’intelligenza artificiale (IA) nelle indagini criminali sta trasformando il modo in cui le forze dell’ordine operano, ma porta con sé anche una serie di sfide etiche e legali. Questo articolo esplorerà le opportunità e i rischi associati all’implementazione dell’IA nel contesto della giustizia penale, facendo riferimento a diverse fonti, tra cui il MIT e altre analisi recenti.
I ricercatori del Massachusetts Institute of Technology (MIT) hanno utilizzato il modello GPT-3.5 di OpenAI per sviluppare un chatbot che simula una conversazione naturale. Gli utenti rispondono a domande sulla loro vita e aspirazioni, e il sistema genera una “memoria sintetica” del loro futuro, permettendo di visualizzare esperienze significative che potrebbero accadere nella loro vita futura.
MIT ha recentemente introdotto ScribblePrompt, uno strumento interattivo di intelligenza artificiale progettato per semplificare e velocizzare il processo di etichettatura delle immagini mediche, come risonanze magnetiche (MRI) e radiografie. Questo innovativo sistema riduce il tempo di annotazione del 28% rispetto ad altri metodi, come il Segment Anything Model (SAM) di Meta, permettendo ai medici di concentrarsi su analisi più critiche.
Secondo i ricercatori del MIT e dell’Università della California, Irvine, l’uso di intelligenza artificiale conversazionale basata su grandi modelli linguistici (LLM) può amplificare la creazione di falsi ricordi negli esseri umani. Questa scoperta solleva preoccupazioni significative riguardo all’applicazione di tali tecnologie in contesti delicati, come gli interrogatori dei testimoni.
I ricercatori del MIT hanno sviluppato un algoritmo innovativo chiamato “Estimate, Extrapolate, and Situate ” (EES), che segna un importante passo avanti nel campo della robotica. Questo approccio integra modelli linguistici avanzati con dati di movimento dei robot, consentendo loro di addestrarsi autonomamente e di adattarsi più facilmente a nuovi compiti e ambienti.
Huggingface ha presentato una demo di BiRefNet , un modello concesso in licenza dal MIT, per la rimozione gratuita dello sfondo delle immagini.
Provatelo
Non sono io a dirlo ma alcune studiose del MIT. Sasha Luccioni, con Emma Strubell e Yacine Jernite, hanno testato 88 modelli su 30 set di dati da 10 attività diverse con modalità diverse e hanno trovato cose davvero interessanti:
- I compiti generativi e quelli che coinvolgono le immagini consumano più energia e carbonio rispetto ai compiti discriminativi e a quelli che coinvolgono il testo. Abbiamo scoperto che Stable Diffusion XL utilizza quasi 1 carica telefonica di energia per generazione.
- La formazione continua ad essere molto più ad alta intensità di energia e di carbonio rispetto all’inferenza. Sono necessari dai 200 ai 500 milioni di deduzioni da un modello della famiglia BLOOM per raggiungere la quantità di energia utilizzata durante l’allenamento. Ma questo può essere raggiunto abbastanza velocemente per un modello popolare utilizzato da milioni di utenti, come ChatGPT.
L’utilizzo di modelli multiuso per compiti discriminativi richiede un maggiore dispendio energetico rispetto ai modelli specifici per compiti per gli stessi compiti. Ciò è particolarmente vero per l’analisi del sentiment e la risposta alle domande. La differenza può essere un fattore di 30 volte a seconda del set di dati.
Ma c’è una cosa di cui la gente non parla abbastanza, ed è l’impronta di carbonio dell’Intelligenza Artificiale. Uno dei motivi è che le grandi aziende tecnologiche non condividono l’impronta di carbonio della formazione e dell’utilizzo dei loro enormi modelli, e non disponiamo di metodi standardizzati per misurare le emissioni di cui è responsabile l’intelligenza artificiale. E anche se sappiamo che addestrare modelli di Intelligenza Artificiale è altamente inquinante , le emissioni attribuibili all’utilizzo dell’Intelligenza Artificiale finora sono state un tassello mancante. Cioè, fino ad ora.
In un nuovo studio condotto dai ricercatori della startup AI Hugging Face e della Carnegie Mellon University, generare un’immagine utilizzando un potente modello di Intelligenza Artificiale richiede la stessa quantità di energia necessaria per caricare completamente uno smartphone. Tuttavia, hanno scoperto che l’utilizzo di un modello di Intelligenza Artificiale per generare testo richiede molta meno energia. La creazione di testo 1.000 volte consuma solo il 16% della carica completa di uno smartphone.
Il loro lavoro, che deve ancora essere sottoposto a revisione paritaria, mostra che, sebbene l’addestramento di enormi modelli di Intelligenza Artificiale richieda un’enorme quantità di energia, è solo una parte del quadro. La maggior parte della loro impronta di carbonio deriva dal loro utilizzo effettivo.
Lo studio segna la prima volta che i ricercatori calcolano le emissioni di carbonio causate dall’utilizzo di un modello di Intelligenza Artificiale per vari compiti, secondo Sasha Luccioni, ricercatrice di intelligenza artificiale presso Hugging Face che ha guidato il lavoro. Spera che la comprensione di queste emissioni possa aiutarci a prendere decisioni informate su come utilizzare l’intelligenza artificiale in un modo più rispettoso del pianeta.
Il consumo di energia e l’impronta di carbonio dell’intelligenza artificiale sono un argomento sempre più importante con la crescita dell’uso dei sistemi di intelligenza artificiale.
Il consumo energetico dei sistemi di Intelligenza Artificiale può essere suddiviso in due fasi principali: addestramento e inferenza.
La fase di formazione, che prevede l’insegnamento del modello di Intelligenza Artificiale utilizzando grandi quantità di dati, è in genere più dispendiosa in termini di energia.
La fase di inferenza, che prevede l’utilizzo del modello addestrato per effettuare previsioni o decisioni, generalmente consuma meno energia ma può comunque accumularsi nel tempo, soprattutto per i sistemi che effettuano previsioni frequenti.
Il consumo energetico dei sistemi di Intelligenza Artificiale è in gran parte determinato dall’hardware e dall’infrastruttura che utilizzano. Ciò include i computer e i server utilizzati per l’addestramento e l’inferenza, nonché i data center che ospitano questi sistemi. Hardware e infrastrutture più efficienti dal punto di vista energetico possono ridurre significativamente il consumo di energia e l’impronta di carbonio dei sistemi di intelligenza artificiale.
La generazione di immagini è di gran lunga l’attività basata sull’Intelligenza Artificiale più dispendiosa in termini di energia e carbonio.
La generazione di 1.000 immagini con un potente modello di intelligenza artificiale, come Stable Diffusion XL, è responsabile della produzione di una quantità di anidride carbonica pari a quella di guidare l’equivalente di 4,1 miglia in un’auto media a benzina.
L’impronta di carbonio dei sistemi di Intelligenza Artificiale dipende anche dalle fonti energetiche utilizzate per alimentarli. I sistemi di Intelligenza Artificiale alimentati da fonti di energia rinnovabile, come l’energia eolica o solare, hanno un’impronta di carbonio inferiore rispetto a quelli alimentati da combustibili fossili.
ESG – La ricerca di Luccioni evidenzia anche come le emissioni legate all’uso dell’intelligenza artificiale dipenderanno da dove verrà utilizzata, afferma Jesse Dodge, ricercatore presso l’Allen Institute for AI, che non ha preso parte allo studio. L’impronta di carbonio dell’intelligenza artificiale in luoghi in cui la rete elettrica è relativamente pulita, come la Francia , sarà molto inferiore rispetto a luoghi con una rete fortemente dipendente dai combustibili fossili, come alcune parti degli Stati Uniti.
Esistono varie strategie per rendere i sistemi di AI più efficienti dal punto di vista energetico, come l’utilizzo di modelli più piccoli, l’ottimizzazione di algoritmi per l’efficienza energetica o l’utilizzo di tecniche come la potatura o la quantizzazione per ridurre i requisiti computazionali dei modelli di AI.
Politiche e normative: le politiche e le normative possono svolgere un ruolo chiave nel ridurre il consumo di energia e l’impronta di carbonio dell’AI. Ciò potrebbe comportare la definizione di standard di efficienza energetica per i sistemi di intelligenza artificiale, l’incentivazione dell’uso di energie rinnovabili o la richiesta alle aziende di segnalare e ridurre le proprie emissioni di carbonio.
Ecco alcuni numeri che evidenziano il consumo energetico e l’impronta di carbonio dell’AI:
Uno studio pubblicato su Nature Climate Change nel 2019 ha stimato che l’addestramento di un singolo modello di intelligenza artificiale può emettere tanto carbonio quanto cinque automobili nel corso della loro vita. Ciò equivale a circa 284.000 libbre (129.000 chilogrammi) di anidride carbonica.
Secondo un rapporto del 2020 dell’Agenzia internazionale per l’energia (IEA), i data center, che ospitano molti sistemi di intelligenza artificiale, rappresentano circa l’1% del consumo globale di elettricità. Ciò equivale all’incirca al consumo di elettricità dell’intero paese dell’Australia.
Uno studio del 2020 condotto da ricercatori dell’Università del Massachusetts, Amherst, ha stimato che l’energia utilizzata per l’inferenza dell’intelligenza artificiale nei data center potrebbe rappresentare il 2,5% del consumo globale di elettricità entro il 2030.
Un rapporto del 2020 di OpenAI ha rilevato che la quantità di potenza di calcolo utilizzata nelle più grandi sessioni di formazione sull’intelligenza artificiale è raddoppiata ogni 3,4 mesi dal 2012. Tuttavia, il rapporto ha anche osservato che i miglioramenti nell’efficienza dell’hardware hanno aiutato per compensare parte di questo aumento del consumo di energia.
Alcune aziende di intelligenza artificiale stanno compensando le proprie emissioni di carbonio. Ad esempio, Google è a zero emissioni di carbonio dal 2007 e mira a operare con energia priva di emissioni di carbonio 24 ore su 24, 7 giorni su 7 in tutti i suoi data center e campus in tutto il mondo entro il 2030.
L’Unione Europea ha fissato l’obiettivo di ridurre le proprie emissioni di gas serra di almeno il 55% entro il 2030 rispetto ai livelli del 1990, e di raggiungere l’azzeramento delle emissioni nette entro il 2050. Questi obiettivi potrebbero portare a riduzioni il consumo energetico e l’impronta di carbonio dell’intelligenza artificiale nell’UE.