Martedì 25 febbraio 2025 – Nel corso del convegno organizzato dal Gruppo 2003 in collaborazione con l’Accademia dei Lincei, esperti di diversi settori scientifici si sono confrontati sulle potenzialità e le sfide poste dall’Intelligenza Artificiale nell’ottimizzazione dei processi di ricerca.
L’evento, svoltosi a Roma, ha messo in luce come l’IA stia trasformando non solo le discipline tradizionali, ma anche i metodi di simulazione e analisi in settori quali fisica, chimica, meteorologia e medicina.
Dall’Innovazione Chimica all’Energia del Futuro
La giornata si è aperta con l’introduzione di Michele Parrinello, presentato da Nicolò Giosebianchi. Laureato in fisica, Parrinello sta conducendo ricerche pionieristiche sull’applicazione dell’IA nei processi chimici, con particolare riferimento al noto procedimento Haber-Bosch. Sebbene il processo, inventato da Haber e Bosch, abbia rivoluzionato la produzione di ammoniaca, esso si caratterizza per un elevato consumo energetico e per la produzione di gas serra. Oggi, grazie all’impiego dell’IA, si prospetta un utilizzo alternativo: sfruttare l’ammoniaca per la produzione di idrogeno, riducendo così l’impatto ambientale.
Tuttavia, la complessità degli strumenti necessari per misurare e simulare le reazioni ad alta temperatura rende difficile l’accesso ai dati utili per gli algoritmi di machine learning. Nonostante la potenza di calcolo richiesta sia imponente, l’IA promette di accelerare i processi di simulazione, ottenendo risultati scientifici in tempi decisamente ridotti.
Previsioni Meteo e Big Data: Il Contributo dell’IA
Sul fronte meteorologico, Umberto Modigliani, vicedirettore del Centro di Calcolo ECMWF di Bologna, ha illustrato le sfide legate all’aumento della precisione nei modelli di previsione. L’Integrated Forecast System, che opera basandosi su principi fisici e riceve aggiornamenti dati ogni minuto, è attualmente vincolato da griglie di 9 km per lato. Per migliorare la risoluzione e ottenere previsioni più dettagliate, si punta a ridurre il lato delle griglie a 1,5 km – un cambiamento che moltiplica per mille la mole di dati da elaborare.
In questo scenario, l’introduzione di un Artificial Intelligence Forecasting System a partire da febbraio ha rappresentato un notevole passo avanti. Pur essendo il modello IA, che fornisce previsioni a intervalli di 6 ore, meno “dinamico” rispetto al sistema fisico, il suo impiego comporta un consumo energetico operativo paragonabile a quello di una formica – mentre il sistema tradizionale funziona con consumi ridotti, paragonabili a quelli di un “ratto”.
È vero che il training del modello IA richiede un impegno energetico elevato (equivalente a quello di un elefante), ma tale onere non grava sulla fase operativa quotidiana. Inoltre, l’uso di tecniche di IA generativa per “pulire” i grafici dal rumore sta permettendo di passare dalla prima fase, in cui si utilizzavano dati elaborati dalla fisica, a una seconda fase che sfrutta direttamente le informazioni grezze raccolte dall’osservazione, superando il limite dei tradizionali 5% di dati utilizzabili.
L’IA nella Medicina: Diagnostica e Previsioni Personalizzate
Il settore medico continua a essere profondamente rivoluzionato dall’Intelligenza Artificiale. Cristina Messa, della Fondazione Don Gnocchi e dell’Università degli Studi Milano-Bicocca, ha presentato come l’IA stia già migliorando la diagnosi e il trattamento in ambito sanitario, intervenendo su tre aspetti cruciali: complessità, cronicità e continuità.
L’IA permette, infatti, di analizzare con maggiore dettaglio le specificità dei tumori, elaborando modelli predittivi che tengono conto dei fattori di rischio individuali. Le prime applicazioni nel settore dell’imaging – ad esempio, per il riconoscimento delle polmoniti da COVID e per la previsione della demenza da Alzheimer – hanno aperto la strada a soluzioni sempre più sofisticate. Inoltre, l’utilizzo di tecnologie di teleriabilitazione e telerobotica sta contribuendo a raccogliere dati più accurati, personalizzando ulteriormente le strategie terapeutiche.
Tavola Rotonda: Nuove Frontiere e la Sfida degli LLM
Nel pomeriggio, una vivace tavola rotonda moderata da Marco Gori (Università degli Studi di Siena) ha visto la partecipazione di esperti come Maria Chiara Carrozza, Roberto Navigli e Ginevra Cerrina Feroni. Il dibattito si è concentrato sull’impatto dei Large Language Models (LLM) nella creazione di nuovi paradigmi di ricerca e sull’ipotesi di sviluppare “ricercatori virtuali”.
Tra le tematiche emerse, si è discusso della necessità di un approccio trasversale e collaborativo, capace di superare l’atteggiamento troppo settoriale adottato finora dalla comunità scientifica. Alcuni relatori hanno addirittura auspicato la creazione di un “CERN per l’IA”, in grado di coordinare lo sviluppo tecnologico e monitorare l’evoluzione degli algoritmi in un contesto etico e normativo. In questo contesto, il ruolo del finanziamento – soprattutto quello privato, che spesso si contrappone ai limitati investimenti pubblici – è stato individuato come uno degli aspetti più critici da tenere sotto controllo.
Verso una Ricerca Integrata e Responsabile
Il convegno ha rappresentato un momento fondamentale di confronto, evidenziando come l’Intelligenza Artificiale stia accelerando un processo di trasformazione già in atto da oltre vent’anni. Dalle reazioni chimiche ad alta temperatura alla modellazione meteorologica, dalla diagnostica personalizzata in medicina alle nuove frontiere della ricerca con i LLM, il filo conduttore è stato quello della collaborazione interdisciplinare.
Ogni settore – dalla fisica alla zootecnia, dalla robotica al diritto – deve comprendere l’impatto dell’IA sul proprio ambito e contribuire con dati di qualità e approcci innovativi. Solo attraverso un impegno collettivo, che metta al centro la persona e la trasparenza, sarà possibile sfruttare appieno le potenzialità offerte da queste tecnologie, evitando al contempo gli insidiosi rischi derivanti da un uso acritico e non regolamentato.
L’evoluzione del deep learning: dalla pratica alla teoria, il futuro della ricerca secondo il professor Poggio.
Il Professor Poggio del MIT sta concentrando la sua ricerca sullo studio delle teorie alla base del deep learning, un campo che negli ultimi 20 anni ha visto applicazioni pratiche di grande successo ma che ancora manca di una comprensione teorica completa.
Sebbene esistano strumenti che funzionano efficacemente, la comunità scientifica non ha ancora una teoria chiara su perché questi strumenti funzionano. Poggio fa un parallelo con la storia dell’elettricità, quando inizialmente si utilizzavano applicazioni senza una teoria esplicita, teoria che è stata poi sviluppata solo decenni dopo grazie al lavoro di scienziati come Maxwell.
Il suo obiettivo, quindi, è formulare una teoria per spiegare e comprendere il funzionamento profondo delle tecnologie di deep learning, un campo in cui sono stati compiuti progressi significativi, ma in cui c’è ancora molto da esplorare.
Concludendo, il convegno “L’Intelligenza Artificiale e il Futuro della Ricerca” ha offerto spunti preziosi per ripensare il modo in cui la scienza viene condotta oggi, invitando ricercatori e istituzioni a lavorare insieme per costruire un futuro in cui l’innovazione e l’etica possano camminare fianco a fianco.