La visione computerizzata (CV), è una branca dell’Intelligenza Artificiale (IA) che si occupa di estrarre informazioni rilevanti da immagini e video, analogamente al processo di percezione visiva umana. Nella biomedicina, l’applicazione della CV è particolarmente avanzata nel campo della diagnostica per immagini, dove i macchinari per la Tomografia Assiale Computerizzata (TAC) e la Tomografia a Emissione di Positroni (PET) beneficiano enormemente di questa tecnologia.

L’integrazione della CV in questi strumenti non solo migliora la risoluzione delle immagini, ma consente anche l’analisi automatizzata e l’estrazione di caratteristiche anatomiche e patologiche con una precisione senza precedenti. In questo articolo, descriveremo gli avanzamenti più significativi nell’uso della CV nelle tecnologie TAC e PET di General Electric (GE), con particolare attenzione ai modelli di intelligenza artificiale utilizzati e agli aspetti tecnici legati all’interferenza.

Modelli di deep learning applicati alla TAC e PET

Uno degli elementi chiave che permettono alla CV di funzionare efficacemente sui macchinari TAC e PET è l’uso di modelli di deep learning, in particolare le reti neurali convoluzionali (CNN). Le CNN sono particolarmente adatte al riconoscimento di schemi visivi, come tessuti, organi e anomalie, grazie alla loro capacità di rilevare dettagli complessi a vari livelli di astrazione.

Esempio di modello: Rete Neurale Convoluzionale (CNN) per la segmentazione automatizzata

Un esempio tipico di modello utilizzato da GE, come esempio, è una rete CNN addestrata per la segmentazione semantica di immagini TAC e PET. Questo modello prende in input immagini medicali tridimensionali e le divide in aree specifiche corrispondenti a diversi tessuti o organi.

Il modello è composto da diversi strati convoluzionali, ciascuno dei quali estrae progressivamente caratteristiche più complesse dalle immagini in ingresso. Un tipico approccio prevede l’uso di un’architettura encoder-decoder, dove l’encoder riduce la dimensionalità dell’immagine per identificare le caratteristiche chiave, mentre il decoder ricostruisce l’immagine segmentata a partire dalle caratteristiche estratte.

Interferenza del modello: Fasi operative

L’interferenza del modello in un ambiente clinico reale è il processo attraverso il quale il modello, dopo essere stato addestrato su un grande dataset, viene utilizzato per fare previsioni o analisi su nuove immagini medicali. Di seguito sono riportate le principali fasi operative del processo di inferenza:

  1. Pre-processamento delle immagini: L’immagine TAC o PET grezza acquisita dal macchinario viene sottoposta a una serie di operazioni di pre-processamento, come la normalizzazione, la riduzione del rumore e la registrazione (allineamento) multimodale. Questo garantisce che le immagini siano pronte per essere analizzate dal modello.
  2. Inferenza della rete neurale: L’immagine pre-processata viene fornita in input al modello CNN addestrato. A questo punto, il modello analizza ogni singolo pixel (o voxel, nel caso di immagini tridimensionali) e assegna etichette corrispondenti a diverse categorie anatomiche o patologiche (ad esempio, tessuti sani, tumori, organi specifici).
  3. Post-processamento dei risultati: I risultati ottenuti dall’inferenza vengono elaborati ulteriormente per rimuovere eventuali errori di classificazione e per evidenziare aree di interesse specifico, come lesioni tumorali o anomalie strutturali. Questa fase spesso include tecniche di affinamento come la morphological filtering o conditional random fields (CRF), che migliorano la coerenza spaziale delle predizioni.
  4. Visualizzazione e integrazione clinica: I dati risultanti, come le immagini segmentate o le mappe di attività metabolica nel caso della PET, vengono visualizzati su un’interfaccia utente intuitiva per i medici. GE ha sviluppato soluzioni integrate che permettono di combinare i dati della TAC e della PET in una singola visualizzazione multimodale, facilitando la diagnosi e la pianificazione dei trattamenti.

Sfide nell’implementazione e nella precisione del modello

Anche se i modelli di deep learning applicati alla TAC e PET di GE hanno ottenuto risultati notevoli, ci sono diverse sfide tecniche legate all’interferenza e alla precisione:

  1. Generalizzazione del modello: Un modello addestrato su un dataset specifico può non generalizzare bene su immagini provenienti da altri macchinari o da centri clinici con parametri di acquisizione diversi. Per mitigare questo problema, GE utilizza tecniche di transfer learning, che consentono di adattare i modelli addestrati su grandi dataset a scenari clinici specifici.
  2. Variabilità dei dati: Le immagini mediche possono presentare variabilità a causa di fattori come la differente qualità del macchinario, la dose di radiazione, o lo stato fisiologico del paziente. L’uso di GAN (Generative Adversarial Networks) per generare immagini sintetiche può aiutare a migliorare la robustezza del modello, aumentando la varietà dei dati su cui viene addestrato.
  3. Tempo di inferenza: L’uso di modelli complessi come le CNN richiede risorse computazionali significative, e il tempo di inferenza può essere un fattore critico, specialmente in contesti clinici dove la velocità è essenziale. GE ha ottimizzato i propri modelli tramite tecniche come la quantizzazione dei pesi o l’uso di acceleratori hardware specifici (GPU o FPGA), riducendo i tempi di inferenza senza compromettere la precisione.

Conclusione

L’implementazione della Computer Vision nelle tecnologie TAC e PET di General Electric rappresenta un significativo passo avanti nell’evoluzione della diagnostica per immagini. L’uso di modelli di deep learning, come le reti neurali convoluzionali, permette una segmentazione automatizzata di alta precisione e il riconoscimento di anomalie, migliorando la qualità della diagnosi e la tempestività degli interventi. Tuttavia, l’integrazione di questi modelli richiede una gestione accurata delle sfide legate alla generalizzazione, alla variabilità dei dati e ai requisiti computazionali, rendendo cruciale un approccio flessibile e avanzato nello sviluppo e nell’ottimizzazione degli algoritmi.

General Electric continua a investire nell’innovazione, con l’obiettivo di rendere i macchinari TAC e PET sempre più affidabili, precisi e integrati con le tecnologie di Intelligenza Artificiale, aprendo così la strada a un futuro di medicina più predittiva e personalizzata.


Vediamo un esempio dettagliato su come l’apprendimento profondo (deep learning, DL) viene utilizzato nella ricostruzione delle immagini in radiologia, focalizzandoci sul miglioramento del QI e sui benefici clinici.

Imaging a bassa dose con Tomografia Computerizzata (TC)

L’uso di basse dosi di radiazioni nelle TC è desiderabile per ridurre l’esposizione del paziente ai raggi X. Tuttavia, questo porta a immagini di qualità inferiore, con più rumore e artefatti. Il compromesso tra riduzione della dose e qualità dell’immagine è uno dei problemi principali della TC.

Sfida: Rumore nelle immagini a bassa dose

Riducendo la dose, l’immagine risultante è affetta da rumore, rendendo più difficile distinguere chiaramente le strutture anatomiche o rilevare lesioni sottili. Questo può portare a diagnosi errate o ritardate.

Soluzione: Ricostruzione basata su apprendimento profondo

Le reti neurali convoluzionali (Convolutional Neural Networks, CNN) sono state addestrate per prendere immagini rumorose a bassa dose e ricostruirle per ottenere immagini di qualità paragonabile a quelle ottenute con dosi più alte.

  • Esempio concreto: Un modello DL per la denoising Un esempio è l’uso di un modello CNN chiamato Deep Learning Image Reconstruction (DLIR). Questo modello viene addestrato utilizzando immagini ad alta dose (con basso rumore) e immagini a bassa dose (con alto rumore), permettendo alla rete di imparare a “ripulire” il rumore senza perdere dettagli importanti. Il risultato è un’immagine finale che ha la qualità di una scansione ad alta dose ma con una dose di radiazioni notevolmente ridotta.

Miglioramento del QI

Grazie a questa tecnica, si ottengono immagini:

  • Con maggiore nitidezza e dettagli,
  • Con riduzione significativa del rumore,
  • In grado di evidenziare piccole anomalie come noduli polmonari o microcalcificazioni che altrimenti sarebbero state difficili da rilevare in un’immagine rumorosa.

Risonanza Magnetica (RM) Accelerata

Un’altra applicazione dell’apprendimento profondo nella ricostruzione delle immagini riguarda la risonanza magnetica (RM). Gli esami RM tendono a richiedere molto tempo, il che può causare disagio al paziente e limitare il throughput del reparto di radiologia.

Sfida: Lentezza degli esami RM

Per garantire un’elevata qualità delle immagini, le sequenze di acquisizione nella RM richiedono diversi minuti. Accelerare troppo il processo può portare a immagini incomplete o di bassa qualità.

Soluzione: Modelli DL per la ricostruzione accelerata

Modelli di apprendimento profondo, come le reti neurali ricorrenti e le reti generative avversarie (GAN), sono stati applicati per accelerare il processo di acquisizione delle immagini RM. Queste reti sono in grado di ricostruire immagini ad alta risoluzione da dati incompleti, riducendo drasticamente il tempo di scansione.

  • Esempio concreto: FastMRI di Facebook e NYU Un progetto innovativo è il FastMRI, sviluppato da Facebook AI e New York University. Utilizzando un modello di apprendimento profondo, le immagini vengono ricostruite in modo accurato anche quando solo una piccola frazione dei dati necessari è acquisita. Questo significa che il tempo della scansione può essere ridotto fino a 4 volte, senza sacrificare la qualità dell’immagine.

Miglioramento del QI e risultati dei pazienti

Con scansioni più rapide e di alta qualità, si ottengono numerosi vantaggi clinici:

  • Riduzione del tempo trascorso dal paziente nello scanner, migliorando il comfort,
  • Maggiore capacità di imaging per il reparto, permettendo di eseguire più esami al giorno,
  • Riduzione dei tempi di attesa per i pazienti,
  • Diagnosi più rapide e accurate, specialmente per patologie come tumori, lesioni muscoloscheletriche o malattie neurologiche.

Risultati clinici migliorati

L’uso dell’apprendimento profondo non solo migliora la qualità delle immagini, ma può anche influenzare positivamente il trattamento e i risultati clinici dei pazienti:

  • Diagnosi più precoce e accurata: Le immagini più nitide e dettagliate ottenute con tecniche di deep learning consentono ai radiologi di rilevare lesioni o patologie in fase iniziale, migliorando le possibilità di trattamento precoce.
  • Riduzione dell’esposizione ai raggi: Tecniche di denoising per le immagini TC a bassa dose riducono la necessità di esami ripetuti e minimizzano l’esposizione del paziente alle radiazioni.
  • Maggiore efficienza e riduzione dei costi: Accelerare i tempi delle scansioni RM può ridurre i costi ospedalieri, aumentare la capacità di imaging e migliorare il flusso di lavoro.
  • Personalizzazione del trattamento: Con una migliore risoluzione delle immagini, i medici possono pianificare interventi chirurgici o trattamenti radioterapici in modo più preciso, adattando le terapie alle caratteristiche specifiche del paziente.

REFERENCES

[1] Yoh. Predicting consumer behavior with AI. Yoh.com. Published 2022. https://www.yoh.com/blog/predicting-consumer-behavior-with-ai. Accessed January 23, 2023.

[2] Lee D, Yoon SN. Application of artificial intelligence-based technologies in the healthcare industry: Opportunities and challenges. Int J Environ Res Public Health. 2021;18(1):271. doi:10.3390/ijerph18010271.

[3] GlobalData Healthcare. Digital transformation and emerging technology in the healthcare industry – 2022 edition. Pharmaceutical-technology.com. https://www.pharmaceutical-technology.com/comment/ai-investment-healthcare/. Accessed January 23, 2023.

[4] Reuter E. 5 takeaways from the FDA’s list of AI-enabled medical devices. Medtechdive.com. Published 2022. https://www.medtechdive.com/news/FDA-AI-ML-medical-devices-5-takeaways/635908/. Accessed January 23, 2023.

[5] FDA. Artificial intelligence and machine learning (AI/ML)-enabled medical devices. FDA.gov. Updated 2022. https://www.fda.gov/medical-devices/software-medical-device-samd/artificial-intelligence-and-machine-learning-aiml-enabled-medical-devices. Accessed January 23, 2023.

GE HealthCare. ClearReadTM CT. https://apps.gehealthcare.com/app-products/clearread-ct. Accessed January 23, 2023.  

7 Soffer S, Ben-Cohen A, Shimon O, et al. Convolutional neural networks for radiologic images: A radiologist’s guide. Radiology. 2019;290(3). https://doi.org/10.1148/radiol.2018180547.

8 IMV Medical Information Division. 2019 X-ray/CR/DR benchmark report. IMVinfo.com. Pages 9, 37. https://imvinfo.com/product/2019-x-ray-dr-cr-benchmark-report/. Accessed January 23, 2023.