AI a supporto della diagnostica

I metodi basati sul Deep Learning sono attualmente i candidati preferenziali per la messa a punto di nuovi approcci in questo campo

L’idea di sviluppare strumenti per l’interpretazione automatica di immagini mediche risale a più di mezzo secolo fa. I primi tentativi di lettura automatica di immagini radiologiche risalgono agli anni Sessanta. Lo sviluppo sistematico di algoritmi di questo tipo è avvenuto a partire dagli anni Ottanta, non appena i primi computer hanno cominciato a diffondersi rendendo possibile l’elaborazione di immagini digitali. Tuttavia, c’è ancora molto lavoro da fare.

L’Intelligenza Artificiale (AI) sta emergendo in questi anni come una possibile tecnologia chiave in molti campi, incluso quello medico. In realtà non è una novità nell’ambito dell’imaging diagnostico, in quanto i primi tentativi di lettura automatica di immagini radiologiche risalgono addirittura agli anni Sessanta. Lo sviluppo sistematico di algoritmi di questo tipo è avvenuto a partire dagli anni Ottanta, non appena i primi computer hanno cominciato a diffondersi rendendo possibile l’elaborazione di immagini digitali.

La stretta collaborazione tra i radiologi e i fisici medici del Dipartimento di Radiologia dell’Università di Chicago ha aperto la strada alla diagnosi assistita da computer, attraverso lo sviluppo di sistemi CAD (acronimo per computer-aided diagnosis). A quel tempo le radiografie erano analogiche, ossia pellicole fotografiche, ed era necessario digitalizzarle prima di procedere alla loro elaborazione. Quest’ultima poteva consistere nell’implementazione di filtri di immagini, il cui scopo era quello di evidenziare segni particolari o strutture tissutali di interesse, seguiti dalla codifica di una serie di regole volte a identificare le regioni dell’immagine con più alta probabilità di contenere una lesione da segnalare al medico. Si trattava di Intelligenza Artificiale in quanto si intendeva far riprodurre a una macchina il processo logico che il radiologo compie quando referta un’immagine diagnostica.

shutterstock_2338269029_scienze_2024_04_reticoL’obiettivo degli sviluppatori dei sistemi CAD è stato fin da subito quello di realizzare sistemi automatici per supportare il lavoro dei radiologi, non quello di sostituirli ad essi.

Un contributo estremamente rilevante allo sviluppo di questi sistemi lo hanno dato fin dagli anni Novanta le tecniche di apprendimento automatico (Machine Learning, ML), che rappresentano un ampio sottoinsieme di metodi di AI costituito da algoritmi che consentono alle macchine di imparare direttamente dagli esempi. Questa proprietà è molto importante per le applicazioni nell’ambito dell’imaging diagnostico, in quanto permette di evitare di dover codificare passo per passo un processo decisionale estremamente complesso come quello che porta il medico a diagnosticare una patologia.

Negli ultimi 30 anni le tecniche di ML hanno permesso di realizzare innumerevoli sistemi di supporto alla diagnosi che analizzano immagini mediche acquisite con diverse tecniche di imaging utilizzate nella pratica clinica, quali la radiografia, la mammografia, la risonanza magnetica, la PET, lecografia ecc. La procedura di analisi più comunemente usata prevede l’estrazione di caratteristiche descrittive da un’immagine digitale, o da una porzione dell’immagine che si ritiene particolarmente interessante, e l’addestramento di un algoritmo di ML che possa apprendere la relazione tra questi parametri descrittivi numerici e la categoria diagnostica a cui l’immagine appartiene (per esempio, individuo sano o paziente affetto da patologia).

La conversione di un’immagine medica o parte di essa in una grande quantità di parametri che la descrivono viene chiamata oggi Radiomica. Le caratteristiche radiomiche possono in generale essere elaborate tramite diversi metodi di analisi, come i test statistici tradizionali, ma molto spesso vengono elaborate con il ML per creare modelli predittivi. Un sistema decisionale addestrato è infatti in grado di fornire una predizione su una nuova immagine, ossia un’immagine che non è entrata nel processo in fase di addestramento. Modelli predittivi di questo tipo, a seconda della tipologia di dati su cui sono stati addestrati, possono essere in grado di individuare la presenza di lesioni in un’immagine, di predire la categoria diagnostica di un soggetto, o anche l’esito di un trattamento terapeutico.

Sono molti gli algoritmi di ML che si possono utilizzare a tale scopo, come le Foreste Decisionali (Random Forest, RF), le Macchine a Vettori di Supporto (Support Vector Machine, SVM) o le Reti Neurali Artificiali (Artificial Neural Network, ANN).

AI_Scienze_04_2024_Retico_Fig01© Alessandra Retico

Quest’ultima categoria di modelli, che si ispira al funzionamento del cervello umano emulando il comportamento dei neuroni, sta riscuotendo in questi anni un rinnovato interesse grazie al fatto che la disponibilità di adeguate risorse computazionali rende ora possibile l’addestramento delle cosiddette reti neurali profonde (Deep Neural Network, DNN). Le DNN sono un sottoinsieme delle ANN, caratterizzato dalla presenza di numerosi strati di neuroni artificiali tra lo strato di ingresso, che riceve le informazioni fornite alla rete, e quello di uscita, che restituisce la predizione del modello. Essendo costituiti da diversi strati di neuroni artificiali interconnessi, le DNN hanno una maggiore capacità di apprendimento (Deep Learning, DL) e quindi maggiore capacità di sfruttare piccoli segni patologici nascosti nelle immagini al fine di costruire modelli predittivi molto efficienti.

AI_Scienze_04_2024_Retico_Fig02

Sinistra. Le reti neurali artificiali sono costituite da diversi nodi di elaborazione interconnessi, chiamati neuroni in quanto il loro funzionamento si ispira a quello nei neuroni biologici. Come il nucleo di una cellula neuronale riceve input dai dendriti, elabora l’informazione e in caso si attiva per mandare segnali ad altri neuroni attraverso l’assone e le sue terminazioni sinaptiche, analogamente il neurone artificiale riceve i segnali di input, li somma pesandone i contributi, e se la somma supera una certa soglia si attiva mandando un segnale al neurone a cui è connesso. 
Destra. Il modello più semplice di rete neurale è costituito da tre strati interconnessi di neuroni: lo strato che riceve i valori di ingresso (input layer), lo strato intermedio (nascosto) che elabora l’informazione (hidden layer) e lo strato che fornisce i valori in uscita (output layer). In una rete neurale profonda contiene più strati nascosti tra input e output, ed ha quindi una maggiore capacità di elaborare le informazioni.

Di grande rilevanza per le analisi delle immagini mediche sono le reti neurali convoluzionali (Convolutional Neural Network, CNN), che possono ricevere in ingresso direttamente un’immagine ed elaborarla, senza necessità di codificare mediante tecniche di elaborazione dell’immagine il calcolo di caratteristiche descrittive salienti, un passaggio di per sé soggetto a una possibile perdita di informazione. In pratica la CNN ha la possibilità di estrarre automaticamente tutte le informazioni utili nascoste nell’immagine per poterle poi sfruttare nella fase di classificazione.

AI_Scienze_04_2024_Retico_Fig03

© Alessandra Retico

Sistema LungQuant sviluppato da ricercatori INFN per l’identificazione di lesioni polmonari dovute a polmonite da COVID-19. Il sistema, basato sul Deep Learning, riceve in ingresso la TAC del paziente (A), analizza la matrice tridimensionale di dati mediante una combinazione di tre reti convoluzionali e restituisce in uscita la maschera dei polmoni (B) e quella delle lesioni polmonari (C). Questo sistema, disponibile come pacchetto software open source, permette di quantificare la percentuale di volume polmonare compromesso a causa della polmonite da COVID-19.

Uno svantaggio dell’utilizzo di metodi di DL è che , in fase di addestramento, necessitano di grandi quantità di immagini le relative annotazioni cliniche, in genere non semplici da raccogliere. In molti casi la quantità di esempi che vengono forniti ai modelli per l’allenamento è piuttosto limitata e può capitare che, anche se le prestazioni del modello si rivelano buone in fase di addestramento, difficilmente queste risultino generalizzabili in un test su una casistica più ampia (il problema è noto nel campo del ML come overfitting).

In generale, un test delle prestazioni di un algoritmo di ML su un campione di dati ampio e indipendente dai dati usati in fase di addestramento sarebbe assolutamente necessario per valutarne l’affidabilità. È stato invece riportato che, sebbene diversi sistemi basati su AI per l’analisi delle immagini mediche siano disponibili in commercio con marchio CE, per molti di essi non esistono pubblicazioni scientifiche che ne riportino le prestazioni su una casistica di test ampia e quindi ne dimostrino l’affidabilità.

Una sfida che il mondo della ricerca in ambito AI sta affrontando in questi anni è relativa allo sviluppo di strategie e metodi per rendere spiegabili i modelli di DL. Attualmente questi sono considerati delle scatole nere (black box) che forniscono una risposta a un problema senza che siano comprensibili per un osservatore umano le motivazioni sulla base delle quali una certa decisione viene presa. Nell’ambito della diagnostica medica – e analogamente in altri campi di utilizzo dell’AI come, per esempio, la guida autonoma di veicoli – questo è uno dei principali problemi da risolvere.

Tra le altre sfide aperte per la ricerca c’è anche quella di come integrare dati provenienti da più fonti diverse, quali le immagini diagnostiche, le diverse informazioni presenti nella cartella clinica incluse le descrizioni testuali, il profilo genetico e le informazioni sullo stile di vita di ciascun individuo. Sono ancora da disegnare, sviluppare e validare algoritmi basati su AI che integrino tutte queste informazioni eterogenee al fine di poter in futuro disporre di modelli predittivi per identificare precocemente quei soggetti con alta probabilità di sviluppare una patologia.

Sebbene quindi l’idea di sviluppare strumenti per l’interpretazione automatica di immagini mediche risalga a più di mezzo secolo fa, la complessità delle problematiche mediche da affrontare, la varietà della strumentazione per l’imaging oggi a disposizione e l’eterogeneità delle informazioni complementari sul paziente da tenere in considerazione (per esempio quelle cliniche, demografiche, ambientali e di stile di vita) fanno sì che ci sia ancora molto lavoro di ricerca e sviluppo da fare. I metodi basati sul DL sono i candidati preferenziali per la messa a punto di nuovi approcci che, sfruttando tutti i dati disponibili per un paziente, possano fare predizioni individuali sia in ambito diagnostico che terapeutico, realizzando quindi l’obiettivo della medicina di precisione.

Per saperne di più

Bibliografia

Referenze iconografiche: sdecoret/Shutterstock, Radiological imaging/Shutterstock, Irina Dozdet/Shutterstock,
mohammadjamhuri/Shutterstock, inspiring.team/Shutterstock

Alessandra Retico

È ricercatrice presso la sezione di Pisa dell’INFN. Si occupa di applicazioni della fisica alla medicina, in particolare in relazione alle tecniche di imaging diagnostico. È coordinatrice nazionale del progetto “Artificial Intelligence in Medicine: next steps” (next_AIM) dell’INFN, relativo allo sviluppo di metodologie basate sull’intelligenza artificiale per analisi di dati e immagini biomediche.