Oggi siamo stati invitati al convegno Medicina Digitale, Telemedicina e Responsabilità civile, moderato da Gianluca Marmorato, Coordinatore GdL Privacy AiSDeT e aperto da Massimo Caruso, Segretario generale AiSDeT.

La digitalizzazione della sanità sta rivoluzionando il modo in cui pensiamo alla responsabilità medica. Telemedicina, intelligenza artificiale e condivisione dei dati sollevano domande cruciali: chi è responsabile se un errore di diagnosi avviene online o se un algoritmo sbaglia?

Le normative esistenti, pensate per la medicina tradizionale, sembrano insufficienti per queste nuove realtà. Per questo motivo, eventi multidisciplinari come tavole rotonde sono fondamentali per discutere come adattare le leggi alle tecnologie emergenti e proteggere sia i pazienti che i professionisti sanitari coinvolti nei processi di cura digitale.

È il momento di aprire un dibattito ampio e inclusivo per garantire che la medicina digitale sia sicura ed efficace. Non siamo noi di Rivista.AI dei giuristi ma proviamo a cogliere alcuni aspetti dibattuti durante l’evento.

L’espansione della telemedicina ha ridefinito il rapporto tra medico e paziente, trasformando il modello tradizionale in un ecosistema digitale complesso. Questo progresso tecnologico porta con sé una questione cruciale: come si distribuisce la responsabilità giuridica in caso di errore, omissione o mancato accertamento diagnostico? Il quadro normativo deve rispondere a sfide probatorie inedite e a nuove forme di accertamenti tecnici, ridefinendo la responsabilità tra medici, piattaforme digitali e istituzioni sanitarie.

Il principio cardine resta la responsabilità professionale del medico, ma l’uso di strumenti digitali (non è una novità, ormai pervasivi a partire dagli anni 80) implica un’interazione con vari attori, tra cui software provider, operatori sanitari remoti e aziende che sviluppano algoritmi di intelligenza artificiale.

In un contesto tradizionale, la negligenza o l’imperizia del medico possono essere accertate con documentazione clinica e testimonianze dirette; nella telemedicina, invece, la raccolta delle prove si complica. Le piattaforme digitali registrano informazioni essenziali per stabilire se il medico abbia seguito il protocollo corretto, ma la qualità della connessione, l’affidabilità del software e la gestione dei dati diventano variabili decisive per determinare le responsabilità.

Dal punto di vista normativo, in Italia la Legge Gelli-Bianco (Legge 8 marzo 2017, n. 24) rappresenta il principale riferimento per la responsabilità professionale sanitaria. L’articolo 5 di questa legge introduce l’obbligo per il medico di attenersi alle linee guida validate, mentre l’articolo 6 ridefinisce la colpa grave per i professionisti sanitari, distinguendo tra responsabilità contrattuale ed extracontrattuale. Tuttavia, la legge non disciplina in modo specifico la telemedicina, lasciando margini di incertezza interpretativa.

A livello europeo, la Direttiva 2011/24/UE sul diritto dei pazienti all’assistenza sanitaria transfrontaliera riconosce la telemedicina come parte integrante dell’assistenza sanitaria, imponendo agli Stati membri di garantirne la qualità e la sicurezza. Il Regolamento (UE) 2016/679 (GDPR), inoltre, stabilisce obblighi stringenti sulla gestione dei dati sanitari digitali, imponendo alle piattaforme di telemedicina di adottare misure di sicurezza adeguate per la protezione della privacy del paziente.

Dal punto di vista probatorio, la telemedicina introduce la necessità di conservare log di connessione, registrazioni video delle consulenze e tracciamenti algoritmici delle diagnosi suggerite. Un problema chiave è l’autenticità di queste prove: chi garantisce che il dato non sia stato alterato? La catena di custodia digitale deve essere certificata, con soluzioni come la blockchain che “potrebbero” giocare un ruolo decisivo nella validazione delle prove forensi.

Gli accertamenti tecnici, invece, devono adattarsi a una realtà in cui il medico non ha accesso diretto al paziente. La diagnosi a distanza può essere compromessa da immagini di scarsa qualità, strumenti di telemonitoraggio difettosi o limiti intrinseci all’IA utilizzata per l’analisi dei dati sanitari etc etc…

Il perito chiamato a valutare una presunta responsabilità dovrà quindi analizzare non solo la condotta del medico, ma anche il corretto funzionamento della tecnologia, le condizioni in cui si è svolta la visita e l’affidabilità delle informazioni ricevute dal sanitario.

Un altro nodo riguarda la responsabilità delle piattaforme digitali. Se un software di telemedicina suggerisce un trattamento errato o se un bug informatico altera i dati clinici del paziente, il medico rimane l’unico responsabile o la piattaforma condivide l’onere della colpa? La giurisprudenza attuale non offre risposte univoche, ma il trend normativo sembra orientato a una co-responsabilità, specialmente nei casi in cui il sistema digitale influenzi in modo diretto le decisioni del medico.

In Italia, il Piano Nazionale di Ripresa e Resilienza (PNRR) ha introdotto un forte impulso alla digitalizzazione sanitaria, con la previsione di linee guida per l’erogazione dei servizi di telemedicina. Il Decreto del Ministero della Salute del 21 settembre 2022 ha definito gli standard per la telemedicina, stabilendo criteri di sicurezza, tracciabilità e interoperabilità dei dati sanitari. Tuttavia, la normativa sulla responsabilità legale in ambito telemedico resta ancora frammentata e soggetta all’evoluzione della giurisprudenza.

L’evoluzione normativa dovrà stabilire nuovi standard di sicurezza informatica, protocolli di accreditamento per i software sanitari e obblighi specifici per chi fornisce servizi di telemedicina, dovrà inoltre dimostrare l’utilita economica di queste (cost Saving) che secondo alcuni incidono oggi per non piu’ dell’8% sul ticket Finale. Si dovrà quindi evitare di creare un elefent in the room , come dicono gli anglosassoni.

La certificazione degli strumenti digitali e la verifica della loro conformità agli standard clinici saranno elementi chiave per ridurre il rischio legale e proteggere sia i pazienti che i professionisti sanitari.

Si rende necessari discuterne e in fretta, vista l’accellerazione della tecnologia verso l’AGI per fornire al legislatore tutte le informazioni necessarie.

L’integrazione dell’intelligenza artificiale (AI) nei sistemi di telemedicina ha introdotto un nuovo livello di complessità nella distribuzione della responsabilità giuridica. In particolare, i sistemi di autoapprendimento (machine learning e deep learning) pongono una questione cruciale:

chi è responsabile quando l’AI commette un errore diagnostico o suggerisce un trattamento errato? L’individuazione della condotta colpevole in un sistema che evolve autonomamente sfida le categorie tradizionali del diritto, rendendo necessario un ripensamento delle norme sulla responsabilità sanitaria e tecnologica.

D’altronde la tecnologia è ormai pervasiva anche in tutti gli strumenti di workplace che permeano le attività quotidiane di avvocati e magistrati e che per gli stessi motivi potrebbero essere contestati, ma non si tratta di fermare il progresso ma di guidarlo.

Dal punto di vista giuridico, la responsabilità che ne deriva può essere suddivisa in tre livelli principali:

Responsabilità del medico: il professionista sanitario è ancora il principale decisore, anche quando utilizza strumenti basati su AI. Tuttavia, se il medico si affida acriticamente alle indicazioni dell’algoritmo senza verificarne la correttezza, potrebbe configurarsi una culpa in vigilando o una colpa per negligenza. La Legge Gelli-Bianco (Legge 24/2017) impone al medico di attenersi alle migliori pratiche cliniche e linee guida validate, ma cosa accade se l’AI produce un output che devia dagli standard riconosciuti?

Responsabilità del produttore dell’algoritmo: se l’errore deriva da un difetto intrinseco nel modello di AI (ad esempio, bias nei dati di addestramento, errori sistematici nel riconoscimento di patologie), il produttore del software potrebbe essere chiamato in causa. Il Codice del Consumo (D.Lgs. 206/2005) disciplina la responsabilità del produttore per danno da prodotto difettoso, ma un’AI che si modifica autonomamente nel tempo può ancora essere considerata un “prodotto” in senso giuridico?

Responsabilità della struttura sanitaria o della piattaforma di telemedicina: se il sistema AI viene implementato all’interno di una struttura ospedaliera o di una piattaforma privata, la responsabilità potrebbe ricadere su chi ha adottato e messo a disposizione lo strumento, specialmente se non sono stati effettuati controlli adeguati sulla sicurezza e sull’affidabilità dell’algoritmo.

Problemi Probatori e Individuazione della Colpa nei Sistemi di Autoapprendimento

Uno degli ostacoli principali è la ricostruzione della catena causale. A differenza di un errore medico umano, che può essere analizzato attraverso cartelle cliniche e testimonianze, l’errore di un’AI autoapprendente è spesso il risultato di processi decisionali opachi e non lineari.

In giurisprudenza, il principio del “black box problem” evidenzia come alcuni modelli avanzati (ad esempio, le reti neurali profonde) generino decisioni che nemmeno i loro creatori possono spiegare completamente. In questi casi, diventa difficile stabilire se il sistema AI abbia effettivamente agito in modo errato, o se il medico abbia interpretato male il suggerimento algoritmico.

Per affrontare questa sfida, si stanno sviluppando tecniche di Explainable AI (XAI), che mirano a rendere i processi decisionali delle AI più trasparenti. Tuttavia, sul piano probatorio, resta fondamentale stabilire chi aveva il controllo dell’algoritmo nel momento dell’errore e se esistevano procedure di verifica del suo operato.

Approccio Normativo: Le Direttive Europee e il Futuro della Responsabilità AI

L’Unione Europea sta cercando di rispondere a queste sfide attraverso il Regolamento sull’Intelligenza Artificiale (AI Act), che introduce il concetto di AI ad alto rischio per i sistemi sanitari. Questo regolamento prevede che le AI utilizzate in ambito medico debbano rispettare standard rigorosi di trasparenza, affidabilità e supervisione umana.

Inoltre, la Direttiva UE 85/374 sulla responsabilità per danno da prodotto difettoso, potrebbe essere aggiornata per includere le AI autoapprendenti, imponendo ai produttori obblighi più stringenti di sorveglianza e aggiornamento continuo.

Al livello italiano, la Corte di Cassazione ha già riconosciuto in alcune sentenze la responsabilità oggettiva delle strutture sanitarie per errori derivanti da software diagnostici difettosi, ma manca ancora una giurisprudenza consolidata sui sistemi di AI autoapprendenti.

Il Futuro della Responsabilità: Nuove Soluzioni Giuridiche?

La crescente autonomia dell’AI in ambito sanitario potrebbe portare a nuovi modelli di responsabilità, come:

“Responsabilità per colpa algoritmica”: un’ipotesi in cui il sistema AI stesso venga considerato un’entità giuridica con una propria forma di colpa, sul modello della responsabilità delle persone giuridiche (D.Lgs. 231/2001).
“Assicurazione obbligatoria per le AI mediche”: un sistema in cui il rischio di errore viene coperto da fondi di compensazione o polizze assicurative obbligatorie, analogamente a quanto avviene per l’assicurazione RC auto.

Questo modello garantirebbe la copertura dei danni derivanti da diagnosi errate o decisioni terapeutiche inadeguate prese da sistemi di intelligenza artificiale, senza dover individuare necessariamente una responsabilità diretta umana. Un simile approccio ridurrebbe le incertezze legali, trasferendo il rischio al mercato assicurativo e incentivando gli sviluppatori a migliorare continuamente gli algoritmi per ridurre i costi dei premi assicurativi.

Responsabilità condivisa tra medico e AI“: una prospettiva in cui il professionista sanitario rimane responsabile delle decisioni finali, ma con una riduzione del grado di colpa attribuibile in caso di errore dovuto a un malfunzionamento dell’AI. In questo scenario, la giurisprudenza potrebbe evolversi per riconoscere una nuova forma di colpa mista, in cui il medico è tenuto a supervisionare l’AI senza poter essere considerato automaticamente responsabile di un errore generato dal sistema. Questo modello risulterebbe particolarmente efficace nei casi in cui l’AI assuma un ruolo decisionale critico, ma ancora sotto supervisione umana.

Un nuovo status giuridico per l’AI“: l’idea più rivoluzionaria prevede la creazione di una nuova entità giuridica per le intelligenze artificiali, con diritti e doveri propri. Questo approccio, ancora altamente teorico, potrebbe ispirarsi alle forme giuridiche delle aziende o delle fondazioni, consentendo la creazione di fondi autonomi di compensazione per eventuali danni causati dalle decisioni dell’AI. Tuttavia, questa soluzione solleva interrogativi etici e giuridici complessi, tra cui la definizione stessa di soggettività giuridica per un’entità non umana.

La crescente integrazione dell’intelligenza artificiale in ambito sanitario rende sempre più urgente un adeguamento normativo che bilanci innovazione tecnologica e tutela dei pazienti. L’adozione di modelli assicurativi obbligatori, la ridefinizione della responsabilità professionale e l’eventuale riconoscimento giuridico delle AI sono solo alcune delle possibili strade per affrontare le nuove sfide della responsabilità nell’era dell’automazione avanzata.

In un settore dove le decisioni hanno conseguenze dirette sulla vita delle persone, la distribuzione della responsabilità non può essere lasciata al caso.

Il futuro della telemedicina dipenderà dalla capacità di bilanciare innovazione e tutela legale, garantendo che la tecnologia migliori l’accesso alle cure senza trasformarsi in un rischio giuridico per medici e pazienti.

Benvengano queste Tavole Rotonde e se na parli’ il piu possibile e aggiungerei ancora, in fretta e spesso.

Sono intervenuti: Dott. Cisterna, Prof. Mirko Faccioli , Dott. Luigi Montuori , Dott. Franco Marozzi , Ing. Chiara Parretti , Dott. Sergio Pillon , Dott. ANTONIO SALVATORE, Dott. Angelo Aliquò, Dott. Paolo Petralia , Dott. Corrado Picone, PhD, ed i colleghi Gabriele Chiarini, Francesca Pescatori , Maurizio Campagna, Alessandra Delli Ponti, Floriana Capone, Elena Bassan, Giorgio Muccio Annamaria Parente