Responsabilità medica e utilizzo dell'intelligenza artificiale: lo stato dell'arte

Un approfondimento sullo stato dell’arte rispetto a responsabilità medica e intelligenza artificiale, una materia innovativa e in costante divenire che richiede un continuo aggiornamento da parte di tutti i professionisti sanitari.

Sommario

  1. L’arrivo di ChatGPT e la decisione del Garante Privacy
  2. Il Regolamento UE 2017/745 sui medical device: A.I. come software?
  3. La proposta di direttiva UE sulla responsabilità da intelligenza artificiale: la normativa che verrà
  4. Il quadro attuale della responsabilità medica derivante dall’uso di intelligenza artificiale

Quando si parla di intelligenza artificiale (A.I.) i non addetti ai lavori tendono a pensare a un robot super-intelligente in grado di sostituire l’uomo in qualunque tipo di attività e/o lavoro. Niente di più assurdo. L’intelligenza artificiale è in realtà una disciplina dell’informatica che ha lo scopo di riprodurre e imitare, tramite una macchina, il comportamento e le capacità dell’uomo, come quella di ragionare, apprendere, pianificare, creare. I sistemi di intelligenza artificiale sono costruiti in modo da adattare (e migliorare) il proprio comportamento sulla base di quanto hanno imparato in precedenza, compresi gli errori, lavorando in autonomia. Molti oggetti di uso quotidiano utilizzano l’intelligenza artificiale: pensiamo per esempio ai robot aspirapolvere che sono in grado di mappare le nostre case e imparare dove sono posizionati gli ostacoli. Ma può l’intelligenza artificiale avere un impatto nei casi di responsabilità medica?

L’arrivo di ChatGPT e la decisione del Garante Privacy

Recentemente anche i profani dell’informatica hanno preso dimestichezza con l’intelligenza artificiale, grazie a ChatGPT, il bot sviluppato da OpenAI con cui è letteralmente possibile avviare delle conversazioni via chat e porre delle domande al bot, che risponde con linguaggio umano. È di fine marzo il provvedimento del Garante Privacy italiano che rileva la mancanza di un’informativa privacy agli utenti sui dati raccolti da OpenAI, la mancanza di una base giuridica per raccogliere questi dati per addestrare ChatGPT nonché l’assenza di filtri per verificare concretamente l’accesso ai minori di 13 anni, bloccando di fatto l’uso di questa A.I. in Italia.

Attenzione: non si tratta di un blocco di tutti i sistemi di intelligenza artificiale esistenti, ma solo di alcune inadeguatezze alla normativa europea da parte di OpenAI, che ha sede extra UE; il progresso tecnologico non si è bloccato, nonostante alcuni, a seguito di questo provvedimento, “urlino” il contrario.

Sicuramente, i rischi etici e morali derivanti dall’utilizzo di questa tecnologia sono molteplici, per questo è necessaria preparazione e prudenza nell’approccio all’A.I. Molti paragonano l’avvento dell’intelligenza artificiale come rivoluzionario per l’umanità, al pari di scoperte come la ruota, la lampadina, l’elettricità.

L’A.I. in campo medico può trovare applicazione – e in alcuni casi è già realtà – per attività come la diagnostica per immagini, la chirurgia robotica con controllo da remoto, il semplice supporto alle decisioni cliniche, la medicina di precisione, lo sviluppo di nuovi farmaci, i trials clinici, la predizione e previsione degli esiti di una determinata terapia, le app per monitorare lo stato di salute che utilizziamo sul cellulare.

Il Regolamento UE 2017/745 sui medical device: A.I. come software?

Il Regolamento UE 2017/745 definisce dispositivo medicoqualunque strumento, apparecchio, apparecchiatura, software, impianto, reagente, materiale o altro articolo destinato dal fabbricante a essere impiegato sull’uomo, da solo o in combinazione” per finalità mediche, ad esempio di diagnosi, prevenzione, monitoraggio, prognosi, trattamento di malattie o ai fini di studio. I sistemi basati sull’intelligenza artificiale possono perciò essere considerati, a livello normativo, dei dispositivi medici?

Potrebbero, in effetti, rientrare nella categoria dei “software”, almeno così sembra nelle intenzioni della Commissione Europea, che nel presentare il regolamento precisò che molte disposizioni servono per aumentare la sicurezza e la certezza normativa, tenendo conto degli ultimi sviluppi del settore, tra i quali medical software, app e cybersecurity.

La proposta di direttiva UE sulla responsabilità da intelligenza artificiale: la normativa che verrà

Nel solco delle carenze normative in materia di responsabilità rilevate dal Parlamento europeo, si inserisce la proposta di Direttiva (del Parlamento Europeo e del Consiglio) sulla responsabilità medica da intelligenza artificiale del settembre 2022. La proposta di Direttiva, per quanto riguarda i danni causati dai sistemi di A.I., mira a fornire agli utenti un quadro di norme chiaro e uniforme per le varie ipotesi di danno, derivante da un difetto nella programmazione o istruzione dell’A.I. o a una violazione dei doveri di diligenza da parte degli utilizzatori finali.

Le implicazioni che questa direttiva potrebbe avere in campo sanitario sono enormi, e i futuri sviluppi vanno seguiti con attenzione. Viene introdotta una presunzione di colpevolezza in capo al fornitore del sistema di A.I., qualora sussistano contemporaneamente tre specifiche condizioni:

  1. Sussista una violazione da parte del fornitore del sistema di A.I. di un obbligo di diligenza previsto dal futuro Regolamento A.I.;
  2. È ragionevolmente probabile che il comportamento colposo del fornitore del sistema di A.I. abbia influenzato la produzione/la mancata produzione dell’output richiesto al sistema di intelligenza artificiale;
  3. Il paziente ha dimostrato che il danno è stato causato dall’output prodotto dall’intelligenza artificiale ovvero dalla sua mancata produzione.

Per quanto concerne, in particolare, la violazione degli obblighi di diligenza, la proposta di Direttiva ne fornisce una lista specifica:

  1. Mancato rispetto, da parte del fornitore/sviluppatore del sistema, della qualità dei dati di addestramento, convalida e test prescritti dal futuro Regolamento A.I.;
  2. Progettazione del sistema di A.I. in violazione degli obblighi di trasparenza prescritti dal futuro Regolamento A.I.;
  3. Progettazione del sistema di A.I. in modo da non consentirne una supervisione efficace da parte dell’uomo;
  4. Mancato rispetto di adeguati livelli di accuratezza, robustezza e cybersicurezza;
  5. Mancata adozione delle necessarie azioni correttive per rendere il sistema di A.I. conforme a tutti gli obblighi di cui sopra, compreso il temporaneo ritiro dal mercato.

Dal punto di vista della tutela del paziente/danneggiato dal sistema di A.I., data la sua posizione “debole” rispetto al fornitore del sistema di intelligenza artificiale, che lo vede in forte difficoltà nella raccolta delle prove idonee per dimostrare di aver subito un danno, la proposta di Direttiva prevede che il paziente possa chiedere al giudice che le prove vengano esibite in giudizio direttamente da parte del fornitore dell’A.I. (c.d. disclosure). L’iter che porterà all’approvazione della proposta di Direttiva sulla responsabilità da A.I. è ancora all’inizio: una volta approvata, infatti, la Direttiva dovrà essere recepita da ogni singolo stato membro, compresa l’Italia.

Il quadro attuale della responsabilità medica derivante dall’uso di intelligenza artificiale

In attesa della conclusione dell’iter relativo alla proposta di Direttiva sulla responsabilità da A.I., il quadro normativo italiano prevede due tipi di responsabilità medica nel caso di danno derivante dall’utilizzo di sistemi di intelligenza artificiale:

  1. Per il produttore/fornitore del sistema di intelligenza artificiale, la responsabilità da prodotto difettoso;
  2. Per la struttura sanitaria e il relativo personale, la legge Gelli/Bianco.

I potenziali scenari di danno derivante dall’utilizzo di sistemi di A.I. sono molteplici, come ad esempio:

  1. Danno derivante da un sistema A.I. difettoso ab origine;
  2. Danno derivante da un’intelligenza artificiale che sia stata addestrata male da parte della struttura medica (ospedale, clinica, studio privato), o che non sia stata adeguatamente sottoposta agli aggiornamenti richiesti;
  3. Danno derivante dall’uso di sistemi di A.I. nel monitoraggio dei pazienti a seguito di un difetto di manutenzione del software ovvero di un intempestivo intervento sul paziente;
  4. Danno derivante dal ricorso a risultati predittivi nel prescrivere una terapia o una diagnosi;
  5. Danno chirurgico, derivante dall’impiego di sistemi di robotica che utilizzano l’A.I.

Nell’ipotesi di danni derivanti da un difetto di fabbrica o di progettazione, la responsabilità ricadrà sempre e comunque sul fornitore del sistema di A.I., tenendo indenne sia la struttura sanitaria che il medico da ogni obbligo risarcitorio.

Negli altri casi (errore diagnostico, danno chirurgico, ecc.), in virtù della Legge Gelli-Bianco, la struttura sanitaria sarà responsabile delle condotte del medico per c.d. responsabilità contrattuale, con onere della prova dell’inesistenza del danno in capo alla struttura stessa.

Il sanitario, invece, potrebbe essere chiamato a risarcire eventuali danni derivanti da c.d. responsabilità extracontrattuale, con onere della prova della sussistenza del nesso di causalità tra la condotta del medico e il danno subito a carico del paziente.

Il profilo penalistico

Sotto il profilo penalistico, il medico sarà responsabile della morte o lesioni del paziente derivanti dall’utilizzo di sistemi di A.I. qualora tale evento si sia verificato per colpa (imperizia) e andrà indenne da responsabilità nel caso in cui abbia rispettato le raccomandazioni previste dalle linee guida o, in mancanza, dalle buone pratiche clinico-assistenziali. Il problema, nel caso di intelligenza artificiale, è che le best practice sono in divenire, per cui è altamente probabile che i medici pionieri, i quali decidano, per amore dei pazienti e della ricerca medica, di utilizzare sistemi di A.I., andranno inevitabilmente incontro al rischio di un processo penale, il cui esito sarà più che mai incerto.

Per quanto concerne i danni derivanti da chirurgia robotica, alcuni operatori del diritto (ma anche del mondo medico) auspicano che in futuro venga proibito all’operatore sanitario di effettuare più operazioni parallele su diversi pazienti, come accade per gli anestesisti, che non possono gestire più pazienti in contemporanea. Fondamentale, sia in campo di responsabilità civile che penale, sarà di sicuro l’adeguata formazione del personale sanitario all’utilizzo dei sistemi di A.I. Il consiglio, per i medici è quello di agire con prudenza, diligenza e perizia, nel rispetto dello stato dell’arte, che in tema di intelligenza artificiale richiede un costante e continuo studio e aggiornamento, quasi quotidiano.

 

Di: Manuela Calautti, avvocato

Argomenti correlati

News e approfondimenti che potrebbero interessarti

Vedi i contenuti

La soluzione digitale per i Professionisti Sanitari

Consulcesi Club

Contatti

Via G.Motta 6, Balerna CH
PEC: consulcesisa@legalmail.it

Social media