ChatGPT e Intelligenza artificiale: regole per l’uso e implicazioni legali

Le regole per l'uso sicuro ed etico dell'intelligenza artificiale, con focus sui sistemi come ChatGPT. Linee guida e implicazioni legali.

Sommario

  1. 1. Che cos’è l’intelligenza artificiale
  2. 2. La regolamentazione dell’AI in medicina
  3. 3. Le linee guida OMS in materia di AI
  4. 4. Il decalogo del Garante Privacy sull’utilizzo dei sistemi di AI in medicina
  5. 5. AI in medicina: uno sguardo ai profili di responsabilità

Negli ultimi anni si sente spesso parlare di intelligenza artificiale, un argomento solitamente al centro del dibattito tra i sostenitori e i detrattori di questa nuova tecnologia: il luogo comune più diffuso è quello di macchine e robot che andranno a sostituire gli uomini in ogni attività, con scenari da film di fantascienza in cui le macchine si ribellano all’umanità distruggendola.

Niente di più sbagliato!

Non serve essere esperti di informatica, ma basta leggere qualche articolo scientifico per capire che si tratta semplicemente di nuove tecnologie progettate per fornire all’uomo una risposta in linguaggio comune.

Scarica l'ebook

Le regole per l'uso sicuro ed etico dell'intelligenza artificiale, con focus sui sistemi come ChatGPT. Linee guida e implicazioni legali.

1. Che cos’è l’intelligenza artificiale

L’intelligenza artificiale (AI, Artificial Intelligence) è, infatti, una tecnologia informatica che sviluppa algoritmi e sistemi in grado di consentire alla macchina di simulare processi di intelligenza umana: questi processi non sono spontanei, ma vengono generati solo ed esclusivamente su input dell’uomo. 

Tra i processi di intelligenza artificiale abbiamo l’elaborazione del linguaggio naturale, il riconoscimento vocale, l’elaborazione di immagini o la visione artificiale. 

Tutti noi, quotidianamente, utilizziamo sistemi di intelligenza artificiale, anche solo per gioco: 

- ChatGPT e Gemini sono sistemi di AI basati sull’elaborazione del linguaggio naturale, 

- Google Assistant e Siri sono sistemi di AI basati sul riconoscimento vocale, 

- Midjourney, Canva e molti altri sono sistemi di AI basati sull’elaborazione di immagini, 

- La guida assistita e la guida autonoma che troviamo nelle auto di ultimissima generazione (in realtà poco diffuse al grande pubblico per il loro costo) è un sistema di AI basato sulla visione artificiale. 

L’intelligenza artificiale si suddivide in: 

- IA debole, costituita da quei sistemi che sono progettati per svolgere un compito specifico, come il riconoscimento vocale, 

- IA forte (detta anche AGI, Artificial General Intelligence), costituita da sistemi che hanno la capacità di comprendere, apprendere e applicare la conoscenza in modo generalizzato. 

L’intelligenza artificiale forte rappresenta l’evoluzione dell’AI debole; tuttavia, ad oggi non esistono sistemi di AI forte completamente sviluppati, ma solo in fase di studio ed elaborazione. 

I sistemi di intelligenza artificiale racchiudono in sé un enorme potenziale, perché possono aiutare l’uomo a svolgere i suoi compiti con maggiore precisione, azzerando il margine di errore. Tuttavia, l’utilizzo dell’intelligenza artificiale presenta numerosi rischi, legati principalmente: 

- all’etica, 

- alla sicurezza,  

- alla  privacy degli utenti. 

L’intelligenza artificiale, infatti, viene istruita dall’uomo tramite ciò che le viene insegnato; in parole povere, è l’uomo a programmare (“istruire”) l’intelligenza artificiale, che poi fornisce le sue risposte sulla base di quello che l’uomo le ha insegnato. 

Se, però, l’insegnamento è fondato su presupposti errati, falsati, parziali o discriminatori, le risposte (gli output) che l’intelligenza artificiale fornirà ai suoi utenti saranno altrettanto falsate: se, ad esempio, insegniamo all’intelligenza artificiale che 2+2=5 e poi le chiediamo di risolvere un’equazione matematica, tutti i risultati saranno falsati dall’errore “a monte” determinato da una lacuna nella sua istruzione, poiché le abbiamo insegnato che 2+2=5. 

Possiamo replicare, per assurdo, questo errore anche in campo medico: se insegniamo all’intelligenza artificiale che il tumore al polmone colpisce solamente i soggetti di razza caucasica e non quelli di razza africana, e poi le chiediamo di valutare i sintomi di un paziente di razza africana effettivamente ammalato di cancro al polmone, l’intelligenza artificiale nel restituirci il risultato escluderà dall’elenco delle potenziali malattie il cancro al polmone. 

In gergo tecnico questi errori di insegnamento, da cui derivano le risposte sbagliate, si definiscono “bias”. 

I sistemi di AI, inoltre, elaborano enormi quantità di dati personali, e questo rende indifferibile regolamentarne l’uso, al fine di evitare che si verifichino degli abusi o degli utilizzi non autorizzati dei dati e delle informazioni relative agli utenti. 

2. La regolamentazione dell’AI in medicina

Le peculiarità dell’intelligenza artificiale ne rendono necessaria una regolamentazione, a tutti i livelli. Nel nostro paese è in discussione, dalla scorsa estate, lo schema di disegno di legge recante disposizioni e delega al governo in materia di intelligenza artificiale (disegno di legge S. 1146 – 19° Legislatura), che contiene principi in materia di ricerca, sperimentazione, sviluppo, adozione e applicazioni di sistemi e di modelli di intelligenza artificiale, con lo scopo promuovere un utilizzo corretto, trasparente e responsabile di tale tecnologia. 

Nel testo del progetto di legge l’intelligenza artificiale viene definita come un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall'input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali. 

Il testo ricalca il Regolamento Europeo sull’AI (AI act) e stabilisce che nei processi di sviluppo dell’intelligenza artificiale sia garantita e vigilata la correttezza, l’attendibilità, la sicurezza, la qualità, l’appropriatezza e la trasparenza, e che sia sempre rispettata l’autonomia e il potere decisionale dell’uomo; i sistemi di AI, inoltre, secondo il disegno di legge non devono in alcun modo pregiudicare lo svolgimento democratico della vita istituzionale e politica. 

La cybersicurezza è messa al centro del ciclo di vita dell’intelligenza artificiale: ciò dovrà avvenire attraverso l’adozione di specifici controlli di sicurezza che siano idonei, tra l’altro, ad assicurare la resilienza contro i tentativi di alterare l’utilizzo, il comportamento previsto, le prestazioni o le impostazioni di sicurezza dell’A.I. 

In sanitario, il disegno di legge fissa i seguenti principi fondamentali: 

- non discriminazione - i sistemi di intelligenza artificiale in ambito sanitario, non possono né selezionare né condizionare l’accesso dei pazienti alle prestazioni sanitarie con criteri discriminatori, 

- AI human-centered - l’AI costituisce un utile e valido supporto per la prevenzione, diagnosi, cura e scelta terapeutica, ma la decisione finale è sempre e comunque rimessa all’uomo, quale professionista medico, 

- minimizzazione del rischio - i sistemi di intelligenza artificiale utilizzati in ambito sanitario e i relativi dati impiegati devono essere affidabili e periodicamente verificati e aggiornati al fine di minimizzare il rischio di errori. 

Secondo il disegno di legge il paziente avrà il diritto ad essere informato circa l’utilizzo di tecnologie di intelligenza artificiale e sui vantaggi, in termini diagnostici e terapeutici, derivanti dall’utilizzo delle nuove tecnologie, nonché di ricevere informazioni sulla logica decisionale utilizzata nella scelta di utilizzare l’AI come ausilio all’attività medica. 

Il DDL, inoltre, consentirà a soggetti pubblici e privati senza scopo di lucro di occuparsi attivamente di ricerca e sperimentazione scientifica nella realizzazione di sistemi di intelligenza artificiale, previa acquisizione del parere di un apposito comitato etico, per finalità di: 

- prevenzione,  

- diagnosi e cura di malattie,  

- sviluppo di farmaci,  

- terapie e tecnologie riabilitative, 

- realizzazione di apparati medicali, incluse protesi e interfacce fra il corpo e strumenti di sostegno alle condizioni del paziente,  

- salute pubblica,  

- incolumità della persona,  

- salute e sicurezza sanitaria. 

Ad oggi, tuttavia, l’AI act italiano è arenato in Senato, dove non sono stati neanche discussi gli oltre 400 emendamenti presentati. 

In compenso, la vicina Città del Vaticano ha recentemente adottato le Linee Guida sull’Intelligenza artificiale, ove si stabilisce che la sperimentazione, lo sviluppo, l’adozione e l’utilizzo dei sistemi di AI, per garantire la sicurezza di Città del Vaticano, la tutela dei dati personali, la non discriminazione dell’essere umano, la sostenibilità economica e la “cura del Creato”, deve essere conforme a una serie di principi ben definiti: 

- dignità umana, 

- bene comune, 

- responsabilità etica, 

- trasparenza, 

- proporzionalità. 

Secondo le Linee Guida vaticane, lo scopo da perseguire nello sviluppare i sistemi di AI è quello di ottenere risultati corretti, attendibili e appropriati, secondo principi di trasparenza e proporzionalità. 

In ambito sanitario, le Linee Guida di Città del Vaticano favoriscono l’introduzione di sistemi e modelli di intelligenza artificiale che contribuiscano al miglioramento della cura della salute della persona e della tutela della sanità e igiene pubblica, richiamando comunque il rispetto dei diritti umani, delle libertà fondamentali e della protezione nel trattamento dei dati relativi alla salute. Il testo prevede che non vengano arrecati pregiudizio o limitazioni alla valutazione decisionale degli esercenti la professione medica. 

A questo punto, la domanda sorge spontanea: ma un medico italiano che voglia utilizzare l’AI nel proprio lavoro quotidiano, in assenza di una normativa di settore, cosa deve fare? È molto semplice: attenersi alle linee guida già esistenti in materia, recentemente elaborate da OMS e dal Garante Privacy, e applicare un po’ di buon senso. 

3. Le linee guida OMS in materia di AI

L’OMS vede delle potenzialità nell’utilizzo dell’intelligenza artificiale nel settore sanitario, per questo nel 2024 ha pubblicato Ethics and governance of artificial intelligence for health. Guidance on large multi-modal models, delle vere e proprie Linee Guida per l’utilizzo dei sistemi di intelligenza artificiale in medicina.

Per l’OMS le applicazioni dei sistemi di AI nel settore medico sono molteplici e comprendono diagnosi, assistenza clinica, ricerca, sviluppo di farmaci, amministrazione sanitaria, sanità pubblica e sorveglianza del paziente.

È possibile utilizzare sistemi di AI come ChatGPT, predisposti per fornire risposte in linguaggio comune agli utenti, come strumento di ausilio per la diagnosi e la cura dei pazienti, ad esempio in settori come la radiologia o l’oncologia, al fine di identificare malattie rare o analizzare una pluralità di sintomi in casi particolarmente complessi.

Negli USA uno studio sull’utilizzo di chat GPT in campo sanitario ha restituito uno spaccato di cui non può non tenersi conto: su 195 domande poste, contemporaneamente, a medici specializzati e a chatGPT, quest’ultima ha ottenuto risultati migliori rispetto a quelli dell’essere umano e i pazienti, nell’80% dei casi, hanno ritenuto più utili le risposte fornite dal chatbot piuttosto che dal medico in carne, ossa e camice.

Ciò non significa che i sistemi di AI, in un prossimo futuro, andranno a sostituire il giudizio di un medico: anche l’OMS, in tal senso, propende per un utilizzo come strumento di ausilio all’opera del sanitario, come un valido aiuto all’espletamento dei propri compiti, pur nella consapevolezza dei rischi legati a una risposta inaccurata, incompleta o falsata a causa dei bias di apprendimento di cui abbiamo parlato nel paragrafo precedente, legati anche a una scarsa qualità dei dati utilizzati per istruire l’AI.

Un potenziale bias da monitorare, ad esempio, è quello legato alla disabilità, poiché nel recente passato le persone disabili non hanno avuto dei sistemi educativi e un supporto medico adeguato, e ciò potrebbe falsare i dati utilizzati per istruire l’intelligenza artificiale: ad esempio, un soggetto con disturbo dello spettro autistico o con disturbi cognitivi potrebbe essere discriminato in un’eventuale diagnosi fatta con AI, semplicemente perché i dati utilizzati per istruirla non tengono conto di queste patologie oppure sono troppo pochi. 

L’OMS mette in guardia gli operatori del mondo sanitario dall’utilizzo di sistemi di intelligenza artificiale generativa da parte dei bambini, in quanto non esistono ancora studi approfonditi su eventuali danni nell’evoluzione, nella crescita e nell’apprendimento, che potrebbero derivare dal far dialogare un ragazzino con un sistema come chatGPT.

Oltre che per diagnosi e cura, l’OMS individua un enorme potenziale nell’utilizzo di AI generativa per la gestione delle attività amministrative, di segreteria e finanziarie legate al mondo sanitario con la possibilità di:

- migliorare la comunicazione tra medico-paziente, sviluppando grazie a un chatbot un linguaggio “a misura di paziente”, meno medico e più comprensibile per l’uomo della strada (senza, tuttavia, perdere di vista l’obbligo deontologico di informare il paziente in maniera chiara, precisa e dettagliata su quelle che sono le sue patologie),

- redigere note cliniche al termine di ogni visita, in presenza o in telemedicina,

- predisporre preventivamente strumenti automatizzati e personalizzati per le prescrizioni, gli appuntamenti, le fatturazioni, la programmazione di esami e altre attività prettamente amministrative che vengono svolte all’interno di uno studio medico.

L’OMS, nelle sue linee guida, invita gli operatori del settore a utilizzare i sistemi di AI generativa per compiti più complessi, come ad esempio prendere appunti durante la visita medica o l’esame ed integrarli con la storia clinica del paziente, già “caricata” nel sistema di AI tramite gli input utilizzati per istruirla: in questo modo l’AI potrebbe redigere automaticamente dei report durante l’esame, evidenziando sin da subito eventuali anomalie.

Particolare attenzione è dedicata dall’OMS ai modelli di AI generativa (LLM) Open Source, cioè a licenza libera, con un codice di programmazione in chiaro liberamente consultabile e implementabile dagli utenti.

Modelli di AI Open Source sono maggiormente inclusivi, perché trasparenti e aperti ai contributi degli utenti e dei loro feedback, e possono essere utilizzati anche da chi ha a disposizione poco denaro; tuttavia, avendo dei codici completamente in chiaro, sono più vulnerabili ad attacchi hacker, e comunque nel lungo periodo rischiano di non sopravvivere alla potenza dei grandi produttori di software, come Open AI, che hanno messo in circolazione i loro modelli di intelligenza artificiale generativa (ad esempio chatGPT) senza però renderne pubblici i codici e il completo funzionamento, nell’oscurità più totale per gli utenti.

 

Leggi anche

4. Il decalogo del Garante Privacy sull’utilizzo dei sistemi di AI in medicina

Il Garante Privacy, nel 2023, ha varato un decalogo per la realizzazione di servizi sanitari a livello nazionale attraverso sistemi di intelligenza artificiale, ponendo al centro tre principi cardine: 

1) principio di conoscibilità, in base al quale l’interessato ha il diritto di conoscere l’esistenza di processi decisionali basati su trattamenti automatizzati e, in tal caso, di ricevere informazioni significative sulla logica utilizzata, sì da poterla comprendere decisioni automatizzate supervisionate dall’uomo,  

2) principio di non esclusività della decisione algoritmica, secondo cui deve comunque esistere nel processo decisionale un intervento umano capace di controllare, validare ovvero smentire la decisione automatica (c.d. human in the loop) 

3) principio di non discriminazione algoritmica, secondo cui è opportuno che il titolare del trattamento utilizzi sistemi di IA affidabili che riducano le opacità, gli errori dovuti a cause tecnologiche e/o umane, verificandone periodicamente l’efficacia anche alla luce della rapida evoluzione delle tecnologie impiegate, delle procedure matematiche o statistiche appropriate per la profilazione, mettendo in atto misure tecniche e organizzative adeguate. 

I sistemi di AI che incidono sulla salute, sull’assistenza medica e sui servizi sanitari, sono considerati ad alto rischio, poiché hanno ad oggetto dati particolarmente sensibili e oggetto di una tutela particolare: i dati sanitari. 

Chi tratta dati sanitari per dei sistemi di AI deve essere perfettamente in grado di dimostrare il rispetto dei principi e degli adempimenti generali previsti dal GDPR per la protezione dei dati dei pazienti: 

- principio di liceità, correttezza e trasparenza, poiché i dati devono essere trattati in modo legale, corretto e trasparente nei confronti del cliente; 

- principio di limitazione della finalità, perché i dati devono essere raccolti solo per scopi specifici, legittimi e successivamente trattati in modo coerente con tali scopi; 

- principio di minimizzazione dei dati, poiché i dati raccolti devono essere adeguati, pertinenti e limitati a quanto necessario rispetto agli scopi del trattamento; 

- principio di esattezza, poiché i dati devono essere accurati e aggiornati o modificati quando necessario, al verificarsi un loro cambiamento; 

- principio di limitazione della conservazione, perché i dati devono essere conservati solo per un periodo limitato, non oltre quanto necessario per gli scopi del trattamento; 

- principio di integrità e riservatezza, poiché deve essere garantita la sicurezza dei dati con misure tecniche e organizzative adeguate per prevenire accessi non autorizzati o perdite; 

- principio di responsabilizzazione, in quanto il titolare del trattamento deve essere in grado di dimostrare la conformità ai suddetti principi. 

Il rispetto del principio di esattezza è fondamentale per evitare delle risposte falsate da parte dell’AI generativa: il dato non aggiornato o inesatto, infatti, potrebbe influenzare la correttezza delle risposte fornite dal sistema di AI, poiché fondato su dati errati. 

Se si decide di utilizzare un sistema di AI generativa in ambito medico, è opportuno svolgere una Valutazione d’impatto sulla protezione dei dati (VIP), tenendo conto della natura dei dati, del contesto e delle finalità in cui vengono utilizzati, in modo da valutare il rischio per i diritti e le libertà delle persone. 

Il Garante Europeo per la protezione dei dati (EDPS) e il Comitato europeo per la protezione dei dati (EDPB) nei loro pareri resi in materia di AI generativa in sanità specificano che generare contenuti, fare previsioni o adottare decisioni in maniera automatica, come fanno i sistemi di IA, per mezzo di tecniche di apprendimento automatico o regole di inferenza logica e probabilistica è cosa ben diversa rispetto alle modalità con cui queste stesse attività sono svolte dagli esseri umani attraverso il ragionamento creativo o teorico, nella piena consapevolezza della responsabilità e delle relative conseguenze. 

Per questo è essenziale l’effettivo coinvolgimento degli esseri umani nella programmazione e nell’utilizzo dei sistemi di AI generativa, non solo per supervisionare in maniera qualificata l’operato della macchina, ma soprattutto per evitare che le decisioni restituite dall’AI vengano prese solo ed esclusivamente sulla base di un trattamento automatizzato dei dati personali e sanitari dei pazienti, onde evitare i rischi di una discriminazione algoritmica, che potrebbe incidere sull’equità e sull’inclusività delle cure, aumentando il divario e le disuguaglianze socio sanitarie, creando pazienti di serie A e di serie B. 

5. AI in medicina: uno sguardo ai profili di responsabilità

Il medico che decida di avvalersi, nell’esercizio delle sue funzioni, di sistemi di intelligenza generativa, come ad esempio chatGPT, deve essere ben consapevole delle responsabilità che va ad assumersi. 

L’assenza di una regolamentazione compiuta e specifica sull’utilizzo dell’AI generativa in campo medico richiede, da parte del sanitario, una piena consapevolezza dei rischi cui si va incontro e un costante aggiornamento sulle novità normative in materia. 

Se un medico decide di avvalersi, per lo svolgimento della sua attività, di sistemi di AI generativa, perciò, deve curare la sua formazione che quella dei suoi collaboratori, con particolare attenzione: 

  1. a) Allo studio, all’approfondimento e all’aggiornamento nel settore di competenza (ad esempio, cardiologia, oncologia, chirurgia estetica, ecc.),
  2. b) Allo studio, approfondimento e aggiornamento in materia di nuove tecnologie applicate alla telemedicina,
  3. c) Allo studio, approfondimento e aggiornamento costante delle nuove tecnologie legate all’intelligenza artificiale,
  4. d) Allo studio, approfondimento e aggiornamento continuo sulla legislazione in materia di applicazioni tecnologiche alla medicina.

Allo stato attuale, i profili di responsabilità di un medico che decida di utilizzare strumenti di AI generativa nell’esercizio della propria professione, rimangono ripartiti tra l’aspetto civilistico e quello penalistico. 

Sotto il profilo penale, l’art. 590 sexies del codice penale stabilisce che commette un reato il medico che provochi la morte o le lesioni del suo paziente; se però tali eventi si sono verificati a causa di imperizia, la punibilità del medico è esclusa se sono rispettate le raccomandazioni previste dalle linee guida ovvero, in mancanza, le buone pratiche clinico assistenziali, sempre che siano adeguate al caso concreto. 

Ad oggi, considerato che non esistono né linee guida né buone pratiche clinico assistenziali in materia di utilizzo di sistemi di intelligenza artificiale in telemedicina, l’eventuale lesione personale o la morte di un paziente trattati con l’ausilio di queste nuove tecnologie comporterebbe automaticamente per il medico la responsabilità per omicidio o lesioni colpose: il rischio è una pena da un minimo di sei mesi a un massimo di cinque anni di reclusione. 

In materia di responsabilità civile, dato che ogni medico deve obbligatoriamente sottoscrivere la polizza assicurativa, è opportuno studiare con attenzione le polizze assicurative e le relative clausole, per verificare se coprano anche gli eventi derivanti dall’utilizzo di sistemi di intelligenza artificiale: alcune compagnie assicurative potrebbero prevedere tali clausole come opzionali rispetto alla polizza base. 

È infatti preferibile che il medico, se decide di utilizzare l’AI generativa, si premunisca di una copertura assicurativa che lo tenga indenne da eventuali richieste risarcitorie dei pazienti, comunque inevitabili, stante la continua evoluzione di tali tecnologie e l’assenza di normativa specifica.

Di: Manuela Calautti, avvocato

Argomenti correlati

News e approfondimenti che potrebbero interessarti

Vedi i contenuti

La soluzione digitale per i Professionisti Sanitari

Consulcesi Club

Contatti

Via G.Motta 6, Balerna CH
PEC: consulcesisa@legalmail.it

Social media