Leadership infermieristica ed etica dell’IA: come custodire relazioni e valori nell’era digitale

Come impatta l’evoluzione dell’intelligenza artificiale in ambito sanitario, specie nel lavoro degli infermieri e nel servizio che forniscono ai pazienti? Approfondisci.

Sommario

  1. L’essere umano non è mai neutrale nel processo psicologico
  2. Dimensioni etiche dell’IA
  3. L'infermiere: guardiano dell'umano nell'era digitale
  4. Tempo di relazione: un tempo da nobilitare con l'IA
  5. Algoretica: un’etica degli algoritmi
  6. Bias e discriminazione: l’IA come specchio delle disuguaglianze
  7. L’IA come agente morale
  8. Il dilemma della "black box" e il principio di autonomia
  9. Delega della responsabilità e rischio di deresponsabilizzazione
  10. Verso un’etica del tempo e delle priorità
  11. La leadership infermieristica: un presidio di trasparenza, responsabilità condivisa e relazioni umane
  12. La filosofia del limite: una riflessione necessaria

L'avvento dell'intelligenza artificiale (IA) non rappresenta un evento isolato, ma l'ultimo capitolo di una lunga evoluzione che ha distinto l'essere umano come creatore e interprete del proprio destino, a differenza ad esempio di quel che accade agli animali. Come infatti racconta Paolo Benanti in un meraviglioso TED, sessantamila anni fa, per spostarsi dalle steppe siberiane all'Africa, il mammuth dovette attendere la nascita di un discendente privo della folta pelliccia che altrimenti gli avrebbe impedito di sopravvivere alle elevate temperature africane. L’uomo, invece, è riuscito a colonizzare ogni latitudine e longitudine, compresa la steppa siberiana, ma non ha atteso che nascesse un figlio dotato di una pelle adatta al freddo: si è coperto con una pelliccia di mammuth. Quello che le altre specie ottengono attraverso modifiche del proprio patrimonio genetico, noi lo ereditiamo dalle conoscenze accumulate dalle generazioni precedenti, trasmesse tramite gli artefatti tecnologici (Benanti, 2023)

L'intelligenza artificiale, oggi, sta trasformando i paradigmi della sanità, ridefinendo il modo in cui i professionisti della salute si prendono cura dei pazienti. Tuttavia, questa evoluzione porta con sé un interrogativo cruciale, quello che ormai pare pervadere ogni discussione nel merito: come garantire che l’IA rimanga uno strumento al servizio dell’umano, senza sostituirlo? La risposta risiede in una riflessione etica che pone al centro la persona e i valori fondamentali dell’assistenza infermieristica.

Proprio quando le macchine iniziano a sfidare il nostro ruolo di interpreti, emergono infatti domande fondamentali: cosa accade quando un algoritmo prende decisioni autonome che incidono profondamente sulle vite umane? Chi è responsabile delle scelte compiute da una macchina? E come possiamo assicurarci che l’IA rimanga sempre orientata al bene comune?

L’essere umano non è mai neutrale nel processo psicologico

Un contributo essenziale alla comprensione di queste dinamiche ci viene dal pensiero di Martin Heidegger (1953). Il filosofo tedesco descriveva l’uomo come “sensore delle macchine”, un interprete consapevole che dà significato a ciò che è puramente funzionale. L’essere umano non è infatti mai neutrale nel processo tecnologico: è il custode dei significati, capace di trasformare l’esecuzione meccanica in un atto dotato di valore. In assenza dell’uomo, la tecnologia non è altro che un insieme di ingranaggi privi di scopo.

Questo ruolo insostituibile è evidente quando osserviamo il nostro rapporto con gli smartphone: siamo noi che controlliamo il dispositivo, o siamo piuttosto guidati dalle notifiche e dalle richieste di attenzione che riceviamo? In questo senso, siamo diventati noi stessi dei "sensori" per le macchine, fornendo costantemente dati e feedback che alimentano gli algoritmi. La questione cruciale è quindi la seguente: se noi siamo i sensori delle macchine, chi o cosa controlla il sensore? E con quali paradigmi di riferimento muove questo controllo? Se non prestiamo attenzione a questa domanda, rischiamo di diventare semplici ingranaggi in un sistema che sfugge al nostro controllo.

Un esempio emblematico di questa relazione tra uomo e macchina è la storia del Turco, un archetipo di robot presentato nel 1770 alla regina Teresa d’Austria e capace, apparentemente, di giocare a scacchi autonomamente. Tuttavia, la sua straordinarietà non risiedeva nell’autonomia, ma nell’inganno: al suo interno, nascosto tra i meccanismi, vi era un abile giocatore umano che rendeva possibile ogni mossa.

Il Turco era un’illusione, una metafora della tecnologia: anche nelle sue manifestazioni più avanzate, la macchina dipende sempre dall’uomo che la progetta, la interpreta e le attribuisce significato (Mannelli, 2023).

Proprio come nel caso del Turco, oggi ci troviamo di fronte a tecnologie che, pur mostrando capacità straordinarie, rimangono dipendenti dalla guida e dall’interpretazione umana. Heidegger ci avverte che l’uomo, in questo rapporto, non deve abdicare al proprio ruolo di custode del significato. Se ci limitiamo a vedere l’IA come un’entità autonoma, rischiamo di perdere la consapevolezza che ogni algoritmo è, in ultima analisi, il prodotto delle nostre scelte, dei nostri valori e delle nostre intenzioni.

Riconoscere il ruolo dell’uomo come “giocatore nascosto” dietro la tecnologia non è solo un esercizio filosofico, ma una necessità etica. Solo attraverso una riflessione consapevole possiamo garantire che l’IA rimanga un mezzo per amplificare la capacità umana di prendersi cura, senza mai ridurre l’importanza della relazione, dell’empatia e della responsabilità di una scelta.

Dimensioni etiche dell’IA

L’Organizzazione Mondiale della Sanità nel documento “Ethics and Governance of Artificial Intelligence for Health” (2021) ha delineato sei principi chiave per l’uso etico dell’IA: protezione dell’autonomia, promozione del benessere, trasparenza, responsabilità, inclusività ed equità, e sostenibilità. Questi principi non sono semplicemente linee guida operative, ma rappresentano un invito a riflettere sulle fondamenta etiche della tecnologia, che deve sempre rimanere uno strumento al servizio della persona.

La protezione dell’autonomia, ad esempio, richiama il rispetto della dignità umana: l’IA non può mai sostituirsi alla volontà o alle decisioni del paziente. Questo significa che le scelte mediate dalla tecnologia devono essere accompagnate da un consenso informato, in cui il paziente viene messo nelle condizioni di comprendere i processi sottostanti, anche nei contesti più complessi. L’autonomia, nel contesto tecnologico, non significa però solo proteggere il diritto del paziente a essere informato e coinvolto nelle decisioni che lo riguardano, ma anche assicurare che l’IA sia progettata per supportare e non sostituire la volontà umana.

La promozione del benessere ci invita a considerare l’IA non solo come una fonte di efficienza, ma come uno strumento per migliorare la qualità della vita, sia attraverso interventi clinici più precisi, sia mediante un monitoraggio più accurato delle condizioni di salute delle persone. Tuttavia, il benessere non può essere un privilegio di pochi: l’inclusività ed equità richiedono che le applicazioni dell’IA siano progettate tenendo conto delle disuguaglianze preesistenti, evitando di amplificarle. Ogni sistema deve essere sensibile alla diversità delle popolazioni servite, garantendo che nessuno venga escluso dall’accesso ai benefici offerti dalla tecnologia.

La trasparenza e la responsabilità sono principi che, nella bioetica contemporanea, assumono un peso crescente. Perché una macchina possa essere utilizzata con fiducia, è essenziale che i suoi processi decisionali siano spiegabili e accessibili, non solo agli sviluppatori, ma anche agli operatori sanitari e ai pazienti stessi. La responsabilità implica che gli errori, i malfunzionamenti o le scelte controverse di un algoritmo siano sempre attribuibili a persone o entità che possano risponderne.

Infine, la sostenibilità non si limita alla dimensione ambientale, pur fondamentale, ma si estende alla capacità della tecnologia di adattarsi e mantenere la sua rilevanza etica e sociale nel tempo. Una IA sostenibile è quella che si evolve senza perdere di vista i principi di equità, accessibilità e rispetto della persona umana, invitandoci a considerare l’IA come un mezzo per amplificare la capacità umana di prendersi cura degli altri e non come una soluzione che sminuisca l’importanza della relazione e dell’empatia umana.

Consideriamo il principio di beneficenza: un sistema di intelligenza artificiale può elaborare rapidamente enormi quantità di dati, identificando anomalie che potrebbero sfuggire all’osservazione umana. Tuttavia, è fondamentale che l’interpretazione di queste informazioni avvenga all’interno della relazione terapeutica, dove il paziente non è mai ridotto a una raccolta di parametri, ma è riconosciuto nella sua unicità e complessità. Spetta all’infermiere, non alla macchina, attribuire significato a questi dati nel contesto umano della cura. In questo senso, l’approccio della Slow Medicine offre un valido orientamento: una cura sobria e rispettosa è quella che valuta con attenzione benefici e rischi degli interventi, aiutando a scegliere ciò che è più giusto per quel paziente in quella specifica situazione. Solo attraverso l’ascolto autentico delle narrazioni di ogni persona con cui entriamo in relazione, è possibile realizzare una cura autentica e significativa (Arcadi et al, 2023).

L'infermiere: guardiano dell'umano nell'era digitale

L'infermiere si trova oggi a fronteggiare una trasformazione epocale. L'introduzione dell'IA offre straordinarie opportunità per migliorare l'efficienza e la precisione delle cure, ma impone al contempo un costante adattamento delle competenze e dei ruoli. L'infermiere, con la sua sensibilità umana e la profonda conoscenza del paziente, diventa il garante dell'etica nell'utilizzo dell'IA: colui che interpreta i dati e le indicazioni fornite dagli algoritmi per prendere decisioni sempre orientate al benessere, alla dignità e all’autonomia del paziente.

Alcuni tra i più importanti riferimenti etici e relazionali che guidano la professione infermieristica — empatia, dignità, giustizia, responsabilità e compassione — non sono semplici virtù morali, ma veri e propri fondamenti operativi che orientano ogni atto assistenziale. L’infermiere non si limita a fornire cure tecniche; egli è un mediatore etico, capace di integrare il sapere clinico con una visione umanistica della salute, preservando la centralità della relazione di cura.

Nel contesto dell’intelligenza artificiale, questi valori assumono una rilevanza ancora maggiore. L’empatia consente all’infermiere di cogliere non solo i bisogni clinici, ma anche quelli emozionali e relazionali del paziente, aspetti che una macchina, per quanto avanzata, non può comprendere. La responsabilità, intesa come accountability, impone all’infermiere un controllo critico sulle decisioni supportate dall’IA, assicurando che siano sempre coerenti con il benessere del paziente. La giustizia richiede infine che l’IA sia utilizzata per ridurre, e non perpetuare, le disuguaglianze nell’accesso alle cure, promuovendo equità e inclusività.

Prendiamo ad esempio l’impiego di un sistema di IA nella gestione delle cure domiciliari per pazienti con patologie croniche. L’algoritmo può analizzare dati clinici raccolti da dispositivi indossabili o sensori domestici, rilevando variazioni nei parametri vitali o segnali di peggioramento dello stato di salute. Tuttavia, spetta all’infermiere interpretare queste informazioni, contestualizzandole rispetto alla storia clinica del paziente, al contesto familiare e sociale, e alle sue preferenze personali. Questo approccio integrato consente interventi tempestivi e mirati, garantendo non solo l’efficacia clinica, ma anche una relazione di cura che diventa terapeutica. In questo modo, l’IA si configura come uno strumento che amplifica la capacità decisionale e operativa dell’infermiere, senza mai sostituire il ruolo insostituibile della presenza nella cura.

L’IA, dunque, non deve essere vista come una minaccia ai valori infermieristici, ma come un mezzo per rafforzarli, a condizione che venga utilizzata con consapevolezza e guidata da un’etica che ponga sempre il telos della disciplina infermieristica non di sfondo, ma in primo piano.

Leggi anche

Tempo di relazione: un tempo da nobilitare con l'IA

Questa riflessione si collega al concetto di tempo di relazione, che è tempo di cura: un bene prezioso, non solo per il paziente ma anche per l’infermiere, da nobilitare attraverso un uso responsabile dell’IA. Il Codice deontologico delle professioni infermieristiche sottolinea l’importanza del tempo dedicato al paziente, riconoscendo che l’ascolto, la presenza e la relazione rappresentano dimensioni fondamentali per una buona cura.

Affidando all'IA le attività ripetitive e automatizzabili — come l'analisi di grandi quantità di dati, la gestione di documentazione clinica o il monitoraggio clinico — l’infermiere può liberare risorse temporali da dedicare agli aspetti relazionali della cura.

In questo contesto emerge il valore del kairos, il tempo qualitativo e opportuno che consente di incontrare il paziente nella sua dimensione umana, rispetto al kronos, il tempo quantitativo che scandisce le attività quotidiane. L'IA, se integrata eticamente, consente di recuperare kronos per investirlo in kairos.

Questa dinamica è particolarmente significativa in un’epoca in cui il tempo di cura sembra sempre più frammentato.

Algoretica: un’etica degli algoritmi

Il concetto di algoretica, o etica degli algoritmi, è cruciale in questo contesto. Significa progettare sistemi di IA che non solo rispettino i principi etici, ma li integrino intrinsecamente nei loro processi (Benanti, 2018). Come affermato nella Rome Call for AI Ethics (2021) un’IA etica deve essere inclusiva, equa e orientata al bene comune.

Ma cosa significa concretamente? Immaginiamo un algoritmo progettato per assegnare risorse sanitarie in caso di emergenza. Se i dati di addestramento riflettono bias preesistenti — come la sottorappresentazione di comunità vulnerabili — l’IA rischia di perpetuare disuguaglianze. Un approccio algoretico richiede che i sistemi siano addestrati su dati rappresentativi e che includano meccanismi per identificare e correggere eventuali disparità. L’etica infatti non può essere un ripensamento: deve essere integrata nel codice stesso (Benanti, 2018)

Bias e discriminazione: l’IA come specchio delle disuguaglianze

Gli algoritmi infatti, se addestrati su dati non rappresentativi o distorti, rischiano di perpetuare e amplificare le disuguaglianze sociali a causa dei bias intrinseci che possono emergere. L'intelligenza artificiale rispecchia la qualità dei dati su cui è stata formata: se questi contengono pregiudizi o sono lacunosi, le decisioni dell'algoritmo tenderanno a replicare e amplificare tali distorsioni.

Ad esempio, studi hanno evidenziato che i sistemi di riconoscimento facciale presentano errori più frequenti nel riconoscere persone di colore rispetto ad altre etnie (Buolamwini & Gebru, 2018), con implicazioni significative anche in ambito sanitario. Un'altra ricerca ha mostrato che, a parità di punteggio di rischio generato da un algoritmo, i pazienti neri spesso presentano condizioni di salute più gravi rispetto ai pazienti bianchi, segnalando una distorsione sistematica nel trattamento dei dati (Obermeyer et al., 2019). Questo sottolinea l'importanza di garantire che i dati di addestramento siano equamente rappresentativi, prevenendo discriminazioni e promuovendo un utilizzo etico e inclusivo dell'intelligenza artificiale. A tal proposito, il recente Artificial Intelligence Act approvato dal Parlamento Europeo (2024) pone particolare enfasi su tali aspetti, stabilendo norme che richiedono ai sistemi di intelligenza artificiale di rispettare i diritti fondamentali, tra cui la dignità umana e la non discriminazione.

Si prenda ancora ad esempio, inoltre, l’impiego dell’intelligenza artificiale nella pianificazione delle risorse sanitarie. Gli algoritmi possono identificare aree con maggiore domanda di cure e suggerire una redistribuzione del personale o delle risorse materiali. Tuttavia, queste indicazioni devono essere integrate da professionisti umani, che possono considerare aspetti cruciali non rilevati dagli algoritmi: il contesto sociale, le dinamiche di potere locali, le competenze specifiche del personale e le esigenze uniche dei pazienti.

Solo attraverso questa integrazione si può garantire un approccio etico e umanistico alla pianificazione e all’erogazione delle cure, mantenendo la centralità della persona nell’assistenza sanitaria.

L’IA come agente morale

Un tema che merita un ulteriore approfondimento è l'attribuzione di responsabilità morale ad agenti o sistemi impersonali, privi di consapevolezza, come le macchine e i loro software-hardware. Quando parliamo di “persone”, non ci riferiamo semplicemente a “individui”, ma a esseri umani consapevoli, inseriti in una rete di relazioni comunicative con altri individui all'interno di una comunità socioculturale e linguistica specifica. In questo contesto, è fondamentale riconoscere che la società contemporanea, caratterizzata dalla comunicazione, è composta da agenti comunicativi consapevoli, gli esseri umani, e da agenti comunicativi inconsapevoli, le macchine, sempre più interconnessi e interdipendenti. È proprio all'interno di questo quadro concettuale che si colloca la relazione di “responsabilità distribuita” tra agenti morali umani e agenti morali artificiali (Basti G., 2022)

La macchina, infatti, non ha intenzionalità o capacità di discernimento etico; agisce esclusivamente in base ai parametri con cui è stata programmata. Tuttavia, proprio in quanto agente morale inconsapevole, l’IA esercita un impatto etico sul mondo: le decisioni che prende influenzano vite umane, distribuiscono risorse e creano implicazioni sociali.

Al contrario, l’uomo - in quanto persona - è un agente morale consapevole, capace di riflettere sulle implicazioni delle proprie azioni. Questo significa che ogni errore o decisione inappropriata presa dall’IA non può essere attribuita alla macchina, ma deve essere considerata responsabilità degli sviluppatori, degli utilizzatori e del sistema che ne permette l’uso. La consapevolezza umana è il fattore determinante che trasforma un processo tecnologico in un atto etico, ricordandoci che la tecnologia è sempre mediata dall’intenzionalità.

Leggi anche

Il dilemma della "black box" e il principio di autonomia

Un primo rischio significativo dell’utilizzo di AI riguarda la explainability, ovvero la capacità di comprendere e ripercorrere i processi decisionali della macchina. Molti algoritmi, soprattutto quelli basati sul deep learning, operano come una “scatola nera” (black box), il cui ragionamento interno è opaco persino agli sviluppatori (Mannelli, 2023) Questa mancanza di trasparenza solleva interrogativi etici profondi. Immaginiamo, ad esempio, un sistema di IA che suggerisca una diagnosi o un intervento infermieristico basandosi su un’enorme quantità di dati clinici. Se il risultato prodotto dalla macchina differisce da quello dell’operatore umano, come si può stabilire chi abbia ragione? La possibilità di non riuscire a ricostruire i passaggi del ragionamento algoritmico minaccia il principio di autonomia del paziente, che potrebbe trovarsi di fronte a conclusioni non negoziabili. In questo contesto, il rischio di una deriva dogmatica è concreto: l’uomo potrebbe abdicare alla propria responsabilità decisionale, accettando l’esito dell’algoritmo come verità incontestabile.

Delega della responsabilità e rischio di deresponsabilizzazione

L’automazione introdotta dall’IA può indurre un pericoloso meccanismo di delega della responsabilità. Se l’algoritmo suggerisce una decisione errata o subottimale, chi ne risponde? È il sistema stesso, il suo sviluppatore o l’operatore sanitario che si è affidato al risultato senza esercitare un controllo critico? Questa ambiguità favorisce una de-responsabilizzazione psicologica: il professionista potrebbe percepire l’errore come qualcosa di esterno al proprio controllo, attribuendolo alla macchina. Questo atteggiamento, però, mina l’essenza stessa della pratica infermieristica, che richiede un esercizio costante di giudizio critico e riflessivo.

Verso un’etica del tempo e delle priorità

In questo contesto di rischi, emerge la necessità di un approccio etico che non si limiti a prevenire errori, ma che valorizzi l’essere umano come custode della tecnologia. Affidare all’IA il compito di gestire attività ripetitive o tecniche può liberare il kronos — il tempo operativo, come già accennato prima — permettendo agli operatori sanitari di dedicarsi al kairos, il tempo della relazione e della cura. Tuttavia, perché ciò avvenga, è essenziale una formazione mirata, che educhi i professionisti a comprendere i limiti della tecnologia e a esercitare una supervisione consapevole (O'Connor et al, 2023). Inoltre richiamo un concetto a me caro, ripreso recentemente anche da stimati colleghi, ovvero che se una relazione di cura era già carente prima dell'introduzione dell'intelligenza artificiale, l'uso della tecnologia rischia di accentuare ulteriormente questa lacuna. Al contrario, quando la tecnologia viene integrata in un contesto relazionale solido e ben definito, essa può diventare uno strumento efficace per rafforzare la vicinanza e migliorare la qualità dell'assistenza al paziente (Trendsanità, 2025)

Leggi anche

La leadership infermieristica: un presidio di trasparenza, responsabilità condivisa e relazioni umane

Alla luce di quanto esposto fin ora, emergono tre pilastri centrali per una leadership infermieristica che contempli l’AI come strumento di governo eticamente sostenibile: trasparenza, responsabilità condivisa e potenziamento delle relazioni umane.

Trasparenza: illuminare l’opacità degli algoritmi

Gli algoritmi rendono opachi i processi decisionali che influenzano le cure e l’organizzazione del lavoro. Questa opacità può generare sfiducia e alienazione, soprattutto quando i professionisti sanitari non riescono a comprendere appieno i criteri alla base delle decisioni algoritmiche (Pais, 2023). In questo contesto, il leader infermieristico assume il compito di garantire la trasparenza, interpretando e traducendo i processi tecnologici in indicazioni chiare e accessibili per tutti. Come evidenziato da Davenport (2019), una leadership efficace nell’era dell’IA richiede una comunicazione costante e una capacità di spiegare i meccanismi decisionali automatizzati, promuovendo fiducia e consapevolezza.

Responsabilità condivisa: un argine contro le disuguaglianze

Gli algoritmi, come più volte affermato, riflettono i bias presenti nei dati su cui sono stati addestrati. Il ruolo di una nuova leadership è garantire la responsabilità nei processi, individuare eventuali forme di discriminazione e impegnarsi a eliminarle. Ciò richiede un intervento intenzionale, poiché gli algoritmi tendono a riprodurre le dinamiche sociali, inclusi i problemi e le disuguaglianze presenti nella società (Pais, 2023). È quindi fondamentale che la leadership assuma un ruolo attivo nel promuovere una responsabilità condivisa.

Potenziamento delle relazioni persona-persona: un antidoto all’isolamento

La crescente interazione tra persona e macchina rischia di indebolire le relazioni umane, già fragili in un’epoca caratterizzata da isolamento sociale. Questo fenomeno è particolarmente evidente tra le generazioni più giovani, dove la tecnologia spesso sostituisce piuttosto che integrare le connessioni interpersonali. In questo scenario, la leadership infermieristica deve promuovere una cultura organizzativa centrata sulle relazioni umane, rafforzando l’interazione persona-persona e mettendola al centro della cura. Una leadership relazionale è dunque cruciale per creare ambienti collaborativi e sostenere il benessere sia dei pazienti sia dei professionisti.

La filosofia del limite: una riflessione necessaria

In conclusione, la vera sfida dell’IA non è dunque tecnica, ma profondamente etica. La tecnologia, se utilizzata senza un’adeguata riflessione, rischia di allontanarci dai valori umani che costituiscono il cuore dell’assistenza infermieristica. È necessario un equilibrio tra il potenziale trasformativo della macchina e il mantenimento della dignità, della giustizia e del benessere.

Come ammoniva Hegel, ripreso da Collecchia (2018) “…La filosofia arriva sempre troppo tardi. Come pensiero nel mondo, essa appare per la prima volta nel tempo, dopo che la realtà ha compiuto il suo processo di formazione ed è bell’e fatta… Quando la filosofia dipinge a chiaroscuro, allora un aspetto della vita è invecchiato, e, dal chiaroscuro esso non si lascia ringiovanire, ma soltanto riconoscere: la nottola di Minerva inizia il suo volo sul far del crepuscolo.”

Il nostro impegno è quello di non attendere il crepuscolo per comprendere e agire, ma di anticipare le trasformazioni, guidandole con consapevolezza ed etica. La riflessione sull’intelligenza artificiale e il suo impatto sull’assistenza sanitaria non deve essere un esercizio tardivo, ma un percorso attivo che pone al centro i valori umani.

Agire oggi, con coraggio e lungimiranza, significa costruire un futuro in cui la tecnologia non solo affianca l’uomo, ma lo aiuta a esprimere il meglio di sé.

Di: Paola Arcadi, infermiera

Argomenti correlati

News e approfondimenti che potrebbero interessarti

Vedi i contenuti

La soluzione digitale per i Professionisti Sanitari

Consulcesi Club

Contatti

Via G.Motta 6, Balerna CH
PEC: consulcesisa@legalmail.it

Social media