La diagnosi o la terapia è supportata dall’IA: il medico deve comunicarlo al paziente?

Sanità digitale e IA

L’uso dell’intelligenza artificiale può condurre a risultati vantaggiosi in materia sanitaria.

L’uso dell’intelligenza artificiale, garantendo un miglioramento delle previsioni, l’ottimizzazione delle operazioni e dell’assegnazione delle risorse e la personalizzazione delle soluzioni digitali… può condurre a risultati vantaggiosi … in materia sanitaria"

In questi termini si esprime la Proposta di Regolamento sull’intelligenza artificiale che comporta miglioramenti significativi sul piano della tutela del diritto alla salute (e alla vita).

La prospettiva di un simile guadagno, tuttavia, non autorizza a sviluppare e impiegare l’IA in ambito medico senza tenere conto e cercar di "garantire tutti i diritti fondamenti dell’individuo" (comunicato stampa di U. Von der Leyen, Brussels, 9 dicembre 2023), compresi quelli diversi dal diritto alla salute ed eventualmente confliggenti con esso.

Tra questi “diritti altri” è da annoverare, per esempio, il diritto del paziente ad autodeterminarsi e a prestare il consenso informato in relazione alla diagnosi e alle terapie suggerite dal medico.

L’IA applicata in ambito sanitario pone nuovi interrogativi

  • il medico è tenuto a informare il paziente che la diagnosi o la terapia è supportata dall’IA? In caso affermativo, quanto deve essere dettagliata l’informazione?
  • occorre che il medico si sforzi di illustrare al paziente il complesso meccanismo del machine learning e dell’algoritmo?

Ad oggi, nessuna di queste domande trova una risposta puntuale all’interno delle fonti normative.

Incertezza del quadro normativo

L’art. 1 l. 22 dicembre 2017, n. 219 (Norme in materia di consenso informato e di disposizioni anticipate di trattamento) prescrive i contenuti dell’informazione che il medico deve dare al paziente senza far cenno al tipo di strumentazione utilizzata nella diagnosi o terapia. Né sembra che, a dirimere la questione, possano servire gli aggettivi che la legge impiega per descrivere l’informazione: difatti, se per un verso il qualificativo "completa" potrebbe far propendere per una disclosure più dettagliata possibile, per altro verso, l’aggettivo "comprensibile" sembra orientare il medico verso una scelta dei contenuti adeguata alle capacità cognitive del paziente e, quindi, verso il silenzio intorno ad aspetti tecnici, o specialistici (quali, senz’altro, sono le modalità di funzionamento dei dispositivi adottati).

Un’indicazione analoga viene espressa, in termini ancor più nitidi, dall’art. 33 del codice di deontologia medica, secondo cui il medico deve comunicare con il paziente "tenendo conto delle sue capacità di comprensione, al fine di promuoverne la massima partecipazione alle scelte decisionali e l’adesione alle proposte diagnostico-terapeutiche".

Infine, una preoccupazione simile anima la giurisprudenza, là dove afferma la prestazione informativa del medico deve contemplare i rischi oggettivi e normali della terapia, ma non deve estendersi agli "esiti anomali al limite del fortuito, che non assumono rilievo secondo l’id quod plerumque accidit" (Cass. 20 maggio 2016, n. 10414 | Cass. 11 dicembre 2013, n. 27751 | Cass. 30 luglio 2004, n. 14638 | App. Bologna 2 febbraio 2006 | Trib. Milano 28 gennaio 2020); giacché altrimenti (si spiega in talune pronunce: Cass. n. 14638/2004, cit. e Trib. Bologna 8 agosto 2005) si correrebbe il rischio di instillare nel paziente un sentimento di paura che potrebbe dissuaderlo dal sottoporsi a un’operazione di pressoché sicura riuscita.

Peraltro, la questione non pare prossima a trovare soluzione attraverso il nuovo Regolamento sull’intelligenza artificiale. Vero è infatti, che quest’ultimo stabilisce degli obblighi di trasparenza, imponendo che "i fornitori di determinati sistemi di IA destinati a interagire con le persone fisiche ne curino la progettazione e lo sviluppo in modo tale che le persone fisiche siano informate del fatto di stare interagendo con un sistema di IA" (v. art. 52, par. 1). Ma da una simile regola potrebbe sortire tutt’al più un dovere informativo a carico del fornitore nei confronti del medico (soggetto che, appunto, interagisce con il sistema intelligente), e non anche in capo al secondo nei riguardi del paziente (il quale assume rispetto al dispositivo una posizione, invece, “passiva").

Il parere formulato dal Comitato Nazionale per la Bioetica

Una prescrizione orientata a includere l’uso dell’IA tra i dati da comunicare al malato potrebbe derivare dall’eventuale adozione di una normativa nazionale sulla scorta del parere formulato dal Comitato Nazionale per la Bioetica su “Intelligenza artificiale e medicina”, all’interno del quale si raccomanda che il paziente venga adeguatamente informato dei sistemi di IA usati nel trattamento di cura.

Tuttavia, questa raccomandazione non può essere intesa e accolta disgiuntamente dai molteplici inviti, su cui parimenti insiste il documento, al fine di promuovere corsi di formazione e programmi educativi volti ad elevare le conoscenze tecnologiche del personale sanitario e della collettività. E, anzi, da questa sottolineatura emerge che, al presente, “informatori” e “informati” soffrono di un deficit culturale, che sconsiglia di includere nel processo comunicativo tra medico e paziente un’illustrazione dettagliata delle tecnologie IA.

L’incertezza del quadro normativo conduce a suggerire una soluzione flessibile, che affida alla prudente sensibilità e diligente valutazione del medico il compito di scegliere se, e in che misura, informare il paziente che la diagnosi o la terapia è supportata dall’intelligenza artificiale. Scelta da effettuarsi bilanciando il diritto alla salute e il diritto di autodeterminazione alla luce delle caratteristiche del caso concreto.

Esempi

Se nel corso del processo informativo il paziente pone delle domande precise in merito alle apparecchiature e tecnologie che verranno impiegate nel trattamento, il medico dovrà dedurne una soglia di razionalità e competenza superiore alla media e, quindi, eventualmente rivelargli l’uso di dispositivi IA. Viceversa, la fragilità intellettiva o psichica del malato (magari dovuta dall’età) dovrebbe consigliare di sottacere che la diagnosi o la terapia si avvalgono di algoritmi e machine learning.

Per contro, il sanitario deve ritenersi senz’altro obbligato a comunicare il coinvolgimento dell’IA nel percorso terapeutico, ogniqualvolta questa tecnologia sia alla base del dispositivo medico di assistenza destinato ad essere utilizzato dal paziente a domicilio.

Conclusioni

In ogni caso, deve escludersi che il medico sia tenuto a illustrare dettagliatamente al paziente le tecnicalità che si pongono alla base dello sviluppo e del funzionamento di sistemi IA. 

Il primo non ha la professionalità che occorrerebbe ai fini di una spiegazione approfondita, e il secondo non ha la preparazione che si richiederebbe ai fini di una comprensione adeguata.

Di conseguenza, l’obbligo informativo può ritenersi assolto, ove il medico fornisca al paziente una spiegazione generica della tecnologia impiegata, presentandogli i benefici e i limiti che ad essa ineriscono.