LA RESPONSABILITÀ DEL PROFESSIONISTA SANITARIO NON MEDICO NELL’ ERA DELL’ INTELLIGENZA ARTIFICIALE: NUOVE SFIDE E PROSPETTIVE GIURIDICHE

Miriam Smerghetto – Responsabile APSILEF Friuli Venezia Giulia

L’avvento e la rapida diffusione dell’Intelligenza Artificiale (IA) stanno rivoluzionando ogni settore della società, e la sanità non fa eccezione. Strumenti diagnostici basati sull’IA, robot chirurgici, sistemi di monitoraggio a distanza e algoritmi predittivi stanno diventando parte integrante della pratica clinica.
Questa evoluzione tecnologica, pur promettendo miglioramenti in termini di efficienza, accuratezza e accesso alle cure, solleva al contempo interrogativi complessi, in particolare per quanto riguarda la responsabilità del professionista sanitario. L’analisi si concentra sul ruolo del professionista sanitario non medico (come infermieri, fisioterapisti, tecnici di radiologia, ecc.) la cui interazione con l’IA è sempre più frequente e cruciale. Tuttavia, questa innovazione introduce un complesso dilemma etico e giuridico: chi è responsabile in caso di errore? si
evolve da mero esecutore a interprete e validatore di dati e suggerimenti algoritmici.
Le Nuove Sfide per la Responsabilità Professionale L’IA non è un semplice strumento, ma un sistema che può prendere decisioni complesse. Questo crea nuove sfide per la responsabilità professionale basata sui tradizionali principi di diligenza, prudenza e perizia.
Dipendenza dall’algoritmo (Automation Bias): Il rischio che il professionista si affidi ciecamente ai suggerimenti dell’IA, riducendo il proprio ruolo critico. Se un infermiere somministra un farmaco basandosi su un dosaggio calcolato da un algoritmo errato, la sua responsabilità può essere contestata.

Il professionista ha l’obbligo di verificare e non delegare il proprio giudizio clinico alla macchina.
L’opacità dell’algoritmo (Black Box): Molti sistemi di IA, in particolare quelli basati sul deep learning, funzionano come “scatole nere”. È difficile, se non impossibile, per un utente umano capire il processo decisionale che ha
portato l’IA a un determinato risultato.

Come può un professionista difendersi in tribunale se non è in grado di spiegare il ragionamento dell’algoritmo che ha utilizzato? La trasparenza e la superabilità degli algoritmi diventano requisiti fondamentali.
Qualità dei dati e bias algoritmico: Un’IA è efficace solo quanto i dati su cui è stata addestrata. Se i dati sono viziati da pregiudizi (ad esempio, se il modello è stato addestrato prevalentemente su dati di pazienti di un solo
gruppo etnico), l’algoritmo potrebbe commettere errori sistematici o discriminatori. La responsabilità ricade sul professionista che, pur utilizzando uno strumento imperfetto, dovrebbe essere in grado di riconoscere e mitigare tali rischi.
Il dovere di formazione e aggiornamento: La responsabilità del professionista non si limita più alla padronanza delle tecniche manuali, ma si estende alla competenza digitale. Il dovere di aggiornamento professionale (continuous professional development) ora include la conoscenza delle potenzialità e, soprattutto, dei limiti degli strumenti di IA.

Quadro Normativo Attuale e la Responsabilità Professionale
Tradizionalmente, la responsabilità del professionista sanitario si fonda su principi consolidati come la “diligenza del buon professionista” e l’osservanza delle linee guida e delle leges artis. La responsabilità civile, in Italia, è regolata dalla Legge Gelli-Bianco (L. n. 24/2017) che distingue tra responsabilità contrattuale ed extracontrattuale. Il professionista sanitario risponde del danno causato al paziente per negligenza, imprudenza o imperizia. La valutazione della condotta si basa sulla “colpa lieve” o “colpa grave”, tenendo conto della difficoltà dell’atto e delle specifiche competenze richieste.

Tuttavia, l’IA introduce un nuovo livello di complessità. Se un algoritmo diagnostico suggerisce una terapia
errata o un dispositivo robotico commette un errore, chi ne è responsabile? Il professionista che si è affidato allo strumento? Il produttore del software? L’operatore che ha gestito il dispositivo?

Prospettive Giuridiche e Modelli di Responsabilità
Il modello che si sta delineando è un sistema di responsabilità condivisa, in cui la colpa può essere ripartita tra il professionista, il produttore del software e la
struttura sanitaria, in base alle circostanze del caso.

  • Il principio del “controllo umano” (Human-in-the-loop): Nonostante l’automazione, il professionista sanitario rimane l’ultima autorità decisionale. L’IA è un supporto, non un sostituto del giudizio clinico. La responsabilità principale del professionista risiede nella supervisione critica e nella validazione dell’output dell’algoritmo.
  • Responsabilità del produttore/sviluppatore: Se l’errore deriva da un difetto di progettazione o da un bug del software, la responsabilità potrebbe ricadere sul produttore.
  • Responsabilità della struttura sanitaria: L’ospedale o la clinica ha la responsabilità di fornire strumenti sicuri, implementare protocolli chiari per l’uso dell’IA e garantire un’adeguata formazione del personale. La loro responsabilità potrebbe derivare da una carenza organizzativa o dall’aver fornito strumenti non certificati.

Le Nuove Sfide derivanti dall’Impiego dell’IA

L’Affidamento Ragionevole all’Algoritmo
Il professionista non medico si trova spesso nella posizione di dover interpretare e agire in base a dati o suggerimenti generati da sistemi di IA. La prima sfida è stabilire il limite entro cui l’affidamento a tali strumenti può essere considerato “ragionevole”. Un infermiere che gestisce un sistema di monitoraggio remoto basato sull’IA è tenuto a verificare l’accuratezza dei dati, o può fidarsi del sistema? Se il sistema emette un falso negativo, causando un ritardo nelle cure, la responsabilità ricade sul professionista che non ha effettuato una verifica manuale? La giurisprudenza dovrà definire se il professionista è tenuto a una due diligence rafforzata, ovvero a una verifica critica dei risultati dell’IA. Il professionista sanitario, pur non essendo un esperto informatico, deve mantenere la sua autonomia di giudizio e non delegare in toto la sua funzione decisionale all’algoritmo. La “cecità da automazione” (automation bias), ovvero la tendenza a fidarsi ciecamente di un sistema automatico, rappresenta un rischio reale e una potenziale causa di colpa professionale.

La Formazione e l’Aggiornamento Continuo
L’introduzione dell’IA in sanità richiede un aggiornamento costante delle competenze professionali. Il professionista sanitario non medico deve acquisire una “alfabetizzazione digitale” e una conoscenza di base dei principi di funzionamento degli strumenti di IA che utilizza. La mancanza di formazione specifica sull’utilizzo e sui limiti di tali strumenti potrebbe essere considerata una forma di imperizia. La sfida è duplice: da un lato, le istituzioni sanitarie e le università devono integrare la formazione sull’IA nei curricula; dall’altro, i professionisti devono essere proattivi nell’aggiornare le proprie competenze attraverso corsi di formazione continua.

La Tracciabilità e la Trasparenza degli Algoritmi
Un altro aspetto critico è la cosiddetta “scatola nera” (black box) degli algoritmi di IA. Molti algoritmi, in particolare quelli di deep learning, operano in modo opaco, rendendo difficile comprendere il ragionamento che ha portato a un determinato output. Questo rende complessa l’analisi della causalità in caso di errore. In caso di un esito avverso, come si può stabilire se l’errore è imputabile all’algoritmo o al professionista che lo ha utilizzato?
La nuova normativa europea sull’IA (AI Act) mira a imporre requisiti di trasparenza e tracciabilità per i sistemi di IA ad alto rischio, come quelli in sanità.
Questo potrebbe mitigare il problema della “scatola nera” e facilitare l’attribuzione delle responsabilità. Tuttavia, la responsabilità del professionista sanitario rimane in gioco se non documenta adeguatamente le sue decisioni e le sue interazioni con il sistema di IA.

La Collaborazione Interprofessionale
L’impiego dell’IA in sanità enfatizza la necessità di una collaborazione sempre più stretta tra i professionisti sanitari (medici e non medici), gli ingegneri biomedici e gli esperti di IA. Il professionista non medico, in prima linea nell’interazione con il paziente e con i dispositivi, può fornire un feedback cruciale per lo sviluppo e il miglioramento degli algoritmi. La mancanza di comunicazione e collaborazione può portare a errori e a una gestione inefficace della tecnologia.

Prospettive Giuridiche e Modelli di Responsabilità
Il modello che si sta delineando è un sistema di responsabilità condivisa, in cui la colpa può essere ripartita tra più attori:

  • Il professionista sanitario: La responsabilità si basa sul principio del “controllo umano” (Human-in-the-loop). Il professionista ha il dovere di supervisionare, validare e, se necessario, non accettare il suggerimento dell’IA, agendo secondo i principi della scienza medica e le proprie competenze.
  • Il produttore/sviluppatore: Può essere ritenuto responsabile in caso di difetto del software, come un bug o un errore di progettazione, in base alla normativa sulla responsabilità da prodotto difettoso.
  • La struttura sanitaria: Ha la responsabilità di fornire strumenti sicuri e certificati, protocolli chiari per l’uso dell’IA e un’adeguata formazione del personale.


Conclusioni
L’evoluzione tecnologica impone una ricalibrazione del concetto di responsabilità professionale. Il professionista sanitario non medico, pur non essendo il decisore ultimo, non è esonerato dalla responsabilità in caso di esiti avversi derivanti dall’impiego dell’IA.
La responsabilità del professionista sanitario non medico nell’era dell’IA si evolve da una mera osservanza delle leges artis a una “responsabilità aumentata”. l’era dell’IA richiede un nuovo paradigma di responsabilità, che integri la competenza umana con il potenziale della tecnologia. Il professionista sanitario non medico non viene sostituito dall’IA, ma il suo ruolo si evolve, diventando il garante ultimo della sicurezza e della correttezza dei processi assistenziali, supportato e vincolato da un quadro normativo in continua evoluzione.

Questa responsabilità include:

  • La diligenza critica nell’utilizzo degli strumenti di IA, superando la “cecità da automazione”.
  • L’aggiornamento continuo delle proprie competenze digitali.
  • La corretta documentazione delle interazioni con i sistemi di IA e delle decisioni prese.

La collaborazione attiva con i team multidisciplinari. È imperativo che il sistema giuridico, le istituzioni sanitarie e gli ordini professionali si adattino rapidamente a questo nuovo scenario. La definizione di
nuove linee guida, l’integrazione della formazione sull’IA nei percorsi formativi e la creazione di meccanismi di tracciabilità e trasparenza degli algoritmi sono passi fondamentali per garantire la sicurezza del paziente e la tutela del professionista nell’era della sanità digitale. L’IA non è un sostituto del professionista, ma un partner tecnologico; è la capacità di governare questa partnership in modo responsabile che definirà il futuro della professione sanitaria.

Normativa di Riferimento

  • Legge 8 marzo 2017, n. 24 (Legge Gelli-Bianco): Disposizioni in materia di sicurezza delle cure e della persona assistita, nonché in materia di responsabilità professionale degli esercenti le professioni sanitarie.
  • Regolamento (UE) 2024/1689 (AI Act): Regolamento del Parlamento europeo e del Consiglio che stabilisce norme armonizzate in materia di intelligenza artificiale. (Si noti che la data di entrata in vigore e l’applicazione completa delle disposizioni varieranno a seconda del tipo di sistema di IA).


Bibliografia

  • S. Rodotà, Il mondo nella rete. Quali diritti, quali libertà, Laterza, 2014.
  • F. Donato, L. Lazzaro, Responsabilità professionale sanitaria e intelligenza artificiale, Giuffrè Francis Lefebvre, 2021.
  • M. Iannuzzi, L’Intelligenza Artificiale in Sanità: Rischi e Benefici, in Diritto e nuove tecnologie, 2023, n. 3, pp. 25-40.
  • European Commission, Ethics Guidelines for Trustworthy AI, 2019.
  • A. Neri, Digital Health e responsabilità professionale: una nuova prospettiva, in Responsabilità civile e previdenza, 2022, n. 5, pp. 1101-1120.
  • Pagallo, U. (2018). The Laws of Robots: Crimes, Contracts, and Torts. Springer.
  • Commissione Europea (2020). White Paper on Artificial Intelligence – A European approach to excellence and trust. COM (2020)
  • Council of Europe (2022). Ethical Guidelines on the use of artificial intelligence in healthcare.
  • Smuha N. (2021). The EU’s AI Act: The new paradigm of risk-based regulation.
  • Law, Innovation and Technology, 13(1), 131-181.
  • Corbino, E. (2021). L’Intelligenza Artificiale e il diritto. Profili giuridici della responsabilità in sanità. Giuffrè Editore.

Share this post

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *