IA IN MEDICINA

28 Marzo 2024

Intelligenza artificiale in medicina sì, ma con paletti ben definiti: affinché a curarci non sia, in futuro, anziché un medico, un algoritmo. Questa la posizione del presidente della Fnomceo, la Federazione nazionale degli Ordini dei medici chirurghi e degli odontoiatri, Filippo Anelli, ascoltato in audizione in Commissione Lavoro della Camera, nel corso dell’Indagine conoscitiva sul rapporto tra intelligenza artificiale e mondo del lavoro.

Tra le aree sulle quali l’IA ha ad oggi un maggior impatto sono l’imaging, la diagnosi precoce, i piani di trattamento e terapie personalizzate; e, ancora, la progettazione di nuovi farmaci, tramite modelli predittivi; il monitoraggio dei pazienti in tempo reale; i compiti amministrativi e burocratici, quali la gestione degli appuntamenti o l’aggiornamento delle cartelle cliniche; la formazione, tramite modelli di simulazione avanzati; il coinvolgimento dei pazienti e l’aderenza alle terapie; la sorveglianza delle malattie e la previsione di epidemie e pandemie. Ma l’IA, tuttavia, non è priva di criticità e come tutti gli strumenti può prestarsi a un utilizzo improprio. La diffusione massiva e sistemica di applicazioni di IA impone la necessità di una regolamentazione chiara e condivisa in linea con l’Europa.

L’IA – ha sintetizzato Anelli – non solo sta migliorando l’efficienza e l’accuratezza dei servizi sanitari, ma sta anche aprendo la strada a soluzioni sanitarie più innovative, personalizzate e accessibili in tutto il mondo. Tuttavia, è fondamentale affrontare le sfide etiche, legali e formative che accompagnano questi sviluppi. La privacy dei dati, la sicurezza informatica, la responsabilità medica e l’interpretazione corretta delle informazioni sono tutti aspetti critici che devono essere gestiti attentamente”.

Tra i rischi paventati, anche quelli legati a un approccio eccessivamente centrato sull’efficienza, che potrebbe ridurre l’interazione umana e ridimensionare l’interazione medico-paziente. l’IA potrebbe inoltre non essere in grado di considerare adeguatamente la complessità del contesto clinico del singolo paziente, influenzato anche da fattori socioeconomici e da convinzioni e preferenze personali. Ancora, gli algoritmi potrebbero rispecchiare i pregiudizi umani nelle scelte decisionali o diventare il “magazzino” dell’opinione medica personale. Infine, ma non certo ultimo per importanza, potrebbe nasce un conflitto etico per le differenze di intenti e obiettivi tra chi finanzia e realizza un algoritmo e chi lo utilizza.
“Per mitigare questi rischi- ha avvertito Anelli – è essenziale trovare un equilibrio tra l’efficienza offerta dall’IA e la necessità di considerare l’individualità e il contesto clinico di ciascun paziente. Gli operatori sanitari dovrebbero essere coinvolti attivamente nella gestione e nella supervisione dei sistemi di IA, garantendo che la tecnologia sia utilizzata come strumento complementare e non come sostituto delle competenze umane. Normative e linee guida chiare sono fondamentali per garantire un utilizzo etico e sicuro dell’IA in ambito medico”.

In conclusione, Anelli ha portato all’attenzione dei parlamentari un documento sintetico sull’Intelligenza artificiale, approvato dal Comitato Centrale, l’Organo di Governo della Fnomceo, il 4 marzo scorso.

Eccolo, di seguito, in versione integrale.:
“L’Intelligenza Artificiale è utilizzata esclusivamente a supporto delle attività del medico per ottimizzare la qualità, la sicurezza e l’efficacia delle cure.
L’Intelligenza Artificiale per il suo utilizzo deve garantire al medico un livello ragionevole di esplicabilità e di trasparenza e la migliore qualità possibile dei dati, dei risultati e dei processi di sviluppo, per evitare distorsioni ed errori nonché disuguaglianze. Nell’uso di sistemi IA all’interno del suo processo decisionale, il medico è tenuto ad informare il paziente, spiegando i motivi di tale uso, e assicurandosi che il paziente sia consapevole sia delle potenzialità che dei limiti e rischi connessi all’uso di tali tecnologie.

L’impiego di sistemi di IA è orientato al bene della persona e della salute pubblica, rispettando e promuovendo i principi di sostenibilità, universalità, equità e solidarietà, evitando ogni discriminazione o pregiudizio basato su genere, etnia, religione, orientamento sessuale o altri fattori che possano portare a un trattamento ingiusto o diseguale.
Non possono essere utilizzati sistemi di IA non certificati. Il medico, sulla base delle proprie competenze e conoscenze scientifiche, è responsabile delle attività di diagnosi, prognosi, terapia e delle correlate attività informative”.

da doctor33.it

Leave a comment

Your email address will not be published. Required fields are marked *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.