• Aprile 26, 2024

I rischi dell’impiego dell’Intelligenza Artificiale nelle politiche sanitarie globali: su chi ricadrà la responsabilità medica dei DANNI?

Sostienici

Tutti noi di Eventi Avversi News vogliamo che siate sempre aggiornati. La nostra missione non è solo quella di tenere i riflettori accesi, noi vogliamo fornirvi i migliori contenuti. Se apprezzate il nostro lavoro e volete sostenerci, potete farlo con una libera donazione.


Una nuova collaborazione chiamata “Global Health Policy Lab” (GHPL) mira a sviluppare strumenti digitali che rafforzino la capacità globale disponibile di identificare, analizzare, diffondere e valutare l’impatto delle leggi e delle politiche sanitarie rilevanti nel campo della salute globale.

Il laboratorio, una partnership tra l’Harvard Health Systems Innovation Lab e il Charité Center for Global Health, è stato annunciato il mese scorso a margine dell’Assemblea mondiale della sanità a Ginevra.

I partner lavoreranno per rendere il processo decisionale basato sulla scienza e sulle evidenze una “realtà universale”, con l’obiettivo finale di migliorare l’accesso e la qualità delle cure in tutto il mondo.

L’elaborazione delle politiche è dolorosa, ma la loro attuazione lo è ancora di più“, ha dichiarato il dottor Rifat Atun, direttore dell’Harvard Health Systems Innovation Lab della Harvard School of Public Health. “Siamo quindi impegnati a innovare il modo in cui queste sfide vengono affrontate: con un apprendimento e una collaborazione rigorosi, la democratizzazione e la diffusione attraverso l’apprendimento automatico e l’IA”.

Parte della collaborazione comprenderà la costruzione di un “Repositorium digitale” accessibile, di leggi e politiche sanitarie, che sarà divulgato attraverso un rapporto annuale che include l’analisi delle tendenze, delle sfide, delle opportunità e delle minacce della politica sanitaria.

Obiettivo dell’OMS per la salute digitale dal 2020

In occasione dell’Assemblea mondiale della sanità, l’Organizzazione mondiale della sanità ha definito una strategia globale sulla salute digitale nel 2020. La visione dell’OMS è “che la salute digitale sostenga un accesso equo e universale a servizi sanitari di qualità”, ha dichiarato l’organizzazione.

Il programma dell’OMS prevede tre obiettivi fondamentali:

1 – Sostenere l’implementazione di soluzioni digitali per informare il processo decisionale medico.

2 – Riunire esperti in tutto il mondo attraverso la comunicazione digitale per condividere le migliori pratiche e le conoscenze.

3 – Mettere in contatto i Paesi con le innovazioni sanitarie specifiche che meglio rispondono alle loro esigenze.

Ricardo Baptista Leite, presidente fondatore dell’iniziativa ha dichiarato:

“Sfrutteremo il potere della tecnologia per promuovere l’innovazione e la conoscenza che, in ultima analisi, fornirà ai responsabili politici a tutti i livelli (multilaterale, nazionale, statale, regionale e locale) strumenti e competenze in grado di accelerare la traduzione delle raccomandazioni basate sulla scienza in leggi concrete, politiche, campagne di sensibilizzazione e altri interventi politici che, in ultima analisi, possono contribuire a una popolazione più sana su scala globale”.

I rischi legati all’utilizzo dell’INTELLIGENZA ARTIFICIALE

Tuttavia, alcuni medici e scienziati hanno individuato dei rischi nell’utilizzo dell’IA nell’assistenza sanitaria e nella definizione delle politiche sanitarie. Un articolo pubblicato quest’anno  sulla rivista peer-reviewed Biomed Matter Devices ha evidenziato i rischi connessi all’utilizzo dell’intelligenza artificiale nel settore sanitario. Le preoccupazioni includono la sicurezza e la privacy dei dati.

L’articolo intitolato : “Drawbacks of Artificial Intelligence and Their Potential Solutions in the Healthcare Sector” ( Svantaggi dell’intelligenza artificiale e delle loro potenziali soluzioni nel settore sanitario), evidenzia i punti deboli e i gravi rischi legati all’implementazione dei sistemi sanitari globali e nazionali con l’IA.

Si legge:

“[…] I sistemi basati sull’intelligenza artificiale sollevano preoccupazioni in merito alla sicurezza e alla privacy dei dati. Poiché le cartelle cliniche sono importanti e vulnerabili, gli hacker le prendono spesso di mira durante le violazioni dei dati. L’assenza di linee guida standard per l’uso morale dell’IA e del ML in ambito sanitario non ha fatto altro che peggiorare la situazione. Si discute su quanto l’intelligenza artificiale (IA) possa essere utilizzata eticamente in ambito sanitario, poiché non esistono linee guida universali per il suo utilizzo. Pertanto, è fondamentale mantenere la riservatezza delle cartelle cliniche. Questo studio illustra i possibili inconvenienti dell’IA nell’implementazione del settore sanitario e le soluzioni per superarli”…”Abbiamo bisogno di norme più severe sulla sicurezza dei dati “

Il problema fondamentale per gli autori dello studio, sta nel fatto che le intelligenza artificiale per essere ” addestrata” ha bisogno di un’enorme quantità di dati:

“Il primo problema è l’inaccessibilità dei dati rilevanti. Affinché i modelli di ML e DL possano classificare o prevedere correttamente un’ampia gamma di lavori, sono necessari enormi set di dati. I maggiori progressi significativi nella capacità del ML di generare algoritmi più raffinati e accurati si sono verificati in settori con un facile accesso a grandi insiemi di dati.”

Ma qui entra in gioco il problema della privacy:

“A causa dei progressi dell’IA, gli utenti possono scambiare i sistemi artificiali per persone e fornire il loro consenso per una raccolta di dati più occulta, sollevando gravi problemi di privacy . Il consenso del paziente è una componente fondamentale dei problemi di privacy dei dati, poiché gli operatori sanitari possono consentire un ampio utilizzo delle informazioni del paziente per la ricerca sull’IA senza richiedere l’approvazione specifica del paziente. Nel 2018 Google ha acquisito DeepMind, leader nell’IA per la sanità. Quando si è scoperto che l’NHS aveva caricato i dati di 1,6 milioni di pazienti sui server di DeepMind senza il consenso dei pazienti per costruire il suo algoritmo, Streams, un’applicazione con un algoritmo per il trattamento dei pazienti con insufficienza renale acuta, è stata oggetto di critiche. Negli Stati Uniti è stata condotta un’indagine sulla privacy dei dati dei pazienti sul Project Nightingale di Google. La privacy dei dati è ora molto più problematica, dato che l’applicazione è ora formalmente ospitata sui server di Google“[…]

Inoltre:

” Leggi approvate da vari paesi rendono più difficili i problemi di collaborazione e ricerca cooperativa, le normative sulla privacy dei dati stabilite per risolvere questo problema possono limitare la quantità di dati accessibili per addestrare i sistemi di IA su scala nazionale e globale“[…]

Tuttavia con set di dati ridotti si configura un altro problema:

[…]Risultati potenzialmente distorti potrebbero essere la conseguenza di distorsioni nei processi di raccolta dei dati utilizzati per informare lo sviluppo del modello. Ad esempio, la sottorappresentazione delle minoranze come conseguenza di pregiudizi razziali nello sviluppo del set di dati potrebbe portare a risultati di previsione scadenti”.

Semplificando: pochi dati a disposizione per l’addestramento dell’IA possono portare a previsioni (ma anche diagnosi) scadenti da parte della stessa.

Veniamo dunque al problema più scottante: la responsabilità medica:

[…]”Una critica tipica mossa ai sistemi di IA è il cosiddetto problema dellablack-box“. Gli algoritmi di apprendimento profondo non sono in grado di fornire spiegazioni convincenti per le loro previsioni. Se le raccomandazioni sono sbagliate, il sistema non ha modo di difendersi legalmente.

Per gli scienziati è più difficile capire come i dati si colleghino alle loro previsioni. Inoltre, la “black-box” potrebbe far perdere la fiducia nel sistema medico.

Vale la pena di notare che il meccanismo d’azione di molti farmaci comunemente prescritti, come il Panadol, è poco conosciuto e che la maggior parte dei medici ha solo una conoscenza di base degli strumenti di diagnostica per immagini come la risonanza magnetica e la tomografia computerizzata. La costruzione di sistemi di intelligenza artificiale in grado di essere compresi dagli esseri umani è ancora un campo di studio attivo, e Google ha recentemente pubblicato uno strumento che aiuta in questo senso”.

Responsabiltà e Consenso Informato

L’intelligenza artificiale è stata oggetto di preoccupazioni etiche fin dalla sua concezione. Il problema principale è quello della responsabilità, non quello della privacy e della sicurezza dei dati, già evidenziato in precedenza.

A causa della gravità delle conseguenze, il sistema attuale richiede che qualcuno sia ritenuto responsabile quando vengono prese decisioni sbagliate, soprattutto in campo medico. Molti vedono l’intelligenza artificiale (IA) come una “scatola nera”, perché i ricercatori temono che sia difficile capire come un algoritmo sia arrivato a una certa conclusione. Alcuni hanno suggerito che il problema della “black-box” sia meno preoccupante per gli algoritmi utilizzati in applicazioni di minore importanza, come quelle che non sono mediche e che invece privilegiano l’efficienza o il miglioramento delle operazioni. Ciononostante, la questione della responsabilità diventa molto più importante quando si pensa alle applicazioni di IA che cercano di migliorare i risultati medici, in particolare quando si verificano errori. Per questo motivo, non è chiaro di chi sia la colpa in caso di guasto del sistema. Potrebbe essere difficile attribuire la colpa al medico quando non ha partecipato allo sviluppo o alla supervisione dell’algoritmo. Tuttavia, la colpa dello sviluppatore può sembrare estranea al contesto clinico. L’uso dell’intelligenza artificiale per prendere decisioni etiche in ambito sanitario è già vietato in Cina e a Hong Kong“…

Veniamo alla conclusione:

“La questione dell’IA nei sistemi sanitari si conclude evidenziando diversi problemi di implementazione dell’IA sia all’interno che all’esterno del settore sanitario. La privacy dei dati, le questioni sociali, le questioni etiche, i problemi di hacking e i problemi degli sviluppatori sono stati tra gli ostacoli all’implementazione dell’IA nel settore medico.

Sulla base della nostra analisi, l’esistenza dell’IA al giorno d’oggi sembra inevitabile. Gli sviluppi tecnici sono stati significativi fin dagli albori dell’era moderna e sembra che una tecnologia come l’IA si espanderà rapidamente e diventerà un requisito vitale in tutto il mondo. Sebbene l’IA sia stata creata nel mondo attuale, si tratta ancora di un’IA limitata, attualmente debole.

Per il momento, questa tecnologia viene impiegata per svolgere determinati lavori, concentrandosi sul riconoscimento delle cose tramite sensori e quindi sull’IA che agisce in modo appropriato in base a regole preprogrammate.

L’obiettivo principale degli scienziati di oggi è sviluppare un’IA universale completa con algoritmi avanzati e affidabili. Le funzioni specializzate di questa IA sono altrettanto più sofisticate di quelle attuali. È importante considerare l’adozione dei sistemi di IA nell’assistenza sanitaria come un’esperienza di apprendimento dinamico a tutti i livelli, che richiede un approccio di pensiero sistemico più sofisticato nel settore sanitario per superare questi problemi”.


LINK ALLO STUDIO: Drawbacks of Artificial Intelligence and Their Potential Solutions in the Healthcare Sector – PMC (nih.gov)

Iscriviti alla nostra newsletter

Sostienici

Tutti noi di Eventi Avversi News vogliamo che siate sempre aggiornati. La nostra missione non è solo quella di tenere i riflettori accesi, noi vogliamo fornirvi i migliori contenuti. Se apprezzate il nostro lavoro e volete sostenerci, potete farlo con una libera donazione.


eVenti Avversi

Read Previous

Lo scandalo degli abusi e delle violenze dell’Organizzazione Mondiale della Sanità

Read Next

Jacinda Ardern riceve la seconda onorificenza più alta del Paese per la gestione della pandemia, mentre i decessi in eccesso continuano a salire

Ads Blocker Image Powered by Code Help Pro

Ads Blocker Rilevato

Abbiamo rilevato che utilizzi adblock. Per proseguire la navigazione, per favore, disabilitalo sul nostro sito. Ci aiuta a mantenere i costi del servizio.

Powered By
100% Free SEO Tools - Tool Kits PRO