Login con

Politica e Sanità

12 Ottobre 2023

Intelligenza artificiale, Garante privacy: dieci regole per l’utilizzo in sanità

Il Garante della privacy ha varato il Decalogo per la realizzazione di servizi sanitari nazionali attraverso sistemi di Intelligenza Artificiale

di Redazione Farmacista33


Intelligenza artificiale, Garante privacy: dieci regole per l’utilizzo in sanità

Trasparenza dei processi decisionali, decisioni automatizzate supervisionate dall'uomo, non discriminazione algoritmica: questi i tre principi cardine del decalogo varato dal Garante Privacy per la realizzazione di servizi sanitari a livello nazionale attraverso sistemi di intelligenza artificiale (IA). In base alle indicazioni dell'Autorità, il paziente deve avere il diritto di conoscere, anche attraverso campagne di comunicazione, se esistono e quali sono i processi decisionali (ad esempio, in ambito clinico o di politica sanitaria) basati su trattamenti automatizzati effettuati attraverso strumenti di IA e di ricevere informazioni chiare sulla logica utilizzata per arrivare a quelle decisioni. Il processo decisionale dovrà prevedere una supervisione umana che consenta al personale sanitario di controllare, validare o smentire l'elaborazione effettuata dagli strumenti di IA.

Evitare potenziali effetti discriminatori

È opportuno, avverte il Garante, che il titolare del trattamento utilizzi sistemi di IA affidabili che riducano gli errori dovuti a cause tecnologiche o umane e ne verifichi periodicamente l'efficacia, mettendo in atto misure tecniche e organizzative adeguate. Questo, anche allo scopo di mitigare potenziali effetti discriminatori che un trattamento di dati inesatti o incompleti potrebbe comportare sulla salute della persona. Un esempio è il caso americano, richiamato dal Garante nel decalogo, riguardante un sistema di IA utilizzato per stimare il rischio sanitario di oltre 200 milioni di americani. Gli algoritmi tendevano ad assegnare un livello di rischio inferiore ai pazienti afroamericani a parità di condizioni di salute, a causa della metrica utilizzata, basata sulla spesa sanitaria media individuale che risultava meno elevata per la popolazione afroamericana, con la conseguenza di negare a quest'ultima l'accesso a cure adeguate. Il dato non aggiornato o inesatto, sottolinea l'Autorità, potrebbe influenzare anche l'efficacia e la correttezza dei servizi che i sistemi di IA intendono realizzare. Particolare attenzione è stata posta dal Garante all'idoneità della base giuridica per l'uso dell'intelligenza artificiale.

Specifico quadro normativo per trattamento di dati sulla salute attraverso tecniche di IA

Il trattamento di dati sulla salute attraverso tecniche di IA, effettuato per motivi di interesse pubblico in ambito sanitario, dovrà essere previsto da uno specifico quadro normativo, che individui misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi degli interessati. Nel rispetto del quadro normativo di settore, il Garante ha inoltre sottolineato la necessità che, prima di effettuare trattamenti di dati sulla salute mediante sistemi nazionali di IA, sia svolta una valutazione d'impatto allo scopo di individuare le misure idonee a tutelare i diritti e le libertà dei pazienti e garantire il rispetto dei principi del Regolamento Ue. Un sistema centralizzato nazionale che utilizzi l'IA determina infatti un trattamento sistematico su larga scala di dati sanitari che rientra tra quelli ad "alto rischio", per i quali la valutazione d'impatto è obbligatoria e deve essere svolta a livello centrale per consentire un esame complessivo sull'adeguatezza e omogeneità degli accorgimenti adottati. Nella descrizione dei trattamenti è altresì necessario che siano puntualmente indicate, in particolare, le logiche algoritmiche utilizzate al fine di "generare" i dati e i servizi, le metriche impiegate per addestrare il modello, i controlli svolti per verificare la presenza di eventuali bias e la possibilità di una loro correzione.

Decalogo per la realizzazione di servizi sanitari nazionali attraverso sistemi di Intelligenza Artificiale

TAG: PRIVACY, GARANTE DELLA PRIVACY, INTELLIGENZA ARTIFICIALE, SERVIZI SANITARI

Se l'articolo ti è piaciuto rimani in contatto con noi sui nostri canali social seguendoci su:

Seguici su Facebook! Seguici su Linkedin! Segui le nostre interviste su YouTube!

Oppure rimani sempre aggiornato in ambito farmaceutico iscrivendoti alla nostra newsletter!

POTREBBERO INTERESSARTI ANCHE

19/02/2024

Il test on line di access alla facoltà di Medicina è stato annullato a gennaio dal Tar Lazio e sarà sostituito dal ritorno al concorsone in presenza degli anni precedenti. Lo ha deciso il...

A cura di Redazione Farmacista33

19/02/2024

Sono confermati cinque casi morbillo mutato nella città di Milano e dintorni che non sono rilevabili dai test diagnostici attualmente utilizzati

A cura di Redazione Farmacista33

19/02/2024

La Giunta Federale di Assofarm ha rinnovato i membri dell'Ufficio di Presidenza, nominato la Commissione per le Relazioni Industriali e definito la città che...

19/02/2024

Il ministero della Salute ha trasmesso un’allerta di grado 3 chiedendo di potenziare la vigilanza su eventuali furti di farmaci contenti fentanil e suoi...

A cura di Simona Zazzetta

 
Resta aggiornato con noi!

La tua risorsa per news mediche, riferimenti clinici e formazione.

 Dichiaro di aver letto e accetto le condizioni di privacy

EVENTI

AZIENDE

City Lab introduce gli integratori Clinica

City Lab introduce gli integratori Clinica

A cura di City Lab

I pediatri segnalano una riacutizzazione dei casi di streptococco che può durare fino a primavera, e aumento anche dei casi di morbillo in Italia e in Europa ...

A cura di Redazione Farmacista33

 
chiudi

©2024 Edra S.p.a | www.edraspa.it | P.iva 08056040960 | Tel. 02/881841 | Sede legale: Via Spadolini, 7 - 20141 Milano (Italy)

Top