L’OMS e la regolamentazione dell’intelligenza artificiale per la salute
Grazie ai dati sanitari sempre più disponibili e ai progressi rapidi delle tecniche di analisi, come il machine learning, la logica e le statistiche, l’uso dell’intelligenza artificiale potrebbe rivoluzionare il settore sanitario, migliorando la qualità dell’assistenza sanitaria e rendendola più efficiente.
L’OMS ha riconosciuto il grande potenziale dell’Intelligenza Artificiale (IA) nel campo della sanità.
Grazie all’IA, è possibile migliorare notevolmente i risultati sanitari attraverso diversi modi.
a) In primo luogo, l’IA può rafforzare gli studi clinici, consentendo una migliore analisi e interpretazione dei dati raccolti;
b) l’IA può migliorare la diagnosi medica, aiutando i medici a identificare in modo più preciso e tempestivo le malattie e le condizioni dei pazienti.
c) grazie all’elaborazione dei dati e all’apprendimento automatico, l’IA può fornire raccomandazioni personalizzate e consigli per la gestione della salute.
d) un altro vantaggio dell’IA è la possibilità di integrare le conoscenze, le abilità e le competenze degli operatori sanitari.
L’IA può essere utilizzata per analizzare grandi quantità di dati e identificare modelli e tendenze nascoste. Queste informazioni possono essere utilizzate per migliorare la formazione e l’aggiornamento dei professionisti sanitari, consentendo loro di essere costantemente aggiornati sulle ultime scoperte e pratiche migliori.
e) l’IA può portare a un trattamento più efficace e a una migliore cura di sé per i pazienti. Ciò permette di adattare le cure in base alle esigenze specifiche di ogni individuo, migliorando così l’efficacia complessiva dell’assistenza sanitaria.
f) l’IA può essere utilizzata per interpretare scansioni retiniche e immagini radiologiche, fornendo una diagnosi preliminare che può essere successivamente confermata da un medico specialista. Questo può aiutare a ridurre i tempi di attesa per una diagnosi accurata e garantire che i pazienti ricevano il trattamento adeguato nel minor tempo possibile.
L’Organizzazione Mondiale della Sanità (OMS) ha recentemente pubblicato una nuova pubblicazione che fornisce una serie di considerazioni normative fondamentali sull’utilizzo dell’intelligenza artificiale (AI) nel campo della salute.
La pubblicazione sottolinea l’importanza di garantire la sicurezza e l’efficacia dei sistemi di intelligenza artificiale, in particolare quelli utilizzati in campo medico.
È fondamentale che tali sistemi siano rapidamente disponibili per coloro che ne hanno bisogno, promuovendo al tempo stesso un dialogo costante tra le parti interessate, tra cui sviluppatori, regolatori, produttori, operatori sanitari e pazienti.
Quando si utilizzano dati sanitari, i sistemi di intelligenza artificiale potrebbero avere accesso a informazioni personali sensibili, necessitando di solidi quadri giuridici e normativi per salvaguardare la privacy, la sicurezza e l’integrità, che questa pubblicazione mira a contribuire a creare e mantenere.
“L’intelligenza artificiale rappresenta una grande promessa per la salute, ma comporta anche gravi sfide, tra cui la raccolta di dati non etici, minacce alla sicurezza informatica e l’amplificazione di pregiudizi o disinformazione”, ha affermato il dottor Tedros Adhanom Ghebreyesus, direttore generale dell’OMS. “Questa nuova guida aiuterà i paesi a regolamentare l’IA in modo efficace, per sfruttarne il potenziale, sia nel trattamento del cancro che nel rilevamento della tubercolosi, riducendo al minimo i rischi”.
la pubblicazione delinea sei aree per la regolamentazione dell’IA per la salute.
- Per promuovere la fiducia, la pubblicazione sottolinea l’importanza della trasparenza e della documentazione , ad esempio documentando l’intero ciclo di vita del prodotto e monitorando i processi di sviluppo.
- Per la gestione del rischio , questioni come l’uso previsto, l’apprendimento continuo, gli interventi umani, i modelli di formazione e le minacce alla sicurezza informatica devono essere tutte affrontate in modo esaustivo, con modelli resi il più semplici possibile.
- La convalida esterna dei dati e la chiarezza sull’uso previsto dell’IA aiutano a garantire la sicurezza e a facilitare la regolamentazione.
- Un impegno per la qualità dei dati , ad esempio attraverso una valutazione rigorosa dei sistemi prima del rilascio, è vitale per garantire che i sistemi non amplifichino pregiudizi ed errori.
- La promozione della collaborazione tra organismi di regolamentazione, pazienti, operatori sanitari, rappresentanti del settore e partner governativi è fondamentale per garantire che i prodotti e i servizi nel settore sanitario rispettino le normative vigenti durante l’intero ciclo di vita, contribuendo così a tutelare la salute dei pazienti e a migliorare la qualità dell’assistenza sanitaria.
- I sistemi di intelligenza artificiale sono basati su algoritmi complessi e richiedono non solo una costruzione accurata del codice, ma anche l’utilizzo di dati precisi e affidabili per l’addestramento.
L’utilizzo di dati non rappresentativi o parziali può portare all’amplificazione dei pregiudizi nei risultati dell’intelligenza artificiale. Per tale motivo, una regolamentazione adeguata può aiutare a mitigare questi rischi e garantire l’utilizzo responsabile dell’intelligenza artificiale.
Ad esempio, può essere difficile per i modelli di intelligenza artificiale rappresentare accuratamente la diversità delle popolazioni, il che porta a pregiudizi, imprecisioni o addirittura fallimenti. Per contribuire a mitigare questi rischi, è possibile utilizzare le normative per garantire che gli attributi – come genere, razza ed etnia – delle persone presenti nei dati di formazione vengano riportati e che i set di dati siano intenzionalmente resi rappresentativi.
La nuova pubblicazione dell’OMS è un documento fondamentale per i governi e le autorità di regolamentazione che intendono sviluppare nuove linee guida o adattare quelle esistenti sull’Intelligenza Artificiale a livello nazionale o regionale.
Questo documento fornisce una panoramica completa delle attuali conoscenze e delle migliori pratiche sull’uso dell’IA in campo sanitario, nonché una serie di raccomandazioni per garantire un utilizzo sicuro ed efficace della tecnologia.
L’intervento del Garante Privacy
Il Garante della Privacy italiano ha recentemente pubblicato un decalogo che stabilisce le linee guida per l’implementazione di servizi sanitari basati sull’intelligenza artificiale (IA) a livello nazionale.
1) La base giuridica del trattamento
Il trattamento dei dati sulla salute da parte di soggetti che svolgono compiti di interesse pubblico è regolamentato dal diritto dell’Unione o degli Stati membri.
Questo trattamento deve essere proporzionato alla finalità perseguita, rispettare il diritto alla protezione dei dati e prevedere misure adeguate e specifiche per la tutela dei diritti fondamentali e degli interessi dell’individuo interessato (art. 9, par. 2, lett. g del Regolamento).
L’uso di tecniche di intelligenza artificiale nel trattamento dei dati sulla salute richiede una valutazione preliminare sulla necessità di tali trattamenti, che devono essere supportati da un quadro normativo specifico.
Tale disposizione si riferisce all’art. 2-sexies del Codice, che stabilisce che il trattamento dei dati personali relativi alla salute è ammesso solo in presenza di specifiche disposizioni di legge o regolamentari o di atti amministrativi generali che ne specificano i tipi di dati che possono essere trattati, le operazioni eseguibili e il motivo di interesse pubblico rilevante, nonché le misure appropriate e specifiche per tutelare i diritti fondamentali e gli interessi dell’interessato.
L’elaborazione di dati sulla salute attraverso tecniche di IA richiama i concetti di profilazione e di decisioni sulla base di processi automatizzati con riferimento ai quali si rappresenta che, nell’ambito dei trattamenti svolti per motivi di interesse pubblico, l’uso di tali strumenti è consentito solo se espressamente previsto dal diritto degli Stati membri, nel rispetto di misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi degli interessati.
Inoltre, gli Stati membri sono tenuti a consultare l’Autorità di controllo durante l’elaborazione di un atto legislativo o di misura regolamentare che prevede il trattamento di dati personali, al fine di garantire una base giuridica chiara e precisa per il trattamento dei dati personali in conformità alla giurisprudenza della Corte di giustizia dell’Unione europea e della Corte europea dei diritti dell’uomo.
Sul punto, è importante sottolineare che la proposta di Regolamento del Parlamento europeo e del Consiglio, attualmente in fase di consolidamento, mira a stabilire regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale del 21 aprile 2021) e a modificare alcuni atti legislativi dell’Unione. In particolare, le proposte emendative presentate successivamente (posizione negoziale del Parlamento UE del 14 giugno 2023) individuano come ad alto rischio i sistemi di intelligenza artificiale che influiscono sulla salute, sul diritto alle cure e sull’accesso ai servizi sanitari e all’assistenza medica.
Inoltre, si auspica l’adozione di norme legislative comuni per tutti i sistemi di intelligenza artificiale ad alto rischio, compresi quelli relativi alla selezione dei pazienti per l’assistenza sanitaria di emergenza.
Al fine di garantire l’adozione responsabile dell’Intelligenza Artificiale (IA) nel settore sanitario, è necessario stabilire un quadro normativo specifico che preveda misure adeguate per la protezione dei dati.
ai players pubblici della sanità sarebbe fatto divieto di ricorrere all’AI fintanto che una norma di legge non ne disciplini esplicitamente l’utilizzo.
2) I principi di accountability e di privacy by design e by default
Il responsabile del trattamento dei dati deve rispettare e dimostrare il rispetto dei principi e degli obblighi previsti dal Regolamento e deve garantire la protezione dei dati personali degli interessati fin dalla fase di progettazione e per impostazione predefinita, come stabilito dagli articoli 5, paragrafo 2, 24 e 25, paragrafo 1, del Regolamento.
Il nuovo quadro normativo sulla protezione dei dati personali richiede una valutazione preliminare e accurata di tutte le decisioni relative al trattamento dei dati personali. Questa valutazione deve essere supportata da motivazioni specifiche e dimostrabili logicamente, al fine di identificare misure necessarie e proporzionate per garantire l’efficacia del principio di protezione dei dati personali in questione.
In conformità con il principio della “protezione dei dati fin dalla progettazione” (art. 25, par. 1, del Regolamento), è necessario adottare misure tecniche e organizzative appropriate per garantire la protezione dei dati (art. 5 del Regolamento) durante lo sviluppo di sistemi di intelligenza artificiale nel settore sanitario. Inoltre, è necessario integrare nel trattamento le garanzie necessarie per soddisfare i requisiti del Regolamento e tutelare i diritti e le libertà degli interessati.
Questa particolare attenzione è fondamentale soprattutto per i sistemi di intelligenza artificiale utilizzati in ambito sanitario, i quali devono essere progettati in modo da garantire la protezione dei dati personali e rispettare i principi del Regolamento Generale sulla Protezione dei Dati.
Tali misure, volte ad assicurare l’effettiva applicazione dei principi in materia di protezione dei dati personali, devono garantire che il trattamento dei dati sia proporzionale all’interesse pubblico perseguito. L’obiettivo è quello di ottenere una reale tutela dei dati personali.
3) Ruoli
Nell’ambito del trattamento dei dati personali, è fondamentale identificare correttamente i ruoli di titolare (ai sensi degli articoli 4, n. 7 e 24 del Regolamento) e, se del caso, di responsabile (ai sensi degli articoli 4, n. 8 e 28 del Regolamento). Ciò risulta essenziale per garantire il rispetto delle norme sulla privacy e una gestione adeguata dei dati personali.
Il titolare è la persona o l’organizzazione che prende le decisioni fondamentali riguardo alle finalità e ai metodi di trattamento dei dati personali. Inoltre, il titolare ha la responsabilità generale (nota come “accountability”) per i trattamenti effettuati da lui stesso o da altri soggetti agendo per suo conto, in qualità di responsabili del trattamento ai sensi dell’articolo 28 del Regolamento.
La corretta attribuzione dei ruoli è fondamentale per garantire che le attività svolte da un soggetto siano in linea con i compiti istituzionali che gli sono stati affidati, nel rispetto del quadro giuridico di riferimento del settore.
Per stabilire a chi spetta la titolarità di un trattamento dei dati personali, è necessario prima di tutto valutare se esiste una base giuridica adeguata che conferisca a un soggetto il compito di svolgere il trattamento.
Non è possibile qualificare automaticamente un soggetto come titolare solo sulla base di un presupposto fattuale, come ad esempio la realizzazione di un progetto che prevede il trattamento dei dati personali.
Questo significa che il titolare deve considerare la privacy fin dall’inizio del processo di progettazione e adottare misure tecniche e organizzative adeguate per garantire la sicurezza dei dati personali degli utenti.
Per garantire la protezione dei diritti e delle libertà degli interessati, è fondamentale effettuare una valutazione accurata e ponderata delle decisioni relative al trattamento dei dati. Questo implica la definizione di motivazioni specifiche e l’adozione di misure necessarie per tutelare tali diritti e libertà.
Sotto un altro punto di vista, è necessario che il trattamento dei dati personali nel settore in questione sia attribuito normativamente al titolare, in modo da identificare concretamente i ruoli del trattamento che si intendono svolgere.
Per fare ciò, è indispensabile esaminare le competenze attribuite ai diversi soggetti e le attività svolte da ognuno di essi.
Il ruolo del responsabile del trattamento, invece, consiste nello svolgimento di attività delegate dal titolare, che può individuare uno o più soggetti particolarmente qualificati per svolgere tali attività, in base alle proprie scelte organizzative e considerando le conoscenze specialistiche, l’affidabilità, le risorse e la sicurezza del trattamento (cfr. cons. 81 del Regolamento).
Il titolare del trattamento delimita l’ambito delle rispettive attribuzioni e fornisce specifiche istruzioni sui trattamenti da effettuare.Nel trattamento di dati personali connesso allo svolgimento dei propri compiti istituzionali, anche i titolari pubblici possono avvalersi del contributo di soggetti esterni, affidando loro determinate attività che restano nella sfera della titolarità dell’amministrazione stessa e che non comportano decisioni di fondo sulle finalità e sui mezzi del trattamento.
In questo caso, l’amministrazione deve designare il soggetto esterno come “responsabile del trattamento” ai sensi dell’art. 28 del Regolamento.In caso contrario, la messa a disposizione di dati personali a soggetti esterni si configura come una comunicazione di dati personali da effettuarsi conformemente al quadro normativo sopra richiamato (artt. 9 del Regolamento e 2-sexies del Codice).
In ogni caso, le persone fisiche che trattano i dati personali, anche presso il soggetto esterno, devono essere autorizzate e opportunamente istruite ai sensi degli artt. 29 del Regolamento e 2-quaterdecies del Codice.
Il Garante per la protezione dei dati personali chiarisce quindi che, al fine di assegnare il ruolo di titolare del trattamento, è fondamentale valutare se esiste una base giuridica sufficiente che conferisca al soggetto l’incarico di eseguire il trattamento dei dati personali.
Non è possibile automaticamente qualificare un soggetto come titolare del trattamento dei dati personali solo in base a presupposti fattuali, come ad esempio la realizzazione di un progetto che coinvolge il trattamento di tali dati.
4) I principi di conoscibilità, non esclusività e non discriminazione algoritmica
Sulla base delle disposizioni del Regolamento e della recente giurisprudenza del Consiglio di Stato, è importante identificare i tre principi fondamentali che devono guidare l’utilizzo degli algoritmi e degli strumenti di intelligenza artificiale nell’esecuzione di compiti di interesse pubblico.
- Il principio di conoscibilità
- sancisce che l’interessato ha il diritto di essere informato sull’esistenza di processi decisionali basati su trattamenti automatizzati. In caso affermativo, ha diritto di ricevere informazioni significative sulla logica utilizzata al fine di comprenderla appieno.
- Il principio di conoscibilità stabilisce che è necessario informare gli interessati coinvolti quando le decisioni vengono prese tramite processi automatizzati e fornire spiegazioni comprensibili sulla logica di tali decisioni.
- In base alle indicazioni dell’Autorità, il paziente ha il diritto di essere informato, anche tramite campagne di comunicazione, sull’esistenza e sulla natura dei processi decisionali basati su trattamenti automatizzati attraverso strumenti di intelligenza artificiale (IA).
- Inoltre, il paziente ha il diritto di ricevere informazioni chiare sulla logica utilizzata per prendere tali decisioni, sia nel contesto clinico che in quello delle politiche sanitarie.
- Questo è un passo importante per garantire la trasparenza e la tutela dei diritti dei pazienti. In base alle indicazioni dell’Autorità, il paziente ha il diritto di essere informato, anche tramite campagne di comunicazione, sull’esistenza e sulla natura dei processi decisionali basati su trattamenti automatizzati attraverso strumenti di intelligenza artificiale (IA). Inoltre, il paziente ha il diritto di ricevere informazioni chiare sulla logica utilizzata per prendere tali decisioni, sia nel contesto clinico che in quello delle politiche sanitarie.
- Questo è un passo importante per garantire la trasparenza e la tutela dei diritti dei pazienti.
- iI principio di non esclusività
- della decisione algoritmica stabilisce che, nel processo decisionale, è necessario un intervento umano in grado di controllare, validare o eventualmente smentire la decisione automatica.
- Il principio di non esclusività della decisione algoritmica sottolinea l’importanza di coinvolgere un intervento umano nel processo decisionale, anche quando vengono utilizzati algoritmi.
- Questo permette di controllare, convalidare o respingere le decisioni automatiche, garantendo così un maggiore controllo e una maggiore sicurezza nel processo decisionale.
- Un aspetto cruciale delle direttive del Garante riguarda la necessità di una supervisione umana nei processi decisionali basati sull’IA.
- Il Garante sottolinea l’importanza di avere personale sanitario competente in grado di valutare e convalidare le decisioni prese dagli algoritmi di IA, al fine di garantire la correttezza e l’eticità di tali decisioni.
- Il principio di non discriminazione algoritmica
- implica che il responsabile del trattamento dei dati dovrebbe utilizzare sistemi di intelligenza artificiale affidabili che riducano le opacità e gli errori causati da fattori tecnologici o umani.
- È importante verificare periodicamente l’efficacia di tali sistemi, tenendo conto dell’evoluzione rapida delle tecnologie impiegate e utilizzando procedure matematiche o statistiche adeguate per la profilazione. Inoltre, è fondamentale adottare misure tecniche e organizzative adeguate per correggere eventuali inesattezze nei dati e minimizzare il rischio di errori, soprattutto considerando gli effetti discriminatori potenziali che un trattamento inaccurato dei dati sulla salute potrebbe avere sulle persone fisiche (come indicato nel considerando n. 71 del Regolamento).
- L’utilizzo di sistemi di IA affidabili è fortemente raccomandato, poiché possono contribuire a ridurre al minimo gli errori derivanti da fattori tecnologici o umani.
- È altrettanto importante effettuare verifiche periodiche sull’efficacia di tali sistemi mediante l’adozione di adeguate misure tecniche e organizzative.
- Questo processo di verifica periodica è fondamentale per prevenire discriminazioni che potrebbero compromettere la salute delle persone a causa di dati inaccurati o incompleti.
Un esempio concreto di discriminazione potenziale tramite algoritmi è stato riscontrato negli Stati Uniti. Un sistema di intelligenza artificiale utilizzato per valutare il rischio sanitario di oltre 200 milioni di americani ha mostrato una tendenza a sottostimare il rischio per i pazienti di etnia afroamericana.
Ciò è stato causato da una metrica che teneva conto della spesa sanitaria media individuale, che risultava essere più bassa nella popolazione afroamericana, portando a un accesso limitato alle cure sanitarie adeguate per queste persone.
Questo esempio evidenzia l’importanza di garantire dati precisi ed equi per evitare discriminazioni basate su fattori errati o inadeguati.
5) La valutazione di impatto
Il Regolamento richiede ai titolari di effettuare una valutazione di impatto preventiva per il trattamento dei dati che prevede l’uso di nuove tecnologie.
Tale valutazione deve considerare la natura, l’oggetto, il contesto e le finalità del trattamento e deve valutare se ci sia un rischio elevato per i diritti e le libertà delle persone fisiche (art. 35).
Inoltre, se le misure tecniche e organizzative individuate per mitigare l’impatto del trattamento sui diritti e le libertà degli interessati non sono ritenute sufficienti o se il rischio residuale per i diritti e le libertà degli interessati resta elevato, i titolari devono consultare l’Autorità di controllo (art. 36).
A tale riguardo, è importante segnalare le Linee-guida che riguardano la valutazione dell’impatto sulla protezione dei dati e i criteri per determinare se un trattamento possa presentare un rischio elevato.
La valutazione dell’impatto non deve essere considerata solo come un adempimento statico, ma come un processo soggetto a revisione continua.
Prima di implementare un sistema centralizzato a livello nazionale per fornire servizi sanitari utilizzando strumenti di intelligenza artificiale e trattare ampie quantità di dati personali sensibili, è necessario effettuare una valutazione dell’impatto in conformità all’articolo 35 del Regolamento.
Questi trattamenti rientrano senza dubbio tra quelli ad alto rischio che richiedono una valutazione preventiva dell’impatto al fine di identificare le misure adeguate per proteggere i diritti e le libertà degli interessati e garantire il rispetto dei principi generali del Regolamento.
i. L’assenza di questa valutazione a livello nazionale impedirebbe una valutazione complessiva e preventiva dell’adeguatezza e della proporzionalità delle misure da implementare.
Questa circostanza non è accettabile per un sistema informativo destinato a trattare e elaborare i dati sanitari di tutti i soggetti assistiti nel territorio nazionale.
Inoltre, la valutazione dell’impatto dovrebbe tenere conto dei rischi specifici di un database contenente informazioni sanitarie di tutta la popolazione assistita nel territorio nazionale.
Questi rischi includono la perdita dei requisiti di qualità dei dati, la revoca del consenso (se il consenso è la base giuridica del trattamento originario), la possibilità di reidentificazione dell’interessato attraverso interconnessioni con altri sistemi informativi e banche dati, nonché l’uso dei dati per scopi non compatibili.
6) La qualità dei dati
Il trattamento dei dati sanitari della popolazione assistita richiede l’adozione di misure rigorose per garantire l’esattezza e l’aggiornamento dei dati, nonché la tutela dei diritti fondamentali degli interessati.
Il Consiglio superiore di sanità ha evidenziato i rischi derivanti dall’uso di sistemi di intelligenza artificiale privi di validazione scientifica e di controllo sui dati processati, che potrebbero portare a aspettative illusorie e fuorvianti per professionisti sanitari e pazienti.
Inoltre, la realizzazione di un sistema di IA per l’erogazione di servizi digitali nel servizio sanitario nazionale richiede l’attenzione ai rischi di discriminazione legati all’elaborazione dei dati attraverso logiche algoritmiche e alla profilazione finalizzata all’adozione di decisioni automatizzate che possano incidere sull’aspetto sanitario individuale.
È fondamentale considerare i potenziali rischi legati all’elaborazione dei dati raccolti per scopi di assistenza sanitaria, specialmente se tali dati sono stati successivamente modificati o integrati dal personale medico durante il trattamento di un individuo.
Dati non aggiornati o inesatti potrebbero influire negativamente sull’efficacia e l’accuratezza dei servizi forniti dal sistema di intelligenza artificiale, che si basa sulla rielaborazione di tali dati.
7) Integrità e riservatezza
In conformità al Regolamento, i dati personali devono essere trattati in modo da garantire un’adeguata sicurezza, compresa la protezione da trattamenti non autorizzati o illeciti, nonché da perdite, distruzioni o danni accidentali (integrità e riservatezza) (art. 5, par. 1, lett. f del Regolamento).
È importante sottolineare che, in conformità a quanto stabilito negli articoli 5, 25 e 35 del Regolamento, è necessario valutare concretamente i rischi per i diritti e le libertà degli interessati derivanti dai trattamenti in questione e adottare le misure adeguate per gestirli, escluderli o mitigarli.
Se questi rischi non vengono correttamente identificati e mitigati, possono avere conseguenze pregiudizievoli o risultati discriminatori per gli interessati.
Pertanto, è necessario fornire una descrizione dettagliata dei trattamenti, indicando le logiche algoritmiche utilizzate per generare i dati e i servizi tramite i sistemi di IA, le metriche utilizzate per addestrare e valutare la qualità del modello di analisi adottato, le verifiche effettuate per rilevare eventuali bias, le misure correttive adottate e le misure idonee per verificare, anche successivamente, le operazioni eseguite da ciascun soggetto autorizzato e i rischi associati alle analisi deterministiche e stocastiche.
8) Correttezza e trasparenza
La trasparenza e la correttezza nei processi decisionali basati su trattamenti automatizzati costituiscono uno dei pilastri fondamentali per lo sviluppo e l’utilizzo di sistemi di intelligenza artificiale nell’ambito dell’azione amministrativa.
Ciò è dovuto ai correlati rischi, anche discriminatori, che possono derivare dall’uso di tali strumenti.
Per una IA affidabile, i documenti internazionali richiamati evidenziano la necessità di garantire una maggiore “consapevolezza” nelle comunità di riferimento (nel caso specifico, tutti gli assistiti del Sistema Sanitario Nazionale) riguardo all’impiego dei sistemi di intelligenza artificiale e alla loro comprensione in relazione al loro funzionamento.
Nella pratica, ci sono diverse misure e adempimenti che devono essere implementati nella predisposizione dei sistemi di IA in sanità, tra cui:
assicurare che la base giuridica del trattamento sia chiara, prevedibile e resa conosciuta agli interessati anche attraverso specifiche campagne di informazione;
consultare gli stakeholder e gli interessati nell’ambito della valutazione d’impatto;
pubblicare, anche solo per estratto, la valutazione d’impatto;
predisporre le informazioni da rendere agli interessati, con gli elementi di cui agli articoli 13 e 14 del Regolamento in termini chiari, concisi e comprensibili;
Inoltre, è necessario valutare gli obblighi e le responsabilità dei professionisti sanitari nell’utilizzo dei servizi sanitari basati sull’IA
È fondamentale comprendere i vantaggi diagnostici e terapeutici derivanti dall’impiego di queste nuove tecnologie.
Inoltre, è essenziale garantire modalità efficaci per l’esercizio dei diritti degli interessati previsti dal Regolamento, tenendo conto dei diversi ruoli dei soggetti coinvolti nel trattamento.
Nel caso in cui si perseguano finalità di cura, è necessario assicurare che i servizi di elaborazione dei dati basati su sistemi di IA siano attivati solo su richiesta esplicita del professionista sanitario e non in modo automatico.
Infine, è importante regolamentare i profili di responsabilità professionale legati alla scelta del professionista sanitario di affidarsi o meno ai servizi di elaborazione dei dati sanitari dei propri pazienti basati su sistemi di IA.
Il Garante poi richiama l’esigenza di integrità e sicurezza dei dati, unitamente a quello di correttezza per poi focalizzarsi nello specifico sulla necessità di supervisione umana.
L’uso dell’Intelligenza Artificiale (IA) può migliorare la capacità di previsione e di identificazione di correlazioni nei dati. Tuttavia, l’affidamento esclusivo alle macchine nella presa di decisioni basate su dati elaborati mediante sistemi di IA comporta dei rischi per i diritti e le libertà delle persone.
9) Supervisione umana
Nel parere congiunto del Garante europeo e del Comitato europeo per la protezione dei dati (EDPS/EDPB) si sottolinea che generare contenuti, fare previsioni o adottare decisioni in modo automatico, come fanno i sistemi di intelligenza artificiale (IA), attraverso tecniche di apprendimento automatico o regole di inferenza logica e probabilistica, è molto diverso dalle modalità con cui queste stesse attività sono svolte dagli esseri umani attraverso il ragionamento creativo o teorico, nella piena consapevolezza della responsabilità e delle relative conseguenze.
Se da una parte l’IA amplia significativamente la quantità di previsioni che si possono fare in molti ambiti, dall’altra affidare solo alle macchine il compito di prendere decisioni sulla base di dati elaborati mediante sistemi di IA comporta rischi per i diritti e le libertà delle persone.
Il Comitato, il Garante europeo e quello italiano hanno sottolineato la centralità del concetto di supervisione umana contenuto nella proposta di Regolamento, evidenziando che l’effettivo coinvolgimento degli esseri umani dovrebbe fondarsi su una supervisione altamente qualificata e sulla liceità del trattamento, al fine di assicurare il rispetto del diritto di non essere assoggettato a una decisione basata esclusivamente su un trattamento automatizzato.
Nella fase di addestramento degli algoritmi, l’IA è in grado di fare previsioni con diversi gradi di probabilità, ma la correttezza nella predizione della IA, soprattutto qualora correlata al rischio di sviluppare malattie, è proporzionale al numero, alla qualità e all’accuratezza dei dati inseriti e alle esperienze immagazzinate su un determinato tema.
Tuttavia, le predizioni possono essere “sbagliate” per l’imprecisione dei dati forniti, per l’addestramento degli algoritmi o per l’uso di assunzioni non fondate o non pertinenti.
Per ridurre i rischi per i diritti e le libertà degli interessati, con particolare riferimento al rischio di discriminazione, che potrebbe verificarsi relativamente all’accesso alle cure, alla quota di partecipazione al costo in carico all’assistito e all’appropriatezza dei percorsi diagnostici e terapeutici, è necessario che il ruolo centrale dell’uomo, e nel caso di specie del professionista sanitario, sia mantenuto nella fase di addestramento degli algoritmi.
In questo settore, infatti, i rischi di discriminazione algoritmica possono incidere sull’equità e sull’inclusività alle cure, potendo potenzialmente aumentare il divario e le disuguaglianze socio-sanitarie.
10) Ulteriori profili
Per garantire un utilizzo etico, sicuro e trasparente dell’IA, sarebbe opportuno preferire fornitori che svolgono una valutazione di impatto sulla protezione dei dati prima della commercializzazione dei loro prodotti e che abbiano anche condotto una specifica valutazione di impatto per l’IA.
È importante ricordare che i professionisti sanitari sono tenuti a rispettare specifici obblighi deontologici nell’elaborazione delle informazioni sulla salute del paziente, nella scelta del percorso terapeutico appropriato e nella gestione dei conflitti di interesse.
La validazione degli algoritmi dovrebbe garantire che l’IA migliori la qualità delle prestazioni del Servizio Sanitario Nazionale senza avere ripercussioni negative in termini sociali, deontologici, etici e di responsabilità professionale.
Il Garante italiano ha proposto che le autorità dei sette sistemi socio-economici più importanti lavorino insieme per garantire l’etica nell’utilizzo dell’IA.
Conclusioni
Il “Decalogo per la realizzazione di servizi sanitari nazionali attraverso sistemi di Intelligenza Artificiale” è un documento pubblicato dal governo italiano che fornisce linee guida per l’implementazione di soluzioni di Intelligenza Artificiale nel settore sanitario. Il documento è stato creato con l’obiettivo di garantire che l’uso di tali tecnologie rispetti i diritti dei pazienti e sia in linea con le leggi e le normative in vigore.
Si prevede che entro il 2025 verranno investiti più di 30 miliardi di dollari nell’intelligenza artificiale per l’assistenza sanitaria, a testimonianza della crescente fiducia nelle soluzioni sanitarie basate sull’intelligenza artificiale.
Sul punto, sembra distinguersi tra l’insieme generale dei trattamenti tramite AI svolti sui dati sanitari e quello particolare dei trattamenti svolti su richiesta del professionista sanitario per finalità di cura.
Per i primi, si prevede un costante monitoraggio umano che eviti la c.d. discriminazione algoritmica (punti 4 e 9); monitoraggio che per assumere rilievo in sede di contestazione forse dovrebbe essere affidato a un soggetto diverso da quello che creò originariamente l’infrastruttura AI.
Sui secondi, sembra rimettersi al Titolare la regolamentazione dei profili di responsabilità del sanitario (punto 8), che a ben vedere non è però diversa da quella già disciplinata dalla L. 24/2017, che sancisce all’art. 7 la responsabilità in solido del sanitario e della Struttura che si serve delle sue prestazioni ai sensi degli artt. 1218 e 1228 c.c.
Uno dei motivi principali che spinge all’investimento in questo campo è la grande quantità di dati sanitari disponibili che potrebbero essere utilizzati in modo più efficiente. Grazie all’analisi dei dati e all’utilizzo di strumenti come gli assistenti sanitari virtuali, l’intelligenza artificiale può contribuire a ridurre significativamente i costi sanitari.
Raccomandazione del Consiglio sull’intelligenza artificiale
La Raccomandazione sull’Intelligenza Artificiale è il primo standard intergovernativo sull’IA adottato dal Consiglio dell’OCSE a livello ministeriale il 22 maggio 2019.
La raccomandazione promuove la gestione responsabile di un’IA affidabile e garantisce il rispetto dei diritti umani e dei valori democratici, integrando gli standard OCSE esistenti in settori quali la privacy, la gestione del rischio per la sicurezza digitale e la condotta aziendale responsabile.
I leader del G20 hanno accolto con favore i principi del G20 sull’intelligenza artificiale, tratti dalla raccomandazione dell’OCSE, al vertice di Osaka nel giugno 2019.
La creazione di un contesto politico stabile a livello internazionale è essenziale per promuovere la fiducia e l’adozione dell’Intelligenza Artificiale (IA) nella società.
A tal fine, il Comitato dell’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE) sulla politica dell’economia digitale (CDEP) ha deciso di sviluppare un progetto di raccomandazione del Consiglio, che mira a promuovere un approccio centrato sull’uomo verso un’intelligenza artificiale affidabile. Tale approccio promuoverà la ricerca, preserverà gli incentivi economici all’innovazione e si applicherà a tutte le parti interessate.
Più specificamente, la Raccomandazione si compone di due sezioni sostanziali:
- Principi per una gestione responsabile di un’IA affidabile : la prima sezione stabilisce cinque principi complementari rilevanti per tutte le parti interessate: i) crescita inclusiva, sviluppo sostenibile e benessere; ii) valori centrati sulla persona ed equità; iii) trasparenza e spiegabilità; iv) robustezza, sicurezza e protezione; ev ) responsabilità. Questa sezione invita inoltre gli attori dell’IA a promuovere e attuare questi principi in base ai loro ruoli.
- Politiche nazionali e cooperazione internazionale per un’IA affidabile : coerentemente con i cinque principi sopra menzionati, questa sezione fornisce cinque raccomandazioni ai Membri e ai non Membri che hanno aderito al progetto di Raccomandazione (di seguito gli “Aderenti”) da implementare nelle loro politiche nazionali e internazionali cooperazione: i) investire nella ricerca e nello sviluppo dell’IA; ii) promuovere un ecosistema digitale per l’intelligenza artificiale; iii) definire un contesto politico favorevole all’intelligenza artificiale; iv) sviluppare le capacità umane e prepararsi alla trasformazione del mercato del lavoro; e v) cooperazione internazionale per un’IA affidabile.
IL CONSIGLIO premesso che
L’intelligenza artificiale (AI) è una tecnologia versatile che offre numerose opportunità per migliorare il benessere delle persone, contribuire a un’economia globale sostenibile e positiva, stimolare l’innovazione e aumentare la produttività. La sua applicazione si estende a diversi settori, come la produzione, la finanza, i trasporti, la sanità e la sicurezza.
Tuttavia, oltre ai vantaggi, l’intelligenza artificiale presenta anche alcune sfide per le nostre società ed economie. Queste sfide riguardano principalmente i cambiamenti economici e le disuguaglianze, la concorrenza, le trasformazioni del mercato del lavoro e le implicazioni per la democrazia e i diritti umani.
RICONOSCENDO che l’intelligenza artificiale ha implicazioni pervasive, di vasta portata e globali che stanno trasformando le società, i settori economici e il mondo del lavoro, e probabilmente lo faranno sempre di più in futuro;
RICONOSCENDO che l’intelligenza artificiale ha il potenziale per migliorare il benessere e il benessere delle persone, per contribuire a un’attività economica globale sostenibile e positiva, per aumentare l’innovazione e la produttività e per contribuire a rispondere alle principali sfide globali;
RICONOSCENDO che, allo stesso tempo, queste trasformazioni possono avere effetti disparati all’interno e tra le società e le economie, in particolare per quanto riguarda i cambiamenti economici, la concorrenza, le transizioni nel mercato del lavoro, le disuguaglianze e le implicazioni per la democrazia e i diritti umani, la privacy e la protezione dei dati, e sicurezza digitale;
RICONOSCENDO che la fiducia è un fattore chiave per la trasformazione digitale; che, sebbene la natura delle future applicazioni dell’IA e le loro implicazioni possano essere difficili da prevedere, l’affidabilità dei sistemi di intelligenza artificiale è un fattore chiave per la diffusione e l’adozione dell’IA; e che un dibattito pubblico ben informato dell’intera società è necessario per cogliere il potenziale benefico della tecnologia, limitando al tempo stesso i rischi ad essa associati
‒Sistema di intelligenza artificiale : un sistema di intelligenza artificiale è un sistema basato su macchina che può, per un dato insieme di obiettivi definiti dall’uomo, fare previsioni, raccomandazioni o decisioni che influenzano ambienti reali o virtuali. I sistemi di intelligenza artificiale sono progettati per funzionare con diversi livelli di autonomia.
Principi per una gestione responsabile di un’IA affidabile
II. RACCOMANDA che i membri e i non membri che aderiscono alla presente Raccomandazione (di seguito gli “Aderenti”) promuovano e attuino i seguenti principi per la gestione responsabile di un’IA affidabile, che sono rilevanti per tutte le parti interessate.
Le parti interessate dovrebbero impegnarsi in modo proattivo nella gestione responsabile di un’IA affidabile nel perseguimento di risultati benefici per le persone e per il pianeta, come l’aumento delle capacità umane e il miglioramento della creatività, la promozione dell’inclusione delle popolazioni sottorappresentate, la riduzione delle disuguaglianze economiche, sociali, di genere e di altro tipo e la protezione degli ambienti naturali. , rafforzando così la crescita inclusiva, lo sviluppo sostenibile e il benessere.
Valori centrati sull’uomo ed equità
Gli attori dell’IA dovrebbero rispettare lo Stato di diritto, i diritti umani e i valori democratici durante tutto il ciclo di vita del sistema IA. Questi includono libertà, dignità e autonomia, privacy e protezione dei dati, non discriminazione e uguaglianza, diversità, equità, giustizia sociale e diritti del lavoro riconosciuti a livello internazionale.
B)A tal fine, gli attori dell’IA dovrebbero implementare meccanismi e garanzie, come la capacità di determinazione umana, adeguati al contesto e coerenti con lo stato dell’arte.
Trasparenza e spiegabilità
Gli attori dell’intelligenza artificiale dovrebbero impegnarsi per la trasparenza e la divulgazione responsabile dei sistemi di intelligenza artificiale. A tal fine, dovrebbero fornire informazioni significative, adeguate al contesto e coerenti con lo stato dell’arte:
io.promuovere una comprensione generale dei sistemi di intelligenza artificiale,
ii.rendere le parti interessate consapevoli delle loro interazioni con i sistemi di intelligenza artificiale, anche sul posto di lavoro,
iii.consentire alle persone colpite da un sistema di intelligenza artificiale di comprenderne il risultato e,
iv.consentire a coloro che sono colpiti negativamente da un sistema di intelligenza artificiale di contestarne i risultati sulla base di informazioni semplici e di facile comprensione sui fattori e sulla logica che è servita come base per la previsione, la raccomandazione o la decisione.
Robustezza, sicurezza e protezione
UN)I sistemi di IA dovrebbero essere robusti, sicuri e protetti durante tutto il loro ciclo di vita in modo che, in condizioni di uso normale, uso o abuso prevedibile o altre condizioni avverse, funzionino adeguatamente e non comportino rischi irragionevoli per la sicurezza.
B)A tal fine, gli attori dell’IA dovrebbero garantire la tracciabilità, anche in relazione ai set di dati, ai processi e alle decisioni prese durante il ciclo di vita del sistema di IA, per consentire l’analisi dei risultati del sistema di IA e delle risposte alle domande, adeguate al contesto e coerenti con lo stato dell’arte .
Responsabilità
Gli attori dell’Intelligenza Artificiale (IA) hanno il dovere di garantire il corretto funzionamento dei sistemi di IA e di rispettare i principi etici e legali in base ai loro ruoli e contesti di utilizzo.
Inoltre, è essenziale fornire dettagli trasparenti sul funzionamento degli algoritmi, sulle metriche di addestramento utilizzate e sui controlli per identificare e correggere eventuali bias.
Queste misure sono fondamentali per garantire un uso etico e sicuro dell’IA nei servizi sanitari nazionali, riducendo al minimo le potenziali discriminazioni e proteggendo i diritti e le libertà delle persone coinvolte.
Il Garante della Privacy italiano ritiene che tali misure siano necessarie per garantire la tutela dei diritti delle persone coinvolte e la sicurezza dei servizi sanitari nazionali.
Investire in ricerca e sviluppo sull’intelligenza artificiale
I governi dovrebbero considerare gli investimenti pubblici a lungo termine e incoraggiare gli investimenti privati in ricerca e sviluppo, compresi gli sforzi interdisciplinari, per stimolare l’innovazione in un’intelligenza artificiale affidabile che si concentri su questioni tecniche impegnative e sulle implicazioni sociali, legali ed etiche legate all’intelligenza artificiale e sulle questioni politiche.
I governi dovrebbero anche considerare gli investimenti pubblici e incoraggiare gli investimenti privati in set di dati aperti che siano rappresentativi e rispettino la privacy e la protezione dei dati per sostenere un ambiente per la ricerca e lo sviluppo dell’IA privo di pregiudizi inappropriati e per migliorare l’interoperabilità e l’uso degli standard.
Creare un contesto politico favorevole all’intelligenza artificiale
I governi dovrebbero rivedere e adattare, ove opportuno, i propri quadri politici e normativi e i meccanismi di valutazione applicati ai sistemi di IA per incoraggiare l’innovazione e la concorrenza per un’IA affidabile.
Rafforzare le capacità umane e prepararsi alla trasformazione del mercato del lavoro
I governi dovrebbero lavorare a stretto contatto con le parti interessate per prepararsi alla trasformazione del mondo del lavoro e della società. Dovrebbero consentire alle persone di utilizzare e interagire in modo efficace con i sistemi di intelligenza artificiale in tutta l’ampia gamma di applicazioni, anche dotandole delle competenze necessarie.
I governi dovrebbero adottare misure, anche attraverso il dialogo sociale, per garantire una transizione equa per i lavoratori man mano che l’intelligenza artificiale viene utilizzata, ad esempio attraverso programmi di formazione lungo la vita lavorativa, sostegno alle persone colpite dallo sfollamento e accesso a nuove opportunità nel mercato del lavoro.
I governi dovrebbero inoltre lavorare a stretto contatto con le parti interessate per promuovere l’uso responsabile dell’IA sul lavoro, per migliorare la sicurezza dei lavoratori e la qualità del lavoro, per promuovere l’imprenditorialità e la produttività e mirare a garantire che i benefici dell’IA siano ampiamente ed equamente condivisi.
Cooperazione internazionale per un’IA affidabile
I governi, compresi i paesi in via di sviluppo e le parti interessate, dovrebbero cooperare attivamente per promuovere questi principi e progredire verso una gestione responsabile di un’IA affidabile.
I governi dovrebbero collaborare in seno all’OCSE e in altri forum globali e regionali per promuovere la condivisione delle conoscenze sull’IA, a seconda dei casi. Dovrebbero incoraggiare iniziative internazionali, intersettoriali e aperte a più portatori di interessi per acquisire competenze a lungo termine sull’intelligenza artificiale.
I governi dovrebbero promuovere lo sviluppo di standard tecnici globali, basati sul consenso e che coinvolgano più parti interessate, per un’intelligenza artificiale interoperabile e affidabile.
I governi dovrebbero inoltre incoraggiare lo sviluppo, e il loro stesso utilizzo, di parametri comparabili a livello internazionale per misurare la ricerca, lo sviluppo e la diffusione dell’intelligenza artificiale e raccogliere la base di prove per valutare i progressi nell’attuazione di questi principi.
Sanità: l’AI Act supporta le strutture nella protezione dei dati personali
Nell’ambito dell’AI Act, la privacy e la protezione delle informazioni sanitarie sono considerate priorità assolute. Ciò significa che le tecnologie basate sull’AI devono garantire la sicurezza e la riservatezza dei dati sanitari dei pazienti, al fine di tutelare i loro diritti e prevenire eventuali abusi o violazioni della privacy.
La protezione dei dati personali e della privacy dei singoli individui è di fondamentale importanza. L’AI Act si concentra su questi aspetti, garantendo l’integrità dei dati e la tutela della privacy.
La legge prevede criteri specifici per garantire una gestione responsabile delle informazioni mediche, in linea con le normative sulla privacy.
È importante sottolineare che i dati sanitari sono particolarmente delicati e richiedono una protezione adeguata.
Il AI Act fornisce specifici protocolli per l’acquisizione, il trattamento e l’utilizzo dei dati medici all’interno del contesto dei dispositivi di intelligenza artificiale.
L’AI Act stabilisce che l’utilizzo dei dati debba essere limitato al volume essenziale necessario per raggiungere gli obiettivi prefissati, seguendo il principio di minimizzazione informativa.
Di conseguenza, i medici e le aziende del settore sanitario sono tenuti a limitare la raccolta e l’elaborazione delle informazioni mediche solo a ciò che è necessario per scopi specifici, come la diagnosi, la terapia o la ricerca clinica. Questo è importante per garantire la privacy dei pazienti e proteggere i loro dati sensibili.
La legge sull’AI sottolinea l’importanza di ottenere il consenso informato dei pazienti per la gestione di tutte le fasi del processo di diagnosi e cura.
Acquisire questo consenso è fondamentale per garantire che i pazienti siano pienamente informati e coinvolti nelle decisioni relative alla loro salute.
Ogni cittadino deve essere profondamente consapevole di come le proprie informazioni sanitarie verranno utilizzate e deve esprimere un’approvazione chiara per tale trattamento.
Il nuovo provvedimento mira a garantire la trasparenza nell’utilizzo dell’Intelligenza Artificiale nel settore medico.
Le organizzazioni che utilizzano sistemi basati sull’IA per scopi sanitari sono tenute a fornire informazioni dettagliate sul funzionamento di tali dispositivi, compresa la logica alla base delle decisioni e i principi adottati per la loro elaborazione.
In questo modo, si intende promuovere una maggiore consapevolezza e fiducia nell’uso di queste tecnologie nel campo della salute.
Infine, l’AI Act prevede protocolli robusti per garantire la protezione dei dati medici da intrusioni esterne, dispersione o uso improprio. Le istituzioni sono tenute ad implementare strategie tecniche e organizzative volte a garantire la sicurezza e l’integrità delle informazioni, eliminando qualsiasi potenziale rischio di violazione.
L’AI Act, ovvero la legge europea sulla regolamentazione dell’intelligenza artificiale, prevede clausole etiche di rilievo per promuovere l’utilizzo consapevole e responsabile dell’AI nel settore medico, in linea con una visione olistica che considera gli aspetti tecnologici, sociali ed etici dell’innovazione.
La nuova normativa impone alle istituzioni sanitarie di considerare non solo i vantaggi immediati della tecnologia, ma anche le implicazioni etiche delle loro decisioni.
I principi fondamentali di questo processo sono la tutela dei diritti individuali, la promozione dell’equità e l’eliminazione delle discriminazioni.
Le strutture sanitarie devono operare in modo trasparente, fornendo ai pazienti tutte le informazioni necessarie sul funzionamento dell’intelligenza artificiale e sulle ragioni che sottendono alle decisioni prese. L’obiettivo è quello di garantire un utilizzo etico dell’intelligenza artificiale, ponendo al primo posto il benessere dei pazienti e il rispetto dei loro diritti.
L’applicazione dell’AI nel mondo
Stanno emergendo nuove tecnologie sanitarie, tra cui i dispositivi indossabili e i piani di trattamento basati sull’intelligenza artificiale, che si concentrano sui bisogni individuali e sulla prevenzione delle malattie. In Cina, aziende come Huawei Technologies monitorano le statistiche sanitarie vitali attraverso dispositivi indossabili, mentre piattaforme come Ping An Good Doctor offrono diagnosi preliminari basate sull’intelligenza artificiale. Inoltre, l’evoluzione dell’intelligenza artificiale in Cina ha portato a innovazioni come gli algoritmi AI di Infervision per il rilevamento precoce delle malattie attraverso l’imaging medico e la precisione di Tianji Robot nella chirurgia ortopedica assistita da robot.
Gli Stati Uniti, patria di pionieri come DeepMind, si distinguono per la loro ricerca all’avanguardia nel campo dell’intelligenza artificiale. Ad esempio, DeepMind ha addestrato i suoi algoritmi per rilevare più di 50 malattie degli occhi dalle scansioni mediche. Questo dimostra l’attenzione che gli Stati Uniti pongono sia alla ricerca innovativa che alla regolamentazione. Le linee guida della Food and Drug Administration (FDA) per i dispositivi medici basati sull’intelligenza artificiale e i mandati sulla privacy dei dati dell’Health Insurance Portability and Accountability Act (HIPAA) testimoniano l’impegno degli Stati Uniti in questo ambito.
Uno studio pubblicato sulla rivista Nature ha dimostrato che l’utilizzo dell’intelligenza artificiale potrebbe essere altrettanto efficace, se non addirittura migliore, rispetto ai medici nella rilevazione del cancro al seno tramite mammografia. Inoltre, l’intelligenza artificiale sta rivoluzionando il modo in cui le malattie vengono prese in considerazione e prevenute. Durante l’epidemia di Covid-19, ad esempio, la società canadese BlueDot ha utilizzato l’intelligenza artificiale per monitorare rapidamente la diffusione del virus, utilizzando notizie e dati sui voli.
Anche il campo della chirurgia ha subito notevoli cambiamenti grazie all’intelligenza artificiale e alle procedure assistite dai robot. Un esempio di ciò è rappresentato dal sistema Da Vinci della Intuitive Surgical, con sede in California, che è stato utilizzato in oltre 10 milioni di interventi chirurgici. Questo sistema offre risultati migliori e contribuisce a un recupero più rapido dei pazienti.
Il Giappone sta cercando di far fronte alle sfide poste dall’invecchiamento della popolazione attraverso l’integrazione dell’intelligenza artificiale nell’assistenza agli anziani. Una delle innovazioni più interessanti in questo campo è rappresentata dal robot Robear. Questo robot è stato progettato per assistere gli anziani nelle attività quotidiane, come alzarsi dal letto o sedersi su una sedia. Grazie alla sua struttura morbida e alla sua capacità di sollevare fino a 80 kg, Robear è in grado di fornire un supporto sicuro e confortevole agli anziani che ne hanno bisogno.
Non solo successi
Un classico esempio è l’ormai defunta società IBM Watson Health , che prometteva di trasformare l’assistenza medica attraverso l’intelligenza artificiale, in particolare nella cura del cancro. Immergendosi in enormi quantità di dati sanitari, Watson suggerirebbe ai medici le cure più adatte, fungendo da assistente super intelligente.
Ma col passare del tempo, si scoprì che i consigli di Watson non avevano centrato l’obiettivo, anzi erano errati, il che rischiava di prendere decisioni mediche errate. L’esperienza di Watson è servita da lezione: mentre la tecnologia può essere un potente alleato nel settore sanitario, la fiducia cieca senza la supervisione umana può essere pericolosa.
Alcuni casi dimostrano che l’intelligenza artificiale può ereditare distorsioni dai dati di addestramento. Questi errori o imprecisioni possono influire sulla precisione e l’equità delle previsioni dell’intelligenza artificiale. Tuttavia, gli esseri umani possono identificare tali problemi e migliorare l’accuratezza, l’equità e l’affidabilità del sistema attraverso un’analisi attenta e una correzione adeguata dei dati di addestramento.
Una corsa contro il tempo
La rapida evoluzione della tecnologia dell’intelligenza artificiale spesso superi la regolamentazione e la trasparenza degli algoritmi, che sono fondamentali per creare fiducia. Questo rende la regolamentazione ancora più complessa.
L’intelligenza artificiale sta diventando sempre più presente nel settore medico, con applicazioni che vanno dalla diagnosi al supporto alla decisione clinica. Tuttavia, l’adozione di queste tecnologie deve essere accompagnata da una regolamentazione adeguata per garantire la sicurezza dei pazienti e la qualità delle cure.
I paesi come il Canada e il Giappone hanno compreso l’importanza di integrare le linee guida sull’intelligenza artificiale nei loro sistemi normativi per i dispositivi medici. Questo permette di stabilire standard chiari per l’uso di algoritmi e di garantire la sicurezza e l’efficacia dei dispositivi medici basati sull’intelligenza artificiale.
Altri paesi, invece, sono ancora nella fase iniziale di valutazione dei migliori approcci da adottare. La regolamentazione dell’intelligenza artificiale è un processo complesso che richiede una conoscenza approfondita delle tecnologie coinvolte e delle implicazioni etiche e legali.
La trasparenza degli algoritmi di intelligenza artificiale è un aspetto cruciale per creare fiducia nell’uso di queste tecnologie nel settore medico. Gli algoritmi devono essere comprensibili e tracciabili, in modo che i medici e i pazienti possano capire come vengono presi i decisioni e quali sono le basi scientifiche su cui si fondano.
In conclusione, l’integrazione delle linee guida sull’intelligenza artificiale nei sistemi normativi per i dispositivi medici è un passo importante per garantire la sicurezza e l’efficacia di queste tecnologie. Tuttavia, la regolamentazione dell’intelligenza artificiale rimane una sfida complessa, data la rapida evoluzione della tecnologia e la necessità di garantire la trasparenza degli algoritmi.
S