Bias dell'IA nella Sanità: Chi Resta Indietro?
- Dr. Shakira J. Grant
- 23 mar
- Tempo di lettura: 4 min
Aggiornamento: 4 apr
Entri al pronto soccorso, esausto e malato, aspettandoti di concentrarti sulla tua salute. Invece, prima ancora di vedere un medico, ti viene detto che devi pagare 1.000 dollari. Un sistema basato sull'IA ha già determinato la tua quota di partecipazione—senza che nessuno abbia controllato i tuoi parametri vitali.
Questa è stata l'esperienza di un partecipante a una recente conferenza sull'IA e l'equità sanitaria. “Per fortuna, potevo permettermelo,” ha raccontato. “Ma che dire di chi non può?”

Non si tratta solo della politica di un singolo ospedale—è una realtà sempre più diffusa nel sistema sanitario. Gli strumenti di intelligenza artificiale stanno già influenzando chi riceve le cure, quanto paga e persino il livello di assistenza che ottiene. Ma cosa succede quando questi algoritmi—progettati per ottimizzare l’efficienza—rafforzano le stesse disparità razziali ed economiche che da tempo affliggono il sistema?
Uno studio ampiamente citato, Dissecting Racial Bias in an Algorithm Used to Manage the Health of Populations, ha scoperto che un algoritmo utilizzato in un importante centro medico accademico era sistematicamente discriminatorio nei confronti dei pazienti neri. L’algoritmo, che contribuiva ad allocare risorse sanitarie a 100.000 pazienti, dava priorità ai pazienti bianchi rispetto ai pazienti neri con lo stesso livello di malattia. [1]
Perché? Perché usava la spesa sanitaria come indicatore del bisogno—ignorando il fatto che i pazienti neri, storicamente, ricevono meno cure a causa di barriere sistemiche. [2,3] Di conseguenza, i pazienti neri erano sottoposti a meno controlli di follow-up, peggiorando ulteriormente le disuguaglianze esistenti.
Queste non sono preoccupazioni ipotetiche. L'IA non si sta solo limitando a riflettere le disuguaglianze sanitarie esistenti—le sta codificando nel sistema.
Il Guardiano Silenzioso: Il Potere Incontrollato dell’IA nella Sanità
Alla conferenza, i partecipanti hanno espresso profonde preoccupazioni:
“L'IA prende decisioni basandosi su razza ed etnia—ma cosa significano davvero queste categorie nella sanità?”
“Se i dataset usati per addestrare l'IA non includono persone come me, come posso fidarmi delle decisioni che prende?”
“L'IA potrebbe essere utile, ad esempio per migliorare la diversità negli studi clinici—ma potrebbe anche escludere alcune persone.”
“E per le barriere linguistiche? Come possiamo garantire che chi non parla inglese tragga beneficio da questi strumenti?”

Queste non sono solo domande di equità—sono questioni di sopravvivenza. L'IA viene già utilizzata per determinare quali pazienti ricevano screening aggiuntivi, trattamenti specializzati o cure preventive. [4] Se i suoi modelli sono distorti, le comunità emarginate continueranno a essere trascurate.
Oltre i Pregiudizi: Le Barriere dell’IA all’Accesso Sanitario
Anche se l'IA fosse perfettamente equa—cosa che non è—rimane il problema dell'accessibilità.
Un partecipante l'ha spiegato chiaramente: “Avere accesso agli strumenti di IA non significa che le persone sapranno come usarli. Gli anziani, per esempio, hanno difficoltà con la tecnologia. Come colmiamo questo divario?”
L'IA sanitaria presume un’alfabetizzazione digitale, ma molte popolazioni vulnerabili—anziani, persone che non parlano inglese, individui a basso reddito—già faticano a orientarsi nei sistemi sanitari complessi. Se l'IA viene progettata senza tener conto di loro, non solo non sarà d’aiuto, ma finirà per escluderli attivamente.
Cosa Deve Cambiare—Ora
L'IA nella sanità non è intrinsecamente negativa. Ha il potenziale per migliorare l’efficienza, aumentare l’accesso alle cure e persino ridurre le disparità—se la usiamo nel modo giusto. Serve però un’azione urgente.
Cosa deve succedere ora:
Gli strumenti di IA devono essere trasparenti. Pazienti e medici devono sapere come vengono prese le decisioni e poter contestare gli esiti ingiusti.
I pregiudizi nei dati di addestramento devono essere affrontati. L'IA deve essere costruita con dataset diversificati e rappresentativi per garantire un’assistenza equa.
L'IA deve supportare, non sostituire, il giudizio umano. I medici non dovrebbero mai affidarsi completamente a un algoritmo—soprattutto quando si tratta di decisioni di vita o di morte.
L’accessibilità deve essere una priorità. Le barriere linguistiche, l’alfabetizzazione digitale e l’equità negli studi clinici basati sull’IA devono essere affrontate.
La regolamentazione deve stare al passo. L'IA sanitaria ha bisogno di standard etici chiari e di un controllo rigoroso per prevenire danni prima che si verifichino.
I rischi delle disparità sanitarie alimentate dall'IA non sono più ipotetici—stanno accadendo ora. Regolatori, ospedali e aziende tecnologiche devono agire prima che le disuguaglianze diventino permanentemente radicate nel sistema. Pazienti, operatori sanitari e responsabili politici devono esigere trasparenza, responsabilità ed equità nell’uso dell’IA nella sanità.
Se non interveniamo ora, gli strumenti progettati per migliorare l'assistenza rischiano invece di rafforzare le ingiustizie che da tempo affliggono il nostro sistema sanitario.
🚀 Iscriviti: Blog | CROSS Global Research & Strategy per ricevere aggiornamenti settimanali su come l’IA sta trasformando la sanità, la politica e l’equità. Analizziamo le ultime ricerche, opinioni di esperti e implicazioni concrete—così non devi farlo.
Bibliografia
Obermeyer Z, Powers B, Vogeli C, Mullainathan S. Dissecting racial bias in an algorithm used to manage the health of populations. Science. Oct 25 2019;366(6464):447-453. doi:10.1126/science.aax2342
Grant SJ, Mills JA, Telfair J, et al. "They don't care to study it": Trust, race, and health care experiences among patient-caregiver dyads with multiple myeloma. Cancer Med. May 2024;13(10):e7297. doi:10.1002/cam4.7297
Artiga S, Hill L, Presiado M. How Present-Day Health Disparities for Black People Are Linked to Past Policies and Events https://www.kff.org/racial-equity-and-health-policy/issue-brief/how-present-day-health-disparities-for-black-people-are-linked-to-past-policies-and-events/
Alowais, S.A., Alghamdi, S.S., Alsuhebany, N. et al. Revolutionizing healthcare: the role of artificial intelligence in clinical practice. BMC Med Educ 23, 689 (2023). https://doi.org/10.1186/s12909-023-04698-z

Comentários