Le Recenti Azioni della Politica AI negli Stati Uniti: Innovazione a Spese dell’Equità?
- Dr. Shakira J. Grant
- 23 mar
- Tempo di lettura: 6 min
Aggiornamento: 4 apr
In un cambiamento drammatico, l'attuale amministrazione statunitense ha revocato le principali misure di sicurezza progettate per garantire sicurezza, equità e trasparenza nell’intelligenza artificiale (AI). La mossa, presentata come una strategia per accelerare l’innovazione, elimina la supervisione federale su bias, equità e uso responsabile dell’AI, portando la nazione su una traiettoria nettamente diversa rispetto ai suoi omologhi globali.
Questa decisione arriva poco più di un anno dopo l’Ordine Esecutivo del Presidente Biden su un’AI Sicura, Protetta e Affidabile (30 ottobre 2023) che aveva stabilito paletti per lo sviluppo dell’AI al fine di proteggere consumatori, lavoratori e diritti civili. Ora che tali protezioni sono state smantellate, gli esperti avvertono che questa svolta potrebbe aggravare le disparità sistemiche in settori ad alto rischio come sanità, istruzione, finanza e giustizia penale, che già affrontano disuguaglianze profondamente radicate. [1-2]
Tabella: Confronto tra l’Ordine Esecutivo sull’AI di Biden e l’Ordine Esecutivo di Trump sulla Revoca delle Regole AI
Principio AI | ||
Sicurezza e Protezione | Richiedeva valutazioni dei rischi AI, misure di cybersicurezza e etichettatura dei contenuti generati dall’AI. | Rimosse le linee guida federali sulla sicurezza e la cybersicurezza dell’AI. |
Promozione dell’Innovazione | Incentivava lo sviluppo responsabile dell’AI attraverso istruzione, ricerca e concorrenza leale. | Dava priorità alla deregolamentazione, riducendo la supervisione sulle pratiche industriali dell’AI. |
Supporto alla Forza Lavoro | Garantiva che i progressi dell’AI beneficiassero i lavoratori, proteggendo i diritti del lavoro e mitigando la perdita di posti di lavoro. | Nessun mandato federale per monitorare l’impatto dell’AI su lavoro e diritti dei lavoratori. |
Equità e Diritti Civili | Richiedeva audit sui bias dell’AI per prevenire discriminazioni in assunzioni, finanza, polizia e sanità. | Eliminava i requisiti di equità e bias, lasciando la supervisione alle aziende private. |
Protezione del Consumatore | Stabiliva salvaguardie per prevenire frodi, bias e danni in sanità, credito e istruzione. | Riduceva le normative sulla diffusione dell’AI nei settori rivolti ai consumatori. |
Privacy e Libertà Civili | Rafforzava le protezioni della privacy, contrastando i rischi dell’uso improprio dei dati guidati dall’AI. | Riduceva la supervisione della privacy, diminuendo le restrizioni sulla raccolta dati da parte dell’AI. Dare priorità alla "riduzione del bias ideologico, per favorire il benessere umano e la competitività economica" |
Uso Federale dell’AI | Rafforzava la supervisione governativa dell’AI, attirava professionisti dell’AI e modernizzava le infrastrutture. | Lo sviluppo federale dell’AI ora è focalizzato sulla deregolamentazione e sulle applicazioni per la sicurezza nazionale. |
Leadership Globale | Incentivava la collaborazione internazionale per stabilire standard etici per l’AI in tutto il mondo. | Puntava alla supremazia AI statunitense, allontanandosi dagli sforzi di governance globale sull’AI. |
L’ordine esecutivo dell’amministrazione Trump segna un netto cambiamento nella governance, privilegiando l’innovazione e la competitività economica rispetto alla regolamentazione per un uso etico ed equo dell’AI. Mentre altre nazioni rafforzano le normative per mitigare bias e danni, gli Stati Uniti sembrano allentare le protezioni, sollevando preoccupazioni sulle conseguenze reali di un’AI non regolamentata.
Da nessuna parte questo è più evidente che nel settore sanitario, dove strumenti di intelligenza artificiale (IA) con bias rafforzano le disparità razziali. La medicina basata sulla razza, da tempo integrata negli algoritmi clinici, ha portato i pazienti neri a ricevere cure inadeguate, in particolare per condizioni come le malattie renali, in cui le formule aggiustate in base alla razza possono ritardare interventi salvavita. [3] Allo stesso modo, un sistema di allocazione delle risorse basato sull'IA, utilizzato per oltre 20 milioni di pazienti, ha svantaggiato gli individui neri collegando le necessità di cura alla spesa sanitaria passata, un parametro intrinsecamente discriminatorio. [4]
Al di là della sanità, sistemi di IA difettosi continuano a danneggiare le comunità emarginate. Il sistema di negazione basato su IA di UnitedHealth ha registrato un alto tasso di errore, rifiutando erroneamente cure essenziali per gli anziani. [5] La tecnologia di riconoscimento facciale ha portato ad arresti ingiusti a causa di errori di identificazione. [6] Nel settore finanziario, le decisioni di prestito basate sull'IA, che si affidano a punteggi FICO con bias, hanno negato in modo sproporzionato i mutui ai richiedenti neri, che in media hanno punteggi di credito inferiori di 57 punti rispetto ai loro omologhi bianchi. [7]
Con l’amministrazione che si ritira dall'affrontare le disuguaglianze sistemiche, l’abolizione di queste protezioni solleva interrogativi urgenti: chi subirà maggiormente i danni causati dall’IA in un vuoto normativo? E quali tutele, se esistono, rimarranno?
Regolamentazione globale dell’IA e le azioni politiche degli Stati Uniti: un divario crescente
Mentre l'amministrazione Trump spinge per "Rimuovere le barriere alla leadership americana nell'intelligenza artificiale," il suo allontanamento dall'intelligenza artificiale sicura e responsabile rischia di erodere la fiducia globale nella tecnologia statunitense. Mentre gli Stati Uniti si muovono verso la deregolamentazione, altre nazioni stanno rafforzando le protezioni.
L'AI Act del 2024 dell'Unione europea impone un quadro basato sul rischio per regolamentare le applicazioni di intelligenza artificiale, garantendo maggiori tutele per gli usi ad alto rischio. L'Organizzazione mondiale della sanità ha emanato linee guida etiche, tra cui raccomandazioni specifiche sull'intelligenza artificiale per l'assistenza sanitaria. Nel frattempo, la Cina è stata tra le prime a introdurre normative sull'intelligenza artificiale nel 2021, stabilendo le prime linee guida per il suo sviluppo.
Mentre la supervisione globale si rafforza, il ritiro degli Stati Uniti dalle misure di salvaguardia dell’intelligenza artificiale solleva una domanda urgente: la deregolamentazione posizionerà l’America come leader dell’innovazione o la lascerà fuori passo con la governance mondiale dell’intelligenza artificiale?

I rischi dell'intelligenza artificiale senza adeguate protezioni
Senza supervisione, il processo decisionale basato sull'intelligenza artificiale peggiora le disparità nei settori chiave:
🔴 Assistenza sanitaria → Le diagnosi basate sull'intelligenza artificiale incorporano pregiudizi legati a razza, genere, età e stato socioeconomico, portando a un accesso diseguale alle cure e a risultati peggiori per i gruppi emarginati.
🔴 Occupazione e assunzioni → Gli strumenti di assunzione basati sull'intelligenza artificiale rafforzano la discriminazione sistemica, filtrando i candidati qualificati in base ad algoritmi distorti.
🔴 Giustizia penale → I modelli di polizia e condanna basati sull'intelligenza artificiale esacerbano la profilazione razziale e perpetuano le ingiustizie nel sistema legale.
🔴 Servizi finanziari → I prestiti algoritmici e il punteggio di credito escludono sistematicamente le comunità emarginate, ampliando la disuguaglianza economica.
Con la crescita dell’influenza dell’intelligenza artificiale, l’assenza di solide misure di salvaguardia assicura che questi danni persisteranno, colpendo in modo sproporzionato coloro che già affrontano disuguaglianze strutturali.
Conclusione: corsa all'innovazione, ma a quale costo?
Il ritiro da parte dell'amministrazione Trump dell'ordine esecutivo di Biden del 2023 sull'intelligenza artificiale segna un cambiamento decisivo nell'azione politica statunitense in materia di intelligenza artificiale, eliminando le garanzie progettate per garantire equità e responsabilità. Mentre la deregolamentazione può stimolare l'innovazione, avviene a scapito della fiducia pubblica, dell'equità e della fattibilità a lungo termine di un'intelligenza artificiale responsabile.
Mentre l'Unione Europea, la Cina e l'Organizzazione Mondiale della Sanità promuovono normative più severe sull'intelligenza artificiale, gli Stati Uniti stanno tracciando una rotta diversa, che rischia di approfondire le disuguaglianze sistemiche ed erodere la propria leadership nella governance etica dell'intelligenza artificiale. La domanda rimane: la ricerca dell'innovazione avverrà a scapito di coloro che sono più vulnerabili ai danni dell'intelligenza artificiale?

🚀Resta al passo con la curva dell'intelligenza artificiale: iscriviti🚀: Blog | CROSS Global Research & Strategy per approfondimenti settimanali su come l'intelligenza artificiale sta rimodellando l'assistenza sanitaria, la politica e l'equità. Analizziamo le ultime ricerche, opinioni di esperti e implicazioni nel mondo reale, così non devi farlo tu.
💬 Partecipa alla conversazione: hai idee sulla governance dell'intelligenza artificiale e sul suo impatto? Condividi le tue idee nei commenti, metti "Mi piace" a questo articolo e partecipa alla discussione che plasma il futuro dell'intelligenza artificiale responsabile.
Bibliografia
Trump's Efforts to Dismantle AI Protections, Explained. American Civil Liberties Union News and Commentary. Available from: https://www.aclu.org/news/privacy-technology/trumps-efforts-to-dismantle-ai-protections-explained
A technical AI government agency plays a vital role in advancing AI innovation and trustworthiness. Brookings. Available from: https://www.brookings.edu/articles/a-technical-ai-government-agency-plays-a-vital-role-in-advancing-ai-innovation-and-trustworthiness/
Neal RE, Morse M. Racial Health Inequities and Clinical Algorithms: A Time for Action. Clin J Am Soc Nephrol. 2021 Jul;16(7):1120-1121. doi: 10.2215/CJN.01780221. Epub 2021 Mar 5. PMID: 34597267; PMCID: PMC8425626.
Obermeyer Z, Powers B, Vogeli C, Mullainathan S. Dissecting racial bias in an algorithm used to manage the health of populations. Science. 2019 Oct 25;366(6464):447-453. doi: 10.1126/science.aax2342. PMID: 31649194.
https://www.abc.net.au/news/2023-04-26/hidden-dangers-of-artificial-intelligence/102264038
Aaron Klein. Reducing Bias in AI-based Financial Services. Available from: https://www.brookings.edu/articles/reducing-bias-in-ai-based-financial-services/
European Union Artificial Intelligence Act (2024). Available from: EU Artificial Intelligence Act | Up-to-date developments and analyses of the EU AI Act
WHO guidance: Ethics and Governance of Artificial Intelligence for Health. Available from: https://www.who.int/publications/i/item/9789240029200
Ethics and Governance of Artificial Intelligence for Health: Guidance on Large Multi-Modal Models (WHO),2024. Available from: https://www.who.int/publications/i/item/9789240084759
Tracing the Roots of China's AI Regulations (2024). Available from: https://carnegieendowment.org/research/2024/02/tracing-the-roots-of-chinas-ai-regulations?lang=en
Comments