Ayuda
Ir al contenido

Dialnet


Resumen de Racial/Ethnic Bias in AI Systems: A PRISMA Systematic Review of Magnitude, Domains, and Mitigation Strategies (2014–2025)

Juan Sebastián Fernández Prados, Yolanda Cara Fernández, Maria José Torres de Haro

  • español

    Objetivo. Examinar en qué magnitud, dirección y dominios aparece el sesgo étnico/racial en sistemas de IA/ML y qué estrategias de mitigación muestran evidencia de efectividad.

    Métodos. Realizamos una búsqueda en Scopus (2014–actualidad) con una cadena centrada en bias AND “artificial intelligence” AND (racial OR ethni*), siguiendo PRISMA 2020. Tras deduplicar, se cribaron 526 registros con doble revisor (concordancia y resolución de discrepancias). Para garantizar una síntesis sólida, centramos el análisis en 10 revisiones sistemáticas recientes que abordan disparidades por raza/etnia en salud, seguridad/justicia, crédito/finanzas, empleo/selección, educación y plataformas digitales. Extraímos resultados por subgrupos (p. ej., diferencias de acierto/error entre grupos), métricas de equidad reportadas (p. ej., comparación de sensibilidades y falsos positivos entre grupos, diferencias de rendimiento global y “impacto dispar”) y medidas de mitigación (antes, durante y después del modelado, y de gobernanza).

    Resultados. Las 10 revisiones coinciden en que muchos sistemas de inteligencia artificial (IA) reproducen o amplifican desigualdades por raza/etnia en varios dominios. En salud, son frecuentes peores aciertos o más errores para personas negras, latinas e indígenas; en seguridad/justicia, se documentan más falsos positivos para minorías. Estrategias con evidencia favorable incluyen mejoras de datos (representatividad y calidad), reponderación/reescalado de pérdidas, ajuste de umbrales por subgrupos, y auditorías externas con transparencia de resultados; no obstante, la heterogeneidad y la medición de raza/etnia por inferencia o proxy limitan la certeza.

    Conclusiones. La evidencia es consistente en señalar sesgos raciales/étnicos en IA. Las mitigaciones pueden reducir disparidades, pero su efecto es parcial y depende del contexto. Recomendamos informar resultados por subgrupos, validación externa, códigos y datos reproducibles, y gobernanza (auditorías y rendición de cuentas). Limitación: fuente única (Scopus).

  • English

    Objective.Toexaminetheextent,direction,anddomainsinwhichethnic/racialbiasappearsinAI/MLsystemsandwhatmitigationstrategiesshowevidenceofeffectiveness.Methods. We conducted a search in Scopus (2014–present) using the search strings bias AND “artificial intelligence”AND (racial OR ethni *), following PRISMA 2020 guidelines. After deduplication,526 records were screened using double review (concordance and discrepancy resolution). To ensure a robust synthesis, we focused the analysis on 10 recent systematic reviews addressing racial/ethnic disparities in health, safety/justice, credit/finance, employment/selection, education, and digital platforms. We extracted results by subgroups (e.g., accuracy/error differences between groups), reported equity metrics (e.g., comparison of sensitivities and false positives between groups, overall performance differences, and “disparate impact”), and mitigation measures (before, during, and after modeling, and governance measures). Results. All 10 reviews agree that many artificial intelligence (AI) systems reproduce or amplify racial/ethnic inequalities across various domains. In health, poorer accuracy or more errors are common for Black, Latino, and Indigenous people; in security/justice, more false positives are documented for minorities. Strategies with supporting evidence include data improvements (representativeness and quality), reweighting/ rescaling of losses, adjustment of thresholds for subgroups, and external audits with transparent results; however, heterogeneity and the measurement of race/ethnicity by inference or proxy limit certainty.Conclusions. The evidence consistently points to racial/ethnic biases in AI. Mitigation measures can reduce disparities, but their effect is partial and context-dependent. We recommend reporting results by subgroups, external validation, reproducible code and data, and governance (audits and accountability). Limitation: single source (Scopus).


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus