Ayuda
Ir al contenido

Dialnet


Sesgos de género y raciales en la IA: implicaciones éticas y legales del reconocimiento facial

    1. [1] Universidad Internacional Isabel I de Castilla

      Universidad Internacional Isabel I de Castilla

      Burgos, España

  • Localización: Derecho y Economía de la Integración, ISSN-e 2530-5093, Nº. 13, 2024, págs. 11-31
  • Idioma: español
  • Títulos paralelos:
    • Gender and racial biases in AI: ethical and legal implications of facial recognition
  • Enlaces
  • Resumen
    • español

      Este artículo investiga los sesgos de género y raciales en los algoritmos de inteligencia artificial (IA) aplicados al reconocimiento facial. A través de un análisis exhaustivo, se examinan las implicaciones éticas y legales de estos sesgos en sistemas de toma de decisiones automatizadas, especialmente en el ámbito de la seguridad pública y la justicia. Los resultados indican que dichos sistemas muestran menor precisión al clasificar a mujeres de piel oscura y otras minorías raciales, lo que perpetúa desigualdades preexistentes. El estudio también evalúa las normativas vigentes y la necesidad de implementar marcos regulatorios más estrictos, con auditorías algorítmicas y transparencia en el desarrollo de la IA. Finalmente, se proponen soluciones para mitigar estos sesgos, como la diversificación de los datos de entrenamiento y la creación de políticas que promuevan la equidad en el uso de IA.

    • English

      This article investigates gender and racial biases in artificial intelligence (AI) algorithms applied to facial recognition. Through a comprehensive analysis, it examines the ethical and legal implications of these biases in automated decision-making systems, especially in public safety and justice. The findings indicate that these systems demonstrate lower accuracy when identifying dark-skinned women and other racial minorities, perpetuating pre-existing inequalities. The study also reviews current regulations and highlights the need for stricter regulatory frameworks, including algorithmic audits and transparency in AI development. Finally, solutions are proposed to mitigate these biases, such as diversifying training data and developing policies that ensure fairness in AI use.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus

Opciones de compartir

Opciones de entorno