Ayuda
Ir al contenido

Dialnet


Sesgos de género en el uso de inteligencia artificial para la gestión de las relaciones laborales: análisis desde el derecho antidiscriminatorio

    1. [1] Universitat de Barcelona

      Universitat de Barcelona

      Barcelona, España

  • Localización: e-Revista Internacional de la Protección Social (e-RIPS), ISSN-e 2445-3269, Vol. 7, Nº. 1, 2022, págs. 52-83
  • Idioma: español
  • Títulos paralelos:
    • Gender biases in the use of artificial intelligence for the management of labour relations: analysis from the anti-discrimination law
  • Enlaces
  • Resumen
    • español

      El análisis jurídico de la discriminación derivada de decisiones automatizadas que puedan provocar un impacto discriminatorio requiere combinar dos campos jurídicos: el de la protección de datos y el derecho antidiscriminatorio. En el primero los derechos reconocidos son accesorios al núcleo principal de afectación: el derecho de intervención humana y, principalmente, la explicabilidad de los algoritmos, manifestación de la debida justificación objetiva y razonable que acompaña a las decisiones prima facie discriminatorias para eludir su calificación como tales. Pero el tratamiento jurídico de la discriminación algorítmica requiere, también, dar respuesta a problemas de calificación de los sesgos en los que incurre el aprendizaje automático como resultado de las infinitas inferencias de datos que perfilan a personas en el contexto del derecho antidiscriminatorio, donde potencian su impacto discriminatorio, como son la discriminación por asociación o la discriminación múltiple o interseccional.

    • English

      The legal analysis of discrimination derived from automated decisions that may have a discriminatory impact requires combining two legal fields: data protection law and anti-discrimination law. The recognized rights of first field are accessory to the nucleus of affectation, and they’re the right of human intervention and, mainly, the explicability of the algorithms, which constitutes a manifestation of the due objective and reasonable justification in case of discriminatory prima facie decisions in order to elude their qualification as such. But the legal approach to algorithmic discrimination also requires responding to problems of qualifying the biases derived from machine learning as a result of the infinite data inferences that outline people in the context of anti-discrimination law, where they enhance their discriminatory impact, such as discrimination by association or multiple or intersectional discrimination.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus

Opciones de compartir

Opciones de entorno