Ayuda
Ir al contenido

Dialnet


Sesgos, IA y biomedicina: un comentario desde la ética y el Derecho

    1. [1] Universidad Internacional de Valencia

      Universidad Internacional de Valencia

      Valencia, España

    2. [2] Universidad del País Vasco / Euskal Herriko Unibersitatea (Leioa) Ikerbasque - Fundación Vasca para la Ciencia
  • Localización: Revista de derecho y genoma humano: genética, biotecnología y medicina avanzada, ISSN 1134-7198, Nº 59, 2023, págs. 129-148
  • Idioma: español
  • Texto completo no disponible (Saber más ...)
  • Resumen
    • La cuestión de los sesgos en la IA constituye un reto importante en los sistemas de IA. Estos sesgos no surgen únicamente de los datos existentes, sino que también los introducen las personas que utilizan sistemas, que son intrínsecamente parciales, como todos los seres humanos. No obstante, esto constituye una realidad preocupante porque los algoritmos tienen la capacidad de influir significativamente en el diagnóstico de un médico. Análisis recientes indican que este fenómeno puede reproducirse incluso en situaciones en las que los médicos ya no reciben orientación del sistema. Esto implica no sólo una incapacidad para percibir el sesgo, sino también una propensión a propagarlo. Las consecuencias potenciales de este fenómeno pueden conducir a un ciclo que se autoperpetúa y que tiene la capacidad de infligir un daño significativo a las personas, especialmente cuando los sistemas de inteligencia artificial (IA) se emplean en contextos que implican asuntos delicados, como el ámbito de la asistencia sanitaria. En respuesta a esta circunstancia, los ordenamientos jurídicos han ideado mecanismos de gobernanza que, a primera vista, parecen suficientes, especialmente en la Unión Europea. Los reglamentos de reciente aparición relativos a los datos y los que ahora se enfocarán a la inteligencia artificial (IA) sirven como ilustración por excelencia de cómo lograr potencialmente una supervisión suficiente de los sistemas de IA. En su aplicación práctica, no obstante, es probable que numerosos mecanismos muestren ineficacia a la hora de identificar los sesgos que surgen tras la integración de estos sistemas en el mercado. Es importante considerar que, en esa coyuntura, puede haber múltiples agentes implicados, en los que se ha delegado predominantemente la responsabilidad. De ahí que sea imperativo insistir en la necesidad de persuadir a los desarrolladores de inteligencia artificial (IA) para que apliquen medidas estrictas con el fin de regular los sesgos inherentes a sus sistemas. Si no se logra la detección de estas entidades, ello supondrá un reto importante para que otras personas alcancen lo mismo, sobre todo hasta que su presencia sea muy notoria. Otra posibilidad es que las repercusiones a largo plazo se experimenten de forma colectiva. Palabras clave: Auditoría de IA, Sesgos, Ley de IA, Supervisión de IA


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus

Opciones de compartir

Opciones de entorno