Ayuda
Ir al contenido

Dialnet


La percepción de la toma de decisiones a través de inteligencia artificial cuando se produce daño a las personas

  • Autores: Pablo Espinosa, Miguel Clemente
  • Localización: Estudios penales y criminológicos, ISSN 1137-7550, Nº. Extra 44 (Inteligencia artificial y sistema penal), 2023
  • Idioma: español
  • Títulos paralelos:
    • Perception of artifical intelligence decision making when people receive harm
  • Enlaces
  • Resumen
    • español

      La toma de decisiones en inteligencia artificial (IA) puede ocurrir en escenarios en los que se decide en una fracción de segundo sobre la vida o el bienestar de los individuos sin que medie supervisión humana. Los algoritmos de IA que se aplican en estos casos pueden basarse o bien en criterios deontológicos o utilitaristas. Incluso si hubiese un consenso ético sobre la toma de decisiones de la IA, si la gente no encontrase aceptables los criterios éticos de la IA, su rechazo dificultaría su implementación. Por ejemplo, si un coche autónomo siempre sacrificase la seguridad de sus pasajeros antes que poner en peligro a otras víctimas en un accidente inevitable, mucha gente no compraría un coche autónomo. En este artículo se realiza una revisión bibliográfica de artículos científicos del ámbito de la psicología social sobre las variables implicadas en la percepción de decisiones relacionadas con la IA. Esta percepción social de la IA puede tener relevancia en el desarrollo de criterios sobre la responsabilidad legal. Finalmente, se examinan aspectos relacionados con el ámbito jurídico con la utilización de la IA en el sistema judicial y en la comisión de delitos

    • English

      Artificial Intelligence (AI) decision making may happen in scenarios where in a split second a decision has to be made without human supervision over the life or well-being of individuals. AI algorithms used in these cases can be based on deontological or utilitarian criteria. Even if there was a normative consensus in the ethics of AI decision making, if people did not find acceptable AI ethical criteria, its rejection would hinder its implementation. For instance, if an autonomous car would always sacrifice its passengers’ safety rather than risking other victims in an unavoidable accident, a lot of people would choose not to buy an autonomous car. In this paper we revise Social Psychology research papers related the variables involved in the perception of AI decision making.

      Social perception of AI may be relevant in developing legal responsibility criteria. Finally, we examine issues related to the legal field, like the use of AI in the legal system and to commit crimes.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus

Opciones de compartir

Opciones de entorno