Ayuda
Ir al contenido

Dialnet


Moralidad artificial

  • Autores: Mariana Olezza
  • Localización: Revista Perspectivas Metodológicas, ISSN-e 2618-4125, ISSN 1666-3055, Vol. 18, Nº. 22, 2018 (Ejemplar dedicado a: Perspectivas Metodológicas 22)
  • Idioma: español
  • Enlaces
  • Resumen
    • El objetivo de este trabajo es llevar el debate de la filosofía práctica, de la ética, al campo de la tecnología. Particularmente se analizará si es válido o no llamar morales a los Agentes Artificiales (AAs) –es decir, drones, autos que se manejan solos, (ro)bots–, debatible a causa de su falta de libre albedrío. En segundo lugar, se buscará, a través de un ejemplo práctico, establecer una manera de implementar la toma de decisiones éticas en los AAs, usando conceptos de la ética kantiana, la ética aristotélica y el utilitarismo para su construcción. Finalmente se establecerá cuáles son los límites de la responsabilidad por parte del equipo de desarrollo del producto en el diseño de estos sistemas.Palabras clave: Agentes artificiales - Aprendizaje máquina - Ética - Kant - Aristóteles - Utilitarismo


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus

Opciones de compartir

Opciones de entorno