Ayuda
Ir al contenido

Dialnet


Inteligencia artificial aplicable a los conflictos armados: límites jurídicos y éticos

    1. [1] Universidad de Buenos Aires

      Universidad de Buenos Aires

      Argentina

  • Localización: Arbor: Ciencia, pensamiento y cultura, ISSN 0210-1963, Vol. 197, Nº 800 (nteligencia artificial y nuevas éticas de la convivencia), 2021
  • Idioma: español
  • Títulos paralelos:
    • Artificial intelligence in armed conflicts: legal and ethical limits
  • Enlaces
  • Resumen
    • español

      Las normas del Derecho Internacional Humanitario (DIH) establecen límites al uso de los medios y métodos de combate en el desarrollo de las hostilidades. Si bien en su origen el DIH no fue elaborado teniendo en cuenta los desafíos planteados por el desarrollo de la inteligencia artificial (IA) en ese contexto, es una realidad que en la actualidad la evolución de esta inteligencia, los algoritmos y su aplicación militar emergente constituyen un desafío a la luz de las normas humanitarias. Ese desafío comprende tres ámbitos fundamentales: el técnico, el legal y el ético.

      Si bien se puede decir que la IA, en la etapa actual de desarrollo, permite que un programa computerizado basado en algoritmos realice ciertas tareas en un entorno complejo e incierto, a menudo con mayor precisión que los seres humanos, también debemos destacar que no hay tecnología que haga que una máquina se comporte como un ser humano, quien puede determinar si una acción es lícita o ilícita y decidir no continuar con lo programado, teniendo como objetivo primordial la protección de las víctimas.

      Los Estados deben adoptar regímenes de verificación, prueba y monitoreo como parte del proceso para determinar e imponer limitaciones o prohibiciones de acuerdo a los principios esenciales de distinción y proporcionalidad que el DIH establece en la utilización de armas durante los conflictos armados internacionales o no internacionales. Tanto desde una perspectiva legal como ética el ser humano está en el centro de esta problemática, ya que la responsabilidad por el uso de la fuerza no puede transferirse a sistemas de armas o algoritmos, y sigue siendo una responsabilidad humana.

    • English

      The rules of International Humanitarian Law (IHL) set limits on the use of the means and methods of combat in the conduct of hostilities. While in its origins IHL was not developed taking into account the challenges posed by Artificial Intelligence in this context, it is a reality that today the evolution of this intelligence, the algorithms and their emerging military application constitute a challenge in the light of humanitarian standards. This challenge comprises three fundamental aspects: legal, technical and ethical.

      While it can be said that AI, in the current stage of development, allows a computer programme based on algorithms to perform certain tasks in a complex and uncertain environment, often with greater accuracy than humans, we must also stress that there is no technology that makes a machine behave like a human being who can determine whether an action is lawful or unlawful and decide not to proceed with the programmed action, with the protection of victims as the primary objective. This is one of the dominant themes in doctrinal debates on the application of IHL to means and methods of combat involving AI-related techniques.

      States must adopt verification, testing and monitoring systems as part of the process to determine and impose limitations or prohibitions in accordance with the essential principles of distinction and proportionality that IHL establishes in the use of weapons during international or non-international armed conflicts. Moreover, it is worth noting that from a legal as well as an ethical perspective, the human being is at the center of this issue, since the responsibility for the use of force cannot be transferred to weapons systems or algorithms, as it remains a human responsibility.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus

Opciones de compartir

Opciones de entorno