El abordaje de las armas autónomas, drones o robots, ha causado un gran impacto en estos tiempos producto de la Inteligencia Artificial (IA), aunque no existen definiciones únicas de los Sistemas de Armas Autónomos (SAA), pueden entenderse como cualquier tipo de sistemas de armas con autonomía en sus funciones críticas. Esto es, un arma que puede seleccionar y atacar objetivos sin intervención humana. En el ámbito de los Derechos Humanos y del Derecho Internacional Humanitario (DIH), varias organizaciones se han unido en una sola lucha: la prohibición del desarrollo y el uso de armas letales autónomas controladas por IA en conflictos armados. Los principios del Protocolo I del Convenio de Ginebra buscan proteger a las personas que no combaten o que han dejado de combatir; el problema radica en el hecho de que no hay claridad si las armas autónomas logran distinguir entre un combatiente herido o enfermo, uno que depone sus armas, un prisionero de guerra o un civil que no combate. La metodología del estudio se basa en una investigación documental apoyada en el enfoque cualitativo. Se concluye que actualmente no puede asegurarse que los llamados robots autónomos letales sean capaces de ajustarse a los principios del DIH.
The approach to autonomous weapons, drones or robots, has caused a great impact in these times as a result of Artificial Intelligence (AI), although there are no unique definitions of Autonomous Weapons Systems (SAA), they can be understood as any type of systems of weapons with autonomy in their critical functions. That is, a weapon that can select and attack targets without human intervention. In the field of Human Rights and International Humanitarian Law (IHL), several organizations have united in a single fight: the prohibition of the development and use of lethal autonomous weapons controlled by AI in armed conflicts. The principles of Protocol I of the Geneva Convention seek to protect people who are not fighting or who have stopped fighting; The problem lies in the fact that it is not clear whether autonomous weapons can distinguish between a wounded or sick combatant, one who lays down his weapons, a prisoner of war or a civilian who does not fight. The methodology of the study is based on documentary research supported by the qualitative approach. It is concluded that currently it cannot be ensured that the so-called lethal autonomous robots are capable of complying with the principles of IHL.
© 2001-2026 Fundación Dialnet · Todos los derechos reservados