Este artículo explora los riesgos sociales que pueden surgir de la integración de la inteligencia artificial (IA) en in-novaciones en defensa y examina cómo se puede lograr el principio de responsabilidad en este contexto. Utilizando un enfoque descriptivo-analítico cualitativo, basado en informes internacionales y estudios previos, el artículo identifica cuatro dominios críticos de riesgo social: amenazas a la vida humana, uso indebido de terroristas, guerra cibernética y electrónica, y la falta de rendición de cuentas por acciones cometidas por sistemas autónomos o semiautónomos. Para abordar estos desafíos, se propone un marco de responsabilidad a tres niveles —internacional, institucional y sociocultural— que vincule las normas éticas globales con las prácticas de gobernanza local y los valores morales. El estudio sostiene que la innovación responsable en tecnologías de defensa impulsadas por IA requiere una gobernanza ética que garantice rendición de cuentas, supervisión humana y legitimidad social, equilibrando así los imperativos de seguridad con la confianza pública.
This paper explores the societal risks that may arise from the integration of artificial intelligence (AI) into defense innovations and examines how the principle of responsibility can be achieved in this context. Using a qualitative descriptive–analytical approach grounded in international reports and prior studies, the paper identifies four critical domains of societal risk: threats to human life, terrorist misuse, cyber and electronic warfare, and the lack of accountability for actions committed by autonomous or semi-autonomous systems. To address these challenges, a tri-level framework of responsibility is proposed —international, institutional, and socio-cultural— linking global ethical norms with local governance practices and moral values. The study argues that responsible innovation in AI-driven defense technologies requires ethical governance that ensures accountability, human oversight, and societal legitimacy, thereby balancing security imperatives with public trust
Este artigo explora os riscos sociais que podem surgir da integração de inteligência artificial (IA) em inovações de defesa e examina como o princípio da responsabilização pode ser alcançado nesse contexto. Utilizando uma abordagem descritiva-analítica qualitativa, baseada em relatórios internacionais e estudos anteriores, o artigo identifica quatro domínios críticos de risco social: ameaças à vida humana, uso indevido de terroristas, guerra cibernética e eletrônica, e falta de responsabilização por ações cometidas por sistemas autônomos ou semi-autônomos. Para enfrentar esses desafios, é proposto um quadro de respon-sabilidade em três níveis —internacional, institucional e sociocultural— que conecta padrões éticos globais com práticas de governança local e valores morais. O estudo argumenta que inovação responsável em tecnologias de defesa alimentadas por IA requer governança ética que garanta responsabilidade, supervisão humana e legitimidade social, equilibrando assim imperativos de segurança com confiança pública.
© 2001-2026 Fundación Dialnet · Todos los derechos reservados