Ayuda
Ir al contenido

Dialnet


Especificando la responsabilidad algorítmica

    1. [1] Universidad Autónoma de Nuevo León

      Universidad Autónoma de Nuevo León

      México

  • Localización: Teknokultura: Revista de Cultura Digital y Movimientos Sociales, ISSN-e 1549-2230, Vol. 19, Nº. 2, 2022 (Ejemplar dedicado a: La educación digital en tiempo del COVID-19), págs. 265-275
  • Idioma: español
  • Títulos paralelos:
    • Specifying algorithmic responsibility
  • Enlaces
  • Resumen
    • español

      Especificar la responsabilidad algorítmica tiene por objetivo clasificar las acciones de protección ante los impactos de la Inteligencia Artificial. La descripción de los problemas causados por la Inteligencia Artificial, aunada a la revisión de los modelos y componentes de las evaluaciones, permiten discernir sobre las buenas prácticas y métodos para establecer la huella algorítmica y las respectivas consecuencias. Se enumeran los seis inconvenientes causados por la Inteligencia Artificial, enfatizando las violaciones a los derechos fundamentales y las carencias de las autoridades para garantizar las normativas aplicables. El análisis de cuatro modelos de evaluación muestra la conveniencia de enfocarse en el riesgo. Se analizan los componentes y elementos deseables en todas las evaluaciones de impacto algorítmico desde la literatura atingente de los años 2020 y 2021. Se recogen las lecciones de las buenas prácticas de evaluación para demostrar que: las discusiones sugieren transitar hacia expresiones cuantitativas de los aspectos cualitativos, mientras las conclusiones advierten dificultades para construir una fórmula estandarizada de Evaluación. Se propone que las métricas procedan por ponderaciones o valores factoriales, según el número de ámbitos o dominios afectados y la gravedad se establezca en cuatro niveles de impacto, riesgo o daño. En simetría se plantean cuatro acciones de protección: prohibir algunos sistemas de Inteligencia Artificial, asegurar la reparación de daños causados por decisiones tomadas con algoritmos, promover la mitigación de impactos indeseables y establecer la prevención de riesgos.

       

    • English

      In seeking to specifying algorithmic responsibility, the aim is to classify protective actions against the impact of artificial intelligence. The article provides a description of the problems caused by artificial intelligence, as well as a review of evaluation models and their components in order to guide best practice and methods in the specification of the algorithmic footprint. The analysis of four evaluation models shows that the best models are those related to risk and legal responsibility. Good evaluation practices endeavor to obtain quantitative expressions of qualitative aspects, while the conclusions warn of difficulties in building standardized formulas. The metrics of quantitative expressions must consider weights, based on the number of areas affected, and establish the severity in four levels of impact, risk or damage. This permits the reciprocity of four protective actions: the prohibition of some systems, ensuring damage repair, promoting impact mitigation, and establishing risk prevention.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus

Opciones de compartir

Opciones de entorno