Ayuda
Ir al contenido

Dialnet


El sesgo de la máquina en la toma de decisiones en el proceso penal

    1. [1] Universitat de València

      Universitat de València

      Valencia, España

  • Localización: IUS ET SCIENTIA: Revista electrónica de Derecho y Ciencia, ISSN-e 2444-8478, Vol. 6, Nº. 2, 2020, págs. 54-71
  • Idioma: español
  • Títulos paralelos:
    • Machine bias in criminal procedure
  • Enlaces
  • Resumen
    • español

      La inteligencia artificial tiene innumerables ventajas en nuestras vidas. La capacidad de almacenar y conectar datos que tiene un ordenador es muy superior a la capacidad humana. Pero esta “inteligencia” comporta también problemas de hondo calado ético que el derecho deberá responder. Digo “inteligencia” porque a día de hoy las máquinas no son inteligentes. Las máquinas solo utilizan aquellos datos que, previamente, un humano le ha ofrecido como ciertos. La verdad es relativa y los datos van a tener los mis-mos sesgos y prejuicios que tiene el humano que programa la máquina. En otras palabras, las máquinas van a ser racistas, sexistas y clasistas si lo son sus programadores. A todo esto se le suma un nuevo problema, la dificultad de comprender el algoritmo por parte de los aplicadores del derecho. Esto puede atacar derechos fundamentales básicos en el sistema de justicia pe-nal como son el derecho a la publicidad de las actuaciones y el derecho a la motivación de las decisiones judiciales. Esta situación obliga a repensar el proceso penal tan y como hoy lo conocemos, incluyendo la inteligencia artificial e hilando muy fino indicando cómo, cuándo, por qué y en qué su-puestos podemos hacer uso de la inteligencia artificial y, sobretodo, quién va a programarla. Porque, tal y como indica Silvia Barona, tal vez la pregunta debería ser: ¿quién va a controlar el pensamiento jurídico global?

    • English

      Artificial intelligence has countless advantages in our lives. On the one hand, computer’s capacity to store and connect data is far superior to human ca-pacity. On the other hand, its “intelligence” also involves deep ethical prob-lems that the law must respond to. I say “intelligence” because nowadays machines are not intelligent. Machines only use the data that a human be-ing has previously offered as true. The truth is relative and the data will have the same biases and prejudices as the human who programs the machine. In other words, machines will be racist, sexist and classist if their programmers are. Furthermore, we are facing a new problem: the difficulty to understand the algorithm of those who apply the law.This situa-tion forces us to rethink the criminal process, including artificial intelligence and spinning very thinly indicating how, when, why and under what assumptions we can make use of artificial intel-ligence and, above all, who is going to program it. At the end of the day, as Silvia Barona indicates, perhaps the question should be: who is going to control global legal thinking?


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus

Opciones de compartir

Opciones de entorno