Ayuda
Ir al contenido

Dialnet


Erros judiciários em tempos de digital surveillance: os algoritmos de reconhecimento facial em questão

    1. [1] Pontifícia Universidade Católica do Rio Grande do Sul

      Pontifícia Universidade Católica do Rio Grande do Sul

      Brasil

    2. [2] Pesquisador independente – Porto Alegre, RS, Brasil
  • Localización: Revista Brasileira de Direito Processual Penal, ISSN-e 2525-510X, Vol. 8, Nº. 2, 2022
  • Idioma: portugués
  • Títulos paralelos:
    • Miscarriages of justice in digital surveillance times: : the facial recognition algorithms in question
  • Enlaces
  • Resumen
    • português

      Os tradicionais problemas do reconhecimento pessoal, mormente quando realizado em álbuns fotográficos, foram repaginados e receberam verniz científico-tecnológico com a introdução de algoritmos de reconhecimento facial. A pandemia de coronavírus serviu de justificativa para a multiplicação dessas tecnologias, a pretexto do combate ao vírus. Assim foi que, em muitos lugares, como a Inglaterra e os EUA, esses algoritmos passaram a ser utilizados na persecução penal, não raro sob o argumento de redução da subjetividade dos depoimentos. Nesse contexto, o objetivo deste artigo é indagar como o reconhecimento facial pode produzir novos erros judiciários. Os objetivos específicos são abordar o uso de câmeras de monitoramento com reconhecimento facial para vigilância digital, analisar alguns aspectos do incremento das medidas securitárias durante a pandemia, investigar os erros judiciários em reconhecimentos de pessoas e explicar como os erros judiciários podem ocorrer durante o uso dessas câmeras. A hipótese da qual se parte é que essa tecnologia, por um lado, não pode cumprir condições mínimas de avaliação de confiabilidade probatória, e, por outro, ao ser aplicada a imagens, não passa de uma atualização, em muitos casos bastante malfeita, dos problemáticos reconhecimentos fotográficos. Utilizou-se o método hipotético-dedutivo e a técnica de pesquisa bibliográfica.

    • English

      The traditional problems of personal recognition, especially when performed from photographic albums, have been repaginated and given a scientific-technological varnish with the introduction of facial recognition algorithms. The coronavirus pandemic has served as justification for the multiplication of these technologies, under the pretext of fighting the virus. As a result, in many places, such as England and the United States, these algorithms began to be used in criminal prosecution, often under the argument of reducing the subjectivity of testimonies. In this context, the objective of this paper is to investigate how facial recognition can produce new miscarriages of justice. The specific objectives are to discuss the use of facial recognition cameras for digital surveillance, analyze some aspects of the increase in security measures during the pandemic, investigate miscarriages of justice in recognizing people, and explain how miscarriages of justice can occur during the use of these cameras. The hypothesis is that this technology, firstly, cannot meet minimum conditions for evaluating evidential reliability, and, on the other hand, when applied to images, it is nothing more than an update, in many cases quite poorly done, of the problematic photographic recognitions. The hypothetical-deductive method and the bibliographical research technique were used.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus

Opciones de compartir

Opciones de entorno