Ayuda
Ir al contenido

Dialnet


Resumen de Inteligencia artificial y sesgos. El caso de la predicción del embarazo adolescente en Salta

Karina Pedace, Tobías Joaquín Schleider, Tomás Balmaceda

  • español

    Frente a la retórica instalada en clave de una inteligencia artificial (IA) eficiente y libre de prejuicios, nuestra propuesta en este artículo es argumentar por qué esta visión tan popular de la IA es inadecuada y examinar algunas de sus derivas en el trazado de políticas públicas. En primera instancia, argumentaremos que es imposible –por principio– plantear una IA valorativamente neutra, a partir de lo señalado por algunos aportes filosóficos tanto canónicos como contemporáneos. En la segunda sección analizaremos un caso que ilustra de modo diáfano la carga valorativa que gravita en la IA. Esto nos llevará a indagar, en la tercera sección, los diferentes niveles en los cuales los sesgos pueden tener injerencia en la IA. Nuestro objetivo central es explicitar la paradoja consistente en cómo la aplicación de IA en políticas públicas y en la toma de decisiones en ámbitos privados, lejos de ser una herramienta para combatir desigualdades estructurales, termina consolidando escenarios perjudiciales para poblaciones vulnerables.

  • English

    Faced with the rhetoric of an efficient and free of prejudice artificial intelligence (AI), this article discusses why this popular vision is inadequate and examines some of its shifts in the design of public policies. Firstly, we argue that it is impossible –in principle– to propose a value-neutral AI, based on what has been indicated by some canonical and contemporary philosophical contributions. In the second section we analyze a case that clearly illustrates the value burden that gravitates on AI. This will lead us to investigate, in the third section, the different levels at which biases can have an influence on AI. Our main objective is to unveil the paradox related to how the application of AI in public policies and private spheres, far from being a tool to combat structural inequalities, ends up consolidating harmful scenarios for vulnerable populations.

  • português

    Diante da retórica instalada em busca de uma inteligência artificial (IA) eficiente e livre de preconceitos, nossa proposta neste artigo é argumentar por qual motivo é inadequada essa visão tão popular da IA. Além disso, examinaremos alguns de seus desvios na elaboração de políticas públicas. Em um primeiro momento, argumentaremos que é impossível –por princípio– propor uma IA valorativamente neutra, com base no que foi indicado por algumas contribuições filosóficas tanto canônicas como contemporâneas. Na segunda parte, analisaremos um caso que ilustra de modo diáfano a carga de valor que gravita na IA. Isso nos levará a investigar, na terceira parte, os diferentes níveis nos quais os diversos vieses podem influenciar a IA. Nosso objetivo central é explicitar o seguinte paradoxo: a aplicação da IA nas políticas públicas e na tomada de decisões na esfera privada, longe de ser uma ferramenta de combate às desigualdades estruturais, acaba consolidando cenários prejudiciais para as populações vulneráveis.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus