Ayuda
Ir al contenido

Dialnet


Marc per aplicar sistemàticament l'ètica humanista quan s'utilitza la IA com a material de disseny

    1. [1] Palo Alto Research Center

      Palo Alto Research Center

      Estados Unidos

  • Localización: Temes de Disseny: nueva etapa, ISSN-e 2604-6032, ISSN 2604-9155, Nº. 35, 2019 (Ejemplar dedicado a: Intel·ligència Artificial i Tecnologies Digitals Emergents com a Material de Disseny), págs. 178-197
  • Idioma: catalán
  • Títulos paralelos:
    • A framework for systematically applying humanistic ethics when using AI as a design material
    • Marco para aplicar sistemáticamente la ética humanista cuando se utiliza la IA como material de diseño
  • Enlaces
  • Resumen
    • español

      Los sistemas de aprendizaje automático y de IA adquieren cada vez más capacidades y se utilizan en más ámbitos. Y nosotros, en cuanto diseñadores, creadores e investigadores, debemos tener en cuenta tanto las implicaciones positivas como las negativas de su uso. A la luz de lo antedicho, los investigadores del Palo Alto Research Center (PARC) reconocen que no se puede bajar la guardia ante el daño que puede provocar la inteligencia artificial en forma de discriminación intencionada o inadvertida, trato injusto o lesiones que se pueden infligir a personas o grupos de personas. Puesto que los procesos de decisión autónomos y respaldados por IA podrían comportar efectos personales, sociales y medioambientales negativos generalizados, nos proponemos adoptar una postura proactiva de defensa de los derechos humanos, de respeto de la intimidad de los individuos, de protección de la información personal y de fomento de la libertad de expresión y de la igualdad. La tecnología no es neutral por naturaleza y refleja las decisiones y las concesiones de los diseñadores, los investigadores y los ingenieros al crearla y utilizarla en su trabajo. Los conjuntos de datos a menudo reflejan distorsiones históricas. Las tecnologías de IA que contratan a personas, evalúan su rendimiento laboral, proporcionan atención sanitaria e imponen multas son ejemplos evidentes de posibles ámbitos en los que se pueden producir errores sistemáticos en los algoritmos que den lugar a un trato injusto. Casi toda la tecnología incluye concesiones y encarna los valores y los juicios de las personas que la han creado. Por eso es imprescindible que los investigadores sean conscientes de los juicios de valor que hacen y que sean claros al respecto con todas las partes implicadas.

    • català

      Els sistemes d'aprenentatge automàtic i d'IA cada vegada adquireixen més capacitats i s'utilitzen en més àmbits. I nosaltres, com a dissenyadors, creadors i investigadors, hem de tenir en compte les implicacions del seu ús, tant les positives com les negatives. En vista del que acabem d'exposar, els investigadors del Palo Alto Research Center (PARC) reconeixen que no es pot abaixar la guàrdia davant el dany que la intel·ligència artificial pot provocar en forma de discriminació intencionada o inadvertida, tracte injust o lesions que es poden infligir a persones o grups de persones. Com que els processos de decisió autònoms i emparats per IA podrien comportar efectes personals, socials i mediambientals negatius generalitzats, ens proposem adoptar una posició proactiva de defensa dels drets humans, de respecte de la intimitat dels individus, de protecció de la informació personal i de foment de la llibertat d'expressió i de la igualtat. La tecnologia no és neutral per naturalesa i reflecteix les decisions i les concessions dels dissenyadors, els investigadors i els enginyers que la creen i la utilitzen en la seva feina. Els conjunts de dades sovint reflecteixen distorsions històriques. Les tecnologies d'IA que contracten persones, n’avaluen el rendiment laboral, proporcionen atenció sanitària i imposen multes són exemples evidents de possibles àmbits en què es poden produir errors sistemàtics en els algoritmes que donin lloc a un tracte injust. Gairebé tota la tecnologia inclou concessions i encarna els valors i els judicis de les persones que l'han creat. Per això és imprescindible que els investigadors siguin conscients dels judicis de valor que fan i que siguin clars pel que fa al cas amb totes les parts implicades.

    • English

      As machine learning and AI systems gain greater capabilities and are deployed more widely, we – as designers, developers, and researchers – must consider both the positive and negative implications of their use. In light of this, PARC’s researchers recognize the need to be vigilant against the potential for harm caused by artificial intelligence through intentional or inadvertent discrimination, unjust treatment, or physical danger that might occur against individuals or groups of people. Because AI-supported and autonomous decision making has the potential for widespread negative personal, social, and environmental effects, we aim to take a proactive stance to uphold human rights, respect individuals’ privacy, protect personal data, and enable freedom of expression and equality. Technology is not inherently neutral and reflects decisions and trade-offs made by the designers, researchers, and engineers developing it and using it in their work. Datasets often reflect historical biases. AI technologies that hire people, evaluate their job performance, deliver their healthcare, and mete out penalties are obvious examples of possible areas for systematic algorithmic errors that result in unfair or unjust treatment. Because nearly all technology includes trade-offs and embodies the values and judgments of the people creating it, it is imperative that researchers are aware of the value judgments they make and are transparent about them with all stakeholders involved.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus

Opciones de compartir

Opciones de entorno