Logroño, España
Esta investigación, la cual parte de anteriores estudios investiga en la misma línea los sesgos atribucionales en los modelos de IA Dall-E 3 y ChatGPT de OpenAI, destacando su influencia en la educación y la importancia de comprender estos prejuicios para garantizar un aprendizaje equitativo. Los objetivos principales se centran en examinar la naturaleza y amplitud de los sesgos de género, raciales y profesionales, identificando patrones en las respuestas a solicitudes específicas de imágenes. Esta exploración es crucial, ya que dichos sesgos pueden comprometer seriamente la equidad y la representación en la educación.
La metodología empírica empleada incluyó pruebas controladas y análisis cualitativo y cuantitativo de las imágenes generadas, con más de 100 indicaciones específicas para evaluar la imparcialidad de género. Se descubrió que un 43% de las imágenes generadas reflejaban sesgos de género, indicando una prevalencia significativa de estereotipos y prejuicios en las respuestas del modelo.
Los resultados de este estudio son vitales para el desarrollo de estrategias que mitiguen los sesgos en la IA y promuevan tecnologías más justas y libres de prejuicios, alineadas con los Objetivos de Desarrollo Sostenible, especialmente el ODS 5 sobre igualdad de género y el ODS 10 para reducir las desigualdades. Concluyendo, la investigación resalta la importancia de abordar los sesgos en los sistemas de IA, enfatizando la relevancia de este enfoque en el ámbito educativo para influir positivamente en la formación y desarrollo de los estudiantes universitarios.
This research, building on previous studies in this field, investigates attributional biases in OpenAI's Dall-E 3 and ChatGPT AI models, highlighting their influence on education and the importance of understanding these biases to ensure equitable learning. The main objectives are to examine the nature and extent of gender, racial and professional biases, identifying patterns in responses to specific requests for images. This exploration is crucial because these biases can seriously compromise equity and representation in education.
The empirical methodology used included controlled tests and qualitative and quantitative analysis of the images generated, with more than 100 specific prompts to assess gender impartiality. It was found that 43% of the images generated reflected gender biases, indicating a significant prevalence of stereotypes and prejudices in the model's responses. These findings underscore the need for greater awareness and refinement of AI systems to prevent the perpetuation and amplification of existing biases.
The results of this study are vital for the development of strategies that mitigate biases in AI and promote fairer and more bias-free technologies, aligned with the Sustainable Development Goals, especially SDG 5 on gender equality and SDG 10 to reduce inequalities. In conclusion, the research highlights the importance of addressing biases in AI systems, emphasizing the relevance of this approach in the educational field to positively influence the training and development of university students.
© 2001-2026 Fundación Dialnet · Todos los derechos reservados