Ayuda
Ir al contenido

Dialnet


¿Puede la inteligencia artificial proporcionar un feedback más sostenible?

  • Autores: Eloi Puertas Prat, Elena Cano García
  • Localización: Digital Education Review, ISSN-e 2013-9144, Nº. 45, 2024, págs. 50-58
  • Idioma: español
  • Títulos paralelos:
    • Can Artificial Intelligence help provide more sustainable feed-back?
    • Pot la Intel·ligència Artificial proporcionar un feedback més sostenible?
  • Enlaces
  • Resumen
    • español

      La evaluación entre pares es una estrategia mediante la cual los estudiantes evalúan el nivel, valor o calidad del trabajo desus compañeros dentro del mismo entorno educativo. La investigación ha demostrado que los procesos de evaluación entre pares impactan positivamente en el desarrollo de habilidades y el rendimiento académico. Al aplicar criterios de evaluación al trabajo de sus compañeros yofrecer comentarios, correcciones y sugerencias para mejorar, los estudiantes no solo mejoran su propio trabajo,sino que también cultivan habilidades de pensamiento crítico. Para nutrir eficazmente el papel de los estudiantes como evaluadores, son esenciales oportunidades deliberadas y estructuradas para practicar, junto con capacitación y orientación. La inteligencia artificial puede ofrecer un medio para evaluar automáticamente las evaluaciones entre pares, asegurando su calidad y ayudando a los estudiantes a realizar evaluaciones con precisión. Este enfoque permite a los educadores centrarse en evaluar las producciones de los estudiantes sin necesidad de una formación especializada en evaluación de retroalimentación. Este documento presenta el proceso desarrollado para automatizar la evaluación de la calidad de la retroalimentación. A través de la utilización de fragmentos de retroalimentación evaluados por investigadores basados en criterios preestablecidos, se entrenó un Modelo de Lenguaje Masivo (LLM) de Inteligencia Artificial para lograr la evaluaciónautomatizada. Se discuten los desafíos y perspectivas de este proceso, junto con recomendaciones para optimizar los resultados

    • català

      L'avaluació entre iguals és una estratègia mitjançant la qual els estudiants avaluen el nivell, valor o qualitat del treball dels seus companys dins del mateix entorn educatiu. La recerca ha demostrat que els processos d'avaluació entre iguals impacten positivament en el desenvolupament de habilitats i el rendiment acadèmic. En aplicar criteris d'avaluació al treball dels seus companys i oferir comentaris, correccions i suggeriments per millorar, els estudiants no només milloren el seu propi treball, sinó que també cultiven habilitats de pensament crític. Per a alimentar eficaçment el paper dels estudiants com a avaluadors, són essencials oportunitats deliberades i estructurades per practicar, juntament amb formació i orientació.

      La intel·ligència artificial pot oferir un mitjà per avaluar automàticament les avaluacions entre iguals, assegurant-ne la qualitat i ajudant els estudiants a realitzar avaluacions amb precisió. Aquest enfocament permet als educadors centrar-se en avaluar les produccions dels estudiants sense necessitat d'una formació especialitzada en avaluació de retroalimentació.

      Aquest document presenta el procés desenvolupat per automatitzar l'avaluació de la qualitat de la retroalimentació. A través de l'utilització de fragments de retroalimentació avaluats per investigadors basats en criteris preestablerts, es va entrenar un Model de Llenguatge Massiu (LLM) d'Intel·ligència Artificial per aconseguir l'avaluació automatitzada. Les troballes mostren la similitud entre l'avaluació humana i l'avaluació automatitzada, cosa que permet generar expectatives respecte a les possibilitats de lA per a aquesta finalitat. Es discuteixen els reptes i perspectives d'aquest procés, juntament amb recomanacions per optimitzar els resultats.

    • English

      Peer assessment is a strategy wherein students evaluate the level, value, or quality of their peers' work within the same educational setting. Research has demonstrated that peer evaluation processes positively impact skill development and academic performance. By applying evaluation criteria to their peers' work and offering comments, corrections, and suggestions for improvement, students not only enhance their own work but also cultivate critical thinking skills. To effectively nurture students' role as evaluators, deliberate and structured opportunities for practice, along with training and guidance, are essential.

      Artificial Intelligence (AI) can offer a means to assess peer evaluations automatically, ensuring their quality and assisting students in executing assessments with precision. This approach allows educators to focus on evaluating student productions without necessitating specialized training in feedback evaluation.

      This paper presents the process developed to automate the assessment of feedback quality. Through the utilization of feedback fragments evaluated by researchers based on pre-established criteria, an Artificial Intelligence (AI) Large Language Model (LM) was trained to achieve automated evaluation. The findings show the similarity between human evaluation and automated evaluation, which allows expectations to be generated regarding the possibilities of AI for this purpose. The challenges and prospects of this process are discussed, along with recommendations for optimizing results.

      Artificial intelligence can offer a means to assess peer evaluations automatically, ensuring their quality and assisting students in executing assessments with precision. This approach allows educators to focus on evaluating student productions without necessitating specialized training in feedback evaluation.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus

Opciones de compartir

Opciones de entorno