Ayuda
Ir al contenido

Dialnet


G-Rubric: una aplicación para corrección automática de preguntas abiertas. Primer balance de su utilización

  • Autores: Mauro Hernández Benítez, Miguel Santamaría Lancho
  • Localización: Nuevas perspectivas en la investigación docente de la historia económica / Miguel Ángel Bringas Gutiérrez (ed. lit.), Elena Catalán Martínez (ed. lit.), Carmen Trueba Salas (ed. lit.), Lorena Remuzgo Pérez (ed. lit.), 2016, ISBN 978-84-8102-785-3, págs. 473-494
  • Idioma: español
  • Títulos paralelos:
    • G-Rubric: an application for automatic assessment of free text questions: first outcome analysis
  • Texto completo no disponible (Saber más ...)
  • Resumen
    • español

      Evaluar de forma consistente las preguntas de respuesta libre resulta más difícil de lo damos por hecho. La evidencia resultantes de la experiencia de calificar/evaluar un elevado número de exámenes en la UNED hace aflorar alguna de estas dificultades. Frente a ellas, la alternativa más obvia es evaluar mediante preguntas �objetivas� de tipo test. Pero para los autores, esta alternativa resulta insuficiente para fomentar el desarrollo de aptitudes para la expresión y el análisis escrito complejo.

      Por ello, nos animamos a tratar de abordar esta contradicción G-Rubric, una herramienta de evaluación automática basada en LSA desarrollada en el departamento de Psicología Evolutiva y de la Educación en la. En el curso 2014/2015 comenzamos las pruebas, que permiten facilitar a los estudiantes feedback formativo cuando éstos responden, a través de una aplicación web, a preguntas abiertas. Así, el estudiante puede mejorar sus respuestas y sobre todo practicar la expresión escrita, lo que ayuda tanto a organizar sus ideas como a apropiarse de los conocimientos.

      La aplicación se basa en el procesamiento de lenguaje natural. Su utilización requiere la creación de un corpus semántico propio de la asignatura, para la cual hemos empleado seis manuales de Historia Económica obra de profesores españoles. Lo que se presenta aquí son los alentadores resultados de los primeros ensayos con esta herramienta, en los cursos 2014/15 y 2015/16, con estudiantes del grado de ADE en la UNED.

    • English

      Consistent assessing of free-text answers is harder than we usually tend to assume. Evidence from assessing/grading big numbers of final tests at Spain�s UNED (Open University) reveals some of these difficulties. Using multiple choice �objective� assessment appears an obvious alternative. But the authors this


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus

Opciones de compartir

Opciones de entorno