Percepción del profesorado universitario sobre la calidad de las tareas de evaluación de los resultados de aprendizaje

Autores/as

  • María Soledad Ibarra-Sáiz Cátedra UNESCO en Evaluación, Innovación y Excelencia en Educación. Grupo de investigación EVALfor. Universidad de Cádiz. España https://orcid.org/0000-0003-4513-702X
  • José-Francisco Lukas-Mujika Universidad del País Vasco/Euskal Herriko Unibertsitatea https://orcid.org/0000-0002-9440-035X
  • Nicolás Ponce-González Cátedra UNESCO en Evaluación, Innovación y Excelencia en Educación. Grupo de investigación EVALfor. Universidad de Cádiz. España https://orcid.org/0000-0003-1336-6303
  • Gregorio Rodríguez-Gómez Cátedra UNESCO en Evaluación, Innovación y Excelencia en Educación. Grupo de investigación EVALfor. Universidad de Cádiz. España https://orcid.org/0000-0001-9337-1270

DOI:

https://doi.org/10.30827/relieve.v29i1.27404

Palabras clave:

Evaluación, Aprendizaje, Educación Superior

Resumen

Evaluar la consecución de los resultados de aprendizaje exige un alineamiento constructivo entre enseñanza, evaluación y aprendizaje, en el que se destaca la importancia del diseño de tareas de evaluación que cumplan con las condiciones de calidad suficientes para que sean potenciadoras del aprendizaje del estudiante. Este estudio se ha realizado con la finalidad de analizar la percepción que tiene el profesorado universitario de las características de las tareas de evaluación que diseña en su práctica evaluativa. El estudio ha seguido una metodología mixta (diseño secuencial exploratorio) utilizando el cuestionario RAPEVA-Autoinforme del profesorado sobre su práctica en la evaluación de resultados de aprendizaje. Se ha recabado la opinión de 416 profesores de seis universidades públicas de diferentes comunidades autónomas españolas. La transparencia, a través de la información que se facilita a los estudiantes y la profundidad de las tareas son los dos aspectos más destacados por el profesorado. En cambio, la retroalimentación o la participación del estudiantado en los procesos de evaluación son aspectos menos considerados por parte del profesorado. De destacar las diferencias de percepción detectadas en función de la universidad, el ámbito de conocimiento y el grado de seguridad y satisfacción con el sistema de evaluación. En consonancia con los resultados, se ofrecen futuras líneas de investigación que favorezcan una mayor comprensión de las prácticas evaluativas en educación superior.

Descargas

Los datos de descargas todavía no están disponibles.

Biografía del autor/a

María Soledad Ibarra-Sáiz, Cátedra UNESCO en Evaluación, Innovación y Excelencia en Educación. Grupo de investigación EVALfor. Universidad de Cádiz. España

Profesora Titular de Universidad en el Área de Métodos de Investigación y Diagnóstico en Educación de la Universidad de Cádiz. Directora de la Cátedra UNESCO en Evaluación, Innovación y Excelencia en Educación. Directora del Grupo de Investigación EVALfor-SEJ509 – Evaluación en contextos formativos del Plan Andaluz de Investigación, Desarrollo e Innovación (PAIDI). Desarrolla su investigación principalmente en el ámbito de la evaluación en educación superior. Ha sido investigadora principal de más de diez proyectos europeo, internacionales y nacionales cuyos resultados han sido publicados en diversos artículos, capítulos de libros y contribuciones a congresos internacionales. Actualmente es coinvestigadora principal del Proyecto ValeFLOASS – Valorización del entorno e-FLOASS para el seguimiento y evaluación de los resultados de aprendizaje en el sistema educativo (PDC2022-13305-I00) en el que participan nueve universidades españolas.

José-Francisco Lukas-Mujika, Universidad del País Vasco/Euskal Herriko Unibertsitatea

Profesor Titular de Universidad en Evaluación en Educación, Universidad del País Vasco. Facultad de Educación, Filosofía y Antropología. Departamento de Ciencias de la Educación. Especialista en Evaluación en Educación con especial dedicación a temas relacionados con la evaluación de programas y centros educativos y la construcción de instrumentos de medida. Director Adjunto del Instituto de Ciencias de la Educación de la Universidad del País Vasco (1997-2000). Director del Departamento de Métodos de Investigación y Diagnóstico en Educación de la Universidad del País Vasco (2003-2009). Miembro del Comité Científico del Instituto Vasco de Evaluación e Investigación Educativa no universitaria (ISEI-IVEI). Evaluador en distintas agencias de evaluación y acreditación (ANECA, DEVA, ACSUCYL). Autor de artículos, libros, capítulos de libro y aportaciones en conferencias internacionales

Nicolás Ponce-González, Cátedra UNESCO en Evaluación, Innovación y Excelencia en Educación. Grupo de investigación EVALfor. Universidad de Cádiz. España

Doctor en Ciencias de la Educación por la Universidad de Granada. Profesor Sustituto

Interino en el Área de Métodos de Investigación y Diagnóstico en Educación, Universidad de Cádiz. Forma parte del equipo de trabajo de la Cátedra UNESCO en Evaluación, Innovación y Excelencia en Educación.  Ha participado en proyectos de investigación a nivel autonómico, nacional e Internacional. Actualmente es miembro del equipo de trabajo del Proyecto ValeFLOASS – Valorización del entorno e-FLOASS para el seguimiento y evaluación de los resultados de aprendizaje en el sistema educativo (PDC2022-133050-I00). Miembro del Grupo de Investigación EVALfor-SEJ509 - Evaluación en contextos formativos. Sus principales líneas de investigación son formación para el desarrollo de competencias, evaluación de programas de intervención en Inteligencia Emocional y Evaluación en Educación Superior. Coautor de varias publicaciones de artículos, capítulos de libro, y comunicaciones a congresos nacionales e internacionales.

Gregorio Rodríguez-Gómez, Cátedra UNESCO en Evaluación, Innovación y Excelencia en Educación. Grupo de investigación EVALfor. Universidad de Cádiz. España

Catedrático de Universidad de Métodos de Investigación y Diagnóstico en Educación de la Universidad de Cádiz.Es coordinador del área estratégica "Estudios e investigaciones en evaluación" de la Cátedra UNESCO en Evaluación, Innovación y Excelencia en Educación. Miembro fundador del Grupo de Investigación EVALfor-SEJ509 - Evaluación en contextos formativos. Sus intereses de investigación se centran en la metodología de investigación y en la evaluación en educación superior. Actualmente es coinvestigador principal del Proyecto ValeFLOASS – Valorización del entorno e-FLOASS para el seguimiento y evaluación de los resultados de aprendizaje en el sistema educativo (PDC2022-133050-I00) en el que participan nueve universidades españolas. Autor de artículos, capítulos de libro y aportaciones en conferencias internacionales. Ha sido presidente de la Asociación Interuniversitaria de Investigación Pedagógica (AIDIPE) y de la Red Estatal de Docencia Universitaria RED-U.

Citas

Anderson, M. J. (2017). Permutational Multivariate Analysis of Variance (PERMANOVA). Wiley StatsRef: Statistics Reference Online, 1–15. https://doi.org/10.1002/9781118445112.stat07841

Bearman, M., Dawson, P., Boud, D., Bennett, S., Hall, M., & Molloy, E. (2016). Support for assessment practice: developing the Assessment Design Decisions Framework. Teaching in Higher Education, 21(5), 545–556. https://doi.org/10.1080/13562517.2016.1160217

Bearman, M., Dawson, P., Boud, D., Hall, M., Bennett, S., Molloy, E., & Joughin, G. (2014). Guide to the assessment design decisions framework. http://www.assessmentdecisions.org/guide/

Biggs, J., & Tang, C. (2011). Teaching for quality learning at university. What the students does (4th ed.). McGraw-Hill-SRHE & Open University Press.

Boud, D. (2020). Challenges in reforming higher education assessment: a perspective from afar. RELIEVE, 26(1), art. M3. https://doi.org/10.7203/relieve.26.1.17088

Boud, D. (2022). Assessment-as-learning for the development of students’ evaluative judgement. In Z. Yan & L. Yang (Eds.), Assessment as Learning. Maximising Opportunities for Student Learning and Achievement (pp. 25–37). Routledge. https://doi.org/10.4324/9781003052081-3

Boud, D., & Dawson, P. (2021). What feedback literate teachers do: an empirically-derived competency framework. Assessment & Evaluation in Higher Education, April, 1–14. https://doi.org/10.1080/02602938.2021.1910928

Carless, D. (2015). Exploring learning-oriented assessment processes. Higher Education, 69(6), 963–976. https://doi.org/10.1007/s10734-014-9816-z

Carless, D. (2022). From teacher transmission of information to student feedback literacy: Activating the learner role in feedback processes. Active Learning in Higher Education, 23(2), 143–153. https://doi.org/10.1177/1469787420945845

Carless, D., & Boud, D. (2018). The development of student feedback literacy: enabling uptake of feedback. Assessment & Evaluation in Higher Education, 43(8), 1315–1325. https://doi.org/10.1080/02602938.2018.1463354

Carless, D., & Winstone, N. (2020). Teacher feedback literacy and its interplay with student feedback literacy. Teaching in Higher Education, 1–14. https://doi.org/10.1080/13562517.2020.1782372

DeLuca, C., & Johnson, S. (2017). Developing assessment capable teachers in this age of accountability. Assessment in Education: Principles, Policy and Practice, 24(2), 121–126. https://doi.org/10.1080/0969594X.2017.1297010

Falchikov, N. (2005). Improving assessment through student involvement. Practical solutions for aiding learning in higher education and further education. RoutledgeFalmer.

Falchikov, N., & Goldfinch, J. (2000). Student peer assessment in higher education: A Meta-analysis comparing peer and teacher marks. Review of Educational Research, 70(3), 287-322. https://doi.org/10.3102/00346543070003287

Gómez-Ruiz, M. Á., Ibarra-Sáiz, M. S., & Rodríguez-Gómez, G. (2020). Aprender a evaluar mediante juegos de simulación en educación superior: percepciones y posibilidades de transferencia para los estudiantes. Revista Iberoamericana de Evaluación Educativa, 13(1), 157–181. https://doi.org/10.15366/riee2020.13.1.007

Hair, J. F., Hult, G. T. M., Ringle, C. M., & Sarstedt, M. (2022). A primer on partial Least squares structural equation modeling (PLS-SEM) (3rd ed.). Sage. https://doi.org/10.1007/978-3-030-80519-7

Henderson, M., Boud, D., Molloy, E., Dawson, P., Phillips, M., Ryan, T., & Mahoney, P. (2018). Feedback for learning: Closing the assessment loop. Department of Education and Training. https://nla.gov.au/nla.obj-719788718/view

Henseler, J. (2021). Composite-based structural equation modeling. Analyzing latent and emergent variables. Guilford Press.

Hortigüela Alcalá, D., Palacios Picos, D., & López Pastor, V. (2019). The impact of formative and shared or co-assessment on the adquisition of transversal competences in higher education. Assessment & Evaluation in Higher Education, 44(6), 933–945. https://doi.org/10.1080/02602938.2018.15 30341

Ibarra-Sáiz, M. S., & Rodríguez-Gómez, G. (2020). Evaluando la evaluación. Validación mediante PLS-SEM de la escala ATAE para el análisis de las tareas de evaluación. RELIEVE, 26(1), art. M4. https://doi.org/10.7203/relieve.26.1.17403

Ibarra-Sáiz, M.S., & Rodríguez-Gómez, G. (2017). EvalCOMIX®: A web-based programme to support collaboration in assessment. In T. Issa, P. Kommers, T. Issa, P. Isaías, & T. B. Issa (Eds.), Smart technology applications in business environments (pp. 249–275). IGI Global. https://doi.org/10.4018/978-1-5225-2492-2.ch012

Ibarra-Sáiz, M.S., Rodríguez-Gómez, G., & Boud, D. (2021). The quality of assessment tasks as a determinant of learning. Assessment & Evaluation in Higher Education, 46(6), 943–955. https://doi.org/10.1080/02602938.2020.1828268

Ibarra-Sáiz, M.S., Rodríguez-Gómez, G., Lukas-Mujika, J.F., & Santos-Berrondo, A. (2023). Medios e instrumentos para evaluar los resultados de aprendizaje en másteres universitarios. Análisis de la percepción del profesorado sobre su práctica evaluativa. Educación XX1, 26(1), 21-45. https://doi.org/10.5944/educxx1.33443

JASP Team. (2022). JASP (Version 0.16.1). https://jasp-stats.org/

Johnson, R. L., & Morgan, G. B. (2016). Survey scales. A guide to development, analysis, and reporting. The Guilford Press.

Lipnevich, A. A., & Panadero, E. (2021). A Review of Feedback Models and Theories: Descriptions, Definitions, and Conclusions. Frontiers in Education, 6(December). https://doi.org/10.3389/feduc.2021.720195

Lo, Y. Y., & Leung, C. (2022). Conceptualising assessment literacy of teachers in content and language integrated learning programmes. International Journal of Bilingual Education and Bilingualism, 1–19. https://doi.org/10.1080/13670050.2022.2085028

López Gil, M., Gómez Ruiz, M. Á., Vázquez Recio, R., & Ruiz Romero, A. (2022). La pesadilla de la evaluación: Análisis de los sueños de estudiantes universitarios. Revista Iberoamericana de Evaluación Educativa, 15(1), 139–159. https://doi.org/10.15366/riee2022.15.1.008

Mehrabi Boshrabadi, A., & Hosseini, M. R. (2021). Designing collaborative problem solving assessment tasks in engineering: an evaluative judgement perspective. Assessment & Evaluation in Higher Education, 46(6), 913–927. https://doi.org/10.1080/02602938.2020.1836122

Panadero, E., & Alqassab, M. (2019). An empirical review of anonymity effects in peer assessment, peer feedback, peer review, peer evaluation and peer grading. Assessment & Evaluation in Higher Education, 44(8), 1253–1278. https://doi.org/10.1080/02602938.2019.1600186

Panadero, E., Fraile, J., & García-Pérez, D. (2022). Transición a educación superior y evaluación: un estudio longitudinal anual. Educación XX1, 25(2), 15–37. https://revistas.uned.es/index.php/educacionXX1/article/view/29870

Panadero, E., Jonsson, A., & Botella, J. (2017). Effects of self-assessment on self-regulated learning and self- efficacy: Four meta-analyses. Educational Research Review, 22, 74–98. https://doi.org/10.1016/j.edurev.2017.08.004

Quesada-Serra, V., Gómez Ruiz, M. A., Gallego Noche, M. B., & Cubero-Ibáñez, J. (2019). Should I use co-assessment in higher education? Pros and cons from teachers and students’ perspectives. Assessment & Evaluation in Higher Education, 44(7), 987-1002. https://doi.org/10.1080/02602938.2018.1531970

R Core Team. (2021). R: A language and environment for statistical computing. R Foundation for Statistical Computing. https://www.r-project.org/

Rodríguez-Gómez, G., & Ibarra-Sáiz, M. S. (2015). Assessment as learning and empowerment: Towards sustainable learning in higher education. In M. Peris-Ortiz & J. M. Merigó Lindahl (Eds.), Sustainable learning in higher education. Developing competencies for the global marketplace (pp. 1–20). Springer International Publishing. https://doi.org/10.1007/978-3-319-10804-9_1

Rodríguez-Gómez, G., & Ibarra-Sáiz, M. S. (2016). Towards sustainable assessment: ICT as a facilitator of self- and peer assessment. In M. Peris-Ortiz, J. A. Gómez, F. Vélez-Torres, & C. Rueda-Armengot (Eds.), Education tools for entrepreneurship (pp. 55–71). Springer International Publishing. https://doi.org/10.1007/978-3-319-24657-4_5

Sambell, K., McDowell, L., & Montgomery, C. (2013). Assessment for Learning in Higher Education. Routledge. https://doi.org/10.4324/9780203818268

Tai, J., Ajjawi, R., Boud, D., Dawson, P., & Panadero, E. (2018). Developing evaluative judgement: enabling students to make decisions about the quality of work. Higher Education, 76(3), 467–481. https://doi.org/10.1007/s10734-017-0220-3

Yan, Z., & Boud, D. (2022). Conceptualising assessment-as-learning. In Z. Yan & L. Yang (Eds.), Assessment as learning. Maximising opportunities for student learning and achievement (pp. 11–24). Routledge. https://doi.org/10.4324/9781003052081-2

Publicado

2023-06-29

Cómo citar

Ibarra-Sáiz, M. S., Lukas-Mujika, J.-F., Ponce-González, N., & Rodríguez-Gómez, G. (2023). Percepción del profesorado universitario sobre la calidad de las tareas de evaluación de los resultados de aprendizaje. RELIEVE - Revista Electrónica De Investigación Y Evaluación Educativa, 29(1). https://doi.org/10.30827/relieve.v29i1.27404