[2]
;
Gaytán-Lugo, Laura S.
[1]
México
Este artículo explora el uso de la Inteligencia Artificial Generativa, específicamente los Grandes Modelos de Lenguaje (LLM), para analizar respuestas abiertas en evaluaciones del desempeño docente. Aunque los LLM ofrecen capacidades avanzadas para interpretar y clasificar datos textuales, su tendencia a generar "alucinaciones" plantea desafíos en contextos donde la precisión es crucial. Para mitigar estos riesgos, se presentan tres enfoques: los LLM de dominio específico, entrenados con datos educativos para mejorar su relevancia; los Pequeños Modelos de Lenguaje (SLM), modelos más ligeros que optimizan la eficiencia y reducen la posibilidad de errores; y el uso de modelos en la nube con entrenamiento few-shot, que permiten ajustes rápidos mediante ejemplos representativos, aunque con implicaciones en privacidad y protección de datos. Finalmente, se describen los beneficios de estas herramientas para las instituciones educativas, incluyendo la mejora en la toma de decisiones, la accesibilidad tecnológica y la sostenibilidad ecológica.
This work explores using Generative Artificial Intelligence, specifically Large Language Models (LLM), to analyze open-ended responses in teacher performance assessments. Although LLM offers advanced capabilities for interpreting and classifying textual data, their tendency to generate "hallucinations" presents challenges in contexts where precision is crucial. Three approaches are presented to mitigate these risks: domain-specific LLMs, fine-tuned with educational data to enhance their relevance; Small Language Models (SLM), lighter models designed to optimize efficiency and reduce errors; and cloud-based models using few-shot learning, which allow rapid adaptation with representative examples but pose privacy concerns when processing sensitive educational data. Finally, the benefits of these tools for academic institutions are discussed, including improved decision-making, technological accessibility, and ecological sustainability.
© 2001-2026 Fundación Dialnet · Todos los derechos reservados