México
Santiago, Chile
En el presente artículo se analizan las implicaciones pedagógicas de la Inteligencia Artificial Generativa (IAG) en la planificación curricular, con especial atención al fenómeno de las alucinaciones, definidas como contenido aparentemente plausible pero factualmente incorrecto. Mediante una revisión sistemática de literatura científica comprendida entre (2020-2025) en bases de datos especializadas como Scopus, Webof Science, ScienceDirect y otras, donde se examina la intersección entre la IAG, representada principalmente por Modelos de Lenguaje de Gran Tamaño (LLMs) por sus siglas en inglés, como GPT-4.5, Claude Sonnet 3.7, Gemini Advanced, entre otros y los procesos de diseño curricular orientados por el Ministerio de Educación Nacional (MEN)de Colombia. Como resultado de este análisis sistemático, los hallazgos evidencian que, si bien la IAG presenta oportunidades significativas para optimizar tareas educativas como la planificación curricular, la generación de materiales didácticos y evaluaciones, las alucinaciones constituyen un riesgo considerable a tener en cuenta. Estas pueden clasificarse en alucinaciones de factualidad entendidas como discrepancias con hechos verificables y alucinaciones de fidelidad que hacen referencia a desviaciones de las instrucciones dadas o falta de coherencia interna, ambas con potencial para comprometer componentes esenciales de la planificación curricular como los objetivos de aprendizaje, contenidos y evaluación. Los resultados sugieren que para aprovechar eficazmente la IAG en entornos educativos se requiere desarrollar competencias específicas de alfabetización digital en los docentes, implementar protocolos institucionales de verificación de información y establecer estrategias de triangulación con fuentes académicas confiables. Este enfoque reflexivo permitirá balancear la innovación tecnológica con la preservación de la calidad educativa, aprovechando las ventajas de personalización y eficiencia que ofrece la IAG mientras se mitigan los riesgos asociados a las alucinaciones
This article analyzes the pedagogical implications of Generative Artificial Intelligence (GAI) in curriculum planning, with special attention to the phenomenon of hallucinations, defined as seemingly plausible but factually incorrect content. Through a systematic review of scientific literature from 2020-2025 in specialized databases such as Scopus, Web of Science, ScienceDirect, and others, the intersection between GAI, primarily represented by Large Language Model (LLMs) such as GPT-4.5, Claude Sonnet 3.7, Gemini Advanced, among others, and curriculum design processes guided by Colombia's Ministry of National Education (MEN) is examined. This literature review shows that, while GAI presents significant opportunities to optimize educational tasks such as curriculum planning, the generation of teaching materials, and assessments, hallucinations constitute a considerable risk to take into account. These can be classified into factuality hallucinations, understood as discrepancies with verifiable facts, and fidelity hallucinations, which refer to deviations from given instructions or lack of internal coherence, both with the potential to compromise essential components of curriculum planning such as learning objectives, content, and assessment. The results suggest that to effectively leverage GAI in educational environments, it is necessary to develop specific digital literacy competencies in teachers, implement institutional information verification protocols, and establish triangulation strategies with reliable academic sources. This reflective approach will allow balancing technological innovation with the preservation of educational quality, taking advantage of the personalization and efficiency benefits offered by GAI while mitigating the risks associated with hallucinations
© 2001-2026 Fundación Dialnet · Todos los derechos reservados