Alberto Almagro Sánchez, Raquel Hervás Ballesteros
Los modelos pre-entrenados logran imponentes resultados en prácticamente todas las áreasde la Generación de Lenguaje Natural. Paraello, suelen valerse de voluminosos corpus dedatos para entrenarse y adaptarse a cada tareaconcreta. En este trabajo, nos hemos centradoen la tarea de generar texto para historias de vida, para lo que hemos partido de su similitudcon la generación de biografías. Hemos refinado modelos existentes a través de un corpuspara después comparar los resultados obtenidos por cada uno de ellos, concluyendo cuál esel más adecuado para la tarea.
© 2001-2024 Fundación Dialnet · Todos los derechos reservados