Applying Siamese Hierarchical Attention Neural Networks for multi-document summarization
Por favor, use este identificador para citar o enlazar este ítem:
http://hdl.handle.net/10045/96616
Título: | Applying Siamese Hierarchical Attention Neural Networks for multi-document summarization |
---|---|
Título alternativo: | Aplicando Redes Neuronales Siamesas con Atención Jerárquica para resúmenes multi-documento |
Autor/es: | González, José Angel | Delonca, Julien | Sanchis Arnal, Emilio | García Granada, Fernando | Segarra Soriano, Encarnación |
Palabras clave: | Siamese Hierarchical Attention Neural Networks | Multi-document summarization | Redes Neuronales Siamesas Jerárquico-Atencionales | Resúmenes multi-documento |
Área/s de conocimiento: | Lenguajes y Sistemas Informáticos |
Fecha de publicación: | sep-2019 |
Editor: | Sociedad Española para el Procesamiento del Lenguaje Natural |
Cita bibliográfica: | Procesamiento del Lenguaje Natural. 2019, 63: 111-118. doi:10.26342/2019-63-12 |
Resumen: | In this paper, we present an approach to multi-document summarization based on Siamese Hierarchical Attention Neural Networks. The attention mechanism of Hierarchical Attention Networks, provides a score to each sentence in function of its relevance in the classification process. For the summarization process, only the scores of sentences are used to rank them and select the most salient sentences. In this work we explore the adaptability of this model to the problem of multi-document summarization (typically very long documents where the straightforward application of neural networks tends to fail). The experiments were carried out using the CNN/DailyMail as training corpus, and the DUC-2007 as test corpus. Despite the difference between training set (CNN/DailyMail) and test set (DUC-2007) characteristics, the results show the adequacy of this approach to multi-document summarization. | En este artículo presentamos una aproximación al problema de resumen automático multi-documento, basada en Redes Siamesas Jerárquico-Atencionales. El mecanismo de atención de las redes Jerárquico-Atencionales permite asignar un peso a cada frase en función de su relevancia en el proceso de clasificación. Durante la generación del resumen sólo se tienen en cuenta los pesos asociados a las frases para seleccionar aquellas más relevantes. En este trabajo exploramos la posibilidad de adaptar estos modelos al problema de resumen multi-documento (típicamente documentos muy largos donde la aplicación directa de redes neuronales no se comporta correctamente). Se ha experimentado utlizando el corpus CNN/DailyMail para entrenamiento, y el corpus DUC-2007 para evaluación. A pesar de la heterogeneidad de las características entre el corpus de entrenamiento (CNN/DailyMail) y el corpus de test (DUC-2007), los resultados muestran la adecuación de esta propuesta al resumen multi-documento. |
Patrocinador/es: | This work has been partially supported by the Spanish MINECO and FEDER founds under project AMIC (TIN2017-85854-C4-2-R). Work of José-Ángel González is also financed by Universitat Politècnica de València under grant PAID-01-17. |
URI: | http://hdl.handle.net/10045/96616 |
ISSN: | 1135-5948 |
DOI: | 10.26342/2019-63-12 |
Idioma: | eng |
Tipo: | info:eu-repo/semantics/article |
Derechos: | © Sociedad Española para el Procesamiento del Lenguaje Natural |
Revisión científica: | si |
Versión del editor: | https://doi.org/10.26342/2019-63-12 |
Aparece en las colecciones: | Procesamiento del Lenguaje Natural - Nº 63 (2019) |
Archivos en este ítem:
Archivo | Descripción | Tamaño | Formato | |
---|---|---|---|---|
PLN_63_12.pdf | 961,05 kB | Adobe PDF | Abrir Vista previa | |
Todos los documentos en RUA están protegidos por derechos de autor. Algunos derechos reservados.