Applying Siamese Hierarchical Attention Neural Networks for multi-document summarization

Por favor, use este identificador para citar o enlazar este ítem: http://hdl.handle.net/10045/96616
Información del item - Informació de l'item - Item information
Título: Applying Siamese Hierarchical Attention Neural Networks for multi-document summarization
Título alternativo: Aplicando Redes Neuronales Siamesas con Atención Jerárquica para resúmenes multi-documento
Autor/es: González, José Angel | Delonca, Julien | Sanchis Arnal, Emilio | García Granada, Fernando | Segarra Soriano, Encarnación
Palabras clave: Siamese Hierarchical Attention Neural Networks | Multi-document summarization | Redes Neuronales Siamesas Jerárquico-Atencionales | Resúmenes multi-documento
Área/s de conocimiento: Lenguajes y Sistemas Informáticos
Fecha de publicación: sep-2019
Editor: Sociedad Española para el Procesamiento del Lenguaje Natural
Cita bibliográfica: Procesamiento del Lenguaje Natural. 2019, 63: 111-118. doi:10.26342/2019-63-12
Resumen: In this paper, we present an approach to multi-document summarization based on Siamese Hierarchical Attention Neural Networks. The attention mechanism of Hierarchical Attention Networks, provides a score to each sentence in function of its relevance in the classification process. For the summarization process, only the scores of sentences are used to rank them and select the most salient sentences. In this work we explore the adaptability of this model to the problem of multi-document summarization (typically very long documents where the straightforward application of neural networks tends to fail). The experiments were carried out using the CNN/DailyMail as training corpus, and the DUC-2007 as test corpus. Despite the difference between training set (CNN/DailyMail) and test set (DUC-2007) characteristics, the results show the adequacy of this approach to multi-document summarization. | En este artículo presentamos una aproximación al problema de resumen automático multi-documento, basada en Redes Siamesas Jerárquico-Atencionales. El mecanismo de atención de las redes Jerárquico-Atencionales permite asignar un peso a cada frase en función de su relevancia en el proceso de clasificación. Durante la generación del resumen sólo se tienen en cuenta los pesos asociados a las frases para seleccionar aquellas más relevantes. En este trabajo exploramos la posibilidad de adaptar estos modelos al problema de resumen multi-documento (típicamente documentos muy largos donde la aplicación directa de redes neuronales no se comporta correctamente). Se ha experimentado utlizando el corpus CNN/DailyMail para entrenamiento, y el corpus DUC-2007 para evaluación. A pesar de la heterogeneidad de las características entre el corpus de entrenamiento (CNN/DailyMail) y el corpus de test (DUC-2007), los resultados muestran la adecuación de esta propuesta al resumen multi-documento.
Patrocinador/es: This work has been partially supported by the Spanish MINECO and FEDER founds under project AMIC (TIN2017-85854-C4-2-R). Work of José-Ángel González is also financed by Universitat Politècnica de València under grant PAID-01-17.
URI: http://hdl.handle.net/10045/96616
ISSN: 1135-5948
DOI: 10.26342/2019-63-12
Idioma: eng
Tipo: info:eu-repo/semantics/article
Derechos: © Sociedad Española para el Procesamiento del Lenguaje Natural
Revisión científica: si
Versión del editor: https://doi.org/10.26342/2019-63-12
Aparece en las colecciones:Procesamiento del Lenguaje Natural - Nº 63 (2019)

Archivos en este ítem:
Archivos en este ítem:
Archivo Descripción TamañoFormato 
ThumbnailPLN_63_12.pdf961,05 kBAdobe PDFAbrir Vista previa


Todos los documentos en RUA están protegidos por derechos de autor. Algunos derechos reservados.