Ayuda
Ir al contenido

Dialnet


Resumen de El modelo cortical HTM y su aplicación al conocimiento lingüístico

Iván Arias Rodríguez

  • español

    El problema que aborda este trabajo de investigación es encontrar un modelo neurocomputacional de representación y comprensión del conocimiento léxico, utilizando para ello el algoritmo cortical HTM, que modela el mecanismo según el cual se procesa la información en el neocórtex humano.

    La comprensión automática del lenguaje natural implica que las máquinas tengan un conocimiento profundo del lenguaje natural, lo que, actualmente, está muy lejos de conseguirse. En general, los modelos computacionales para el Procesamiento del Lenguaje Natural (PLN), tanto en su vertiente de análisis y comprensión como en la de generación, utilizan algoritmos fundamentados en modelos matemáticos y lingüísticos que intentan emular la forma en la que tradicionalmente se ha procesado el lenguaje, por ejemplo, obteniendo la estructura jerárquica implícita de las frases o las desinencias de las palabras. Estos modelos son útiles porque sirven para construir aplicaciones concretas como la extracción de datos, la clasificación de textos o el análisis de opinión. Sin embargo, a pesar de su utilidad, las máquinas realmente no entienden lo que hacen con ninguno de estos modelos. Por tanto, la pregunta que se aborda en este trabajo es si, realmente, es posible modelar computacionalmente los procesos neocorticales humanos que regulan el tratamiento de la información de tipo semántico del léxico. Esta cuestión de investigación constituye el primer nivel para comprender el procesamiento del lenguaje natural a niveles lingüísticos superiores.

    La hipótesis de trabajo es que es posible aplicar los principios del funcionamiento del neocórtex cerebral según se describen en el modelo de la Memoria Jerárquico Temporal (HTM) propuesta por Jeff Hawkins para explicar los procesos de comprensión y representación de la información léxica.

    En base a esta hipótesis, la tesis plantea como objetivo general desarrollar un método, compatible con el modelo cortical HTM, para extraer, representar y operativizar el significado intrínseco del léxico del español, y que pueda generalizarse a otras lenguas. Este objetivo se ha desarrollado, de forma más concreta, en dos objetivos específicos:

    1) La representación léxica del significado. Se ha trabajado en la creación de representaciones semánticas del léxico español que sean compatibles con el modelo HTM. Estas representaciones de las palabras consisten en vectores de valores binarios que deben ser capaces de captar su significado y su relación con el resto del léxico, hasta el punto de poder utilizarse para realizar una serie de pruebas semánticas que validen su correcto funcionamiento.

    2) La operativización con HTM de dichas representaciones semánticas. Se ha estudiado si es viable construir y mantener una memoria léxica dinámica, conforme el modelo HTM, con las representaciones semánticas del vocabulario de una lengua, en particular del español. Concretamente se trata de estudiar si es posible, una vez construida una memoria léxico semántica, la realización de operaciones que implican la comprensión del lenguaje.

    Además, para la consecución de este objetivo, se ha completado la formalización matemática del modelo HTM, lo que abre una vía para el diseño de nuevos algoritmos y para realizar tareas como la reconstrucción de la entrada en función del estado interno del sistema HTM.

    La consecución de estos dos objetivos ha permitido extraer conclusiones sobre la viabilidad del modelo HTM para la realización de tareas propias del PLN en las que es necesario que el sistema tenga un cierto nivel de comprensión del texto que procesa.

  • English

    The problem addressed by this research work is that of finding a neurocomputational representation and comprehension model of lexical knowledge, using for that purpose the HTM cortical algorithm, which models the mechanism according to which information is processed in the human neocortex.The automatic understanding of natural language implies that machines have a deep knowledge of natural language, which is currently far from being achieved. In general, computational models for Natural Language Processing (NLP), both in their analysis and comprehension aspects as well as in the generation aspect, use algorithms based on mathematical and linguistic models that try to emulate the way in which language has traditionally been processed, for example, by obtaining the implicit hierarchical structure of sentences or word endings. These models are useful because they serve to build concrete applications such as data mining, text classification or sentiment analysis. However, despite their usefulness, machines do not really understand what they are doing with any of these models. The question, therefore, addressed in this thesis is whether it is really possible to computationally model the human neocortical processes that regulate the processing of lexical semantic information. This research question constitutes the first level of understanding the processing of natural language at higher linguistic levels...


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus