Ayuda
Ir al contenido

Dialnet


Resumen de Redes de procesadores evolutivos: autoaprendizaje de filtros en las conexiones

Nuria Gómez Blas

  • Esta Tesis aborda la reciente área de la Computación Natural -modelos bioinspirados-, concretamente las Redes de Procesadores Evolutivos introducidas por Víctor Mitrana y cuya base son los Sistemas P cuyo precursor fue Georghe Paun. En estos modelos existen una serie de procesadores inerconectados en un gráfo subyacente no dirigido, dichos procesadores poseen un multiconjunto de objetos (cadenas) y una serie de reglas, denominadas de evolución, que transforman los objetos presentes en los procesadores. Los objetos se pueden enviar/recibir a través de las conexiones siempre y cuando cumplan las restricciones impuestas por unos filtros de entrada y salida que disponen los procesadores. Este modelo simbólico, no determinista (el funcionamiento de los procesadores no está sincronizado) y masivamente paralelo (todas las reglas que se pueden aplicar se aplican a la vez) posee propiedades de resolución de problemas NP-completos en tiempo lineal y recursos lineales. Existe un gran número de variantes como las redes híbridas, procesadores con reglas de splicing, etc. que proporcionan una capacidad de cómputo superior a las máquinas de Turing.

    La principal aportación realizada en el campo de las Redes de Procesadores Evolutivos es: La incorporación de un modelo de aprendizaje en los filtros ubicados en las conexiones. Se ha definido un algoritmo de aprendizaje simbólico basado en los Mapas Autoorganizados ya que toda la información que se maneja son cadenas de símbolos. Y se han propuesto tres modelos de aprendizaje que se pueden incorporar en el funcionamiento de las redes de procesadores evolutivos. El primero se basa en el aprendizaje de los filtros de manera que las cadenas que los atraviesan (o no) modifican dichos filtros. El segundo se basa en que las cadenas que se comunican a través de las conexiones se ven modificadas de acuerdo a un aprendizaje marcado por los filtros, pero éstos no son modificados. Tal aprendizaje solventa la secuencialidad del aprendizaje sobre los filtros y permite la misma paralelización que disponen las redes de procesadores evolutivos. Y por último una combinación de ambos.

    Todo este trabajo está basado en una serie de aportaciones previas realizadas por el autor junto con Juan Castellanos, Luis F. Mingo y Miguel A. Díaz que modifican la arquitectura de las redes de procesadores evolutivos para poder permitir la incorporación del aprendizaje, caben destacar: La modelización/simulación de redes masivamente paralelas, esto es, hasta ahora existía una secuencialización entre la evolución de los procesadores y la comunicación de manera que primero se evolucionaba y luego se comunicaban objetos. Con dicho modelo masivamente paralelo dicha secuencialización desaparece y la evolución y comunicación trabajan en paralelo. Dicho modelo de redes de procesadores evolutivos masivamente paralelas es un superconjunto de las redes de procesadores evolutivos y se muestra el resultado de la resolución del problema de los 3 colores.

    La eliminación de los filtros en los procesadores quedando estos como elementos de evolución y ubicando los filtros en las conexiones. También se ha demostrado una equivalencia entre una red de procesadores evolutivos "clásica" y una red de procesadores evolutivos con filtros en las conexiones. Como resultado más importante destaca que las redes de procesadores evolutivos con aprendizaje son un superconjunto de las redes de procesadores evolutivos ya que si se define una medida de las distancia adecuada se obtiene una equivalencia y por tanto, pueden resolver problemas NP-completos en tiempo lineal.

    Todavía quedan abiertos muchos interrogantes acerca de la potencia computacional al incorporar aprendizaje ya que es una tarea bastante complicada y dependiente de la medida de distancia elegida.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus