Durante las últimas décadas del siglo XX hemos asistido a dos oleadas revolucionarias sucesivas en el ámbito del tratamiento automático de la información y las comunicaciones. Estas se han materializado en el ordenador personal, PC, y la Internet, pero sin embargo tienen su origen en la aparición de avances tecnológicos relacionados con los dispositivos. Por un lado, el PC no es en sí mismo el ger men de ninguna ola de informatización de los hogares del planeta, es, más bien, el producto de la revolución que en el procesamiento de la información significó la invención del microprocesador. Asimismo, la creación de la Internet no es el origen de la globalización del acceso a múltiples redes de ordenadores y enormes bases de datos remotas, es el resultado de la revolución de las conexiones y el almacenamiento de datos que ha supuesto la aparición de los láseres semiconductores. Estas dos olas tecnológicas, la revolución del procesamiento y la revolución del acceso a la información, impulsadas por la aparición de nuevos dispositivos, nos permiten hoy en día, según P. Saffo describe en [Saff97], augurar una nueva revolución en el mundo de la tecnología de la información, capitaneada por nuevos dispositivos: los sensores. El desarrollo de nuevos sensores, y actuadores, basados en tecnologías existentes o por desarrollar, está ya empujando una nueva revolución que podemos llamar de la “interacción”. Las máquinas que primero alcanzaron capacidades de procesamiento nunca antes imaginadas, y que luego se conectaron mediante fibra óptica a otras máquinas y a grandes bases de datos contenidas en soportes optoelectrónicos, van ahora a poseer la capacidad de interaccionar con el mundo que les rodea.En un primer momento, estos sensores —dispositivos microelectromecánicos, materiales piezoeléctricos, micromáquinas, procesadores de video en un solo chip, microcámaras— supondrán una vía de conexión eficiente y barata del mundo virtual de las máquinas digitales con el universo analógico que nos rodea. Pero el cambio en esta relación no va a detenerse ahí. El abaratamiento de estas habilidades conducirá, está conduciendo ya, a la aparición de artefactos inteligentes que realizarán sus tareas en continuo intercambio de información con su entorno. Las previsiones de P. Saffo van más allá, adelantando la aparición de estructuras y materiales formados por la aglomeración de dispositivos sensores/actuadores que adaptarían su comportamiento global a las condiciones del entorno. Por ejemplo, materiales inteligentes que recompusieran su estructura interna para incrementar o disminuir su resistencia a rozamientos, impactos, etc. Esto da lugar a un nuevo concepto de computación hiperdistribuida en el que multitud de procesadores elementales actúan de manera cooperativa y en el que el procesamiento analógico de la señal juega un papel capital, dadas sus características de alta velocidad, bajo perfil físico y bajo consumo de potencia, al ser comparados con su contrapartida digital.En esta línea, el paradigma de las redes neuronales celulares (CNNs), introducidas por L. O. Chua [Chua93], supone un modelo de computación analógica distribuida, cuyas interacciones de carácter local permiten una realización física eficiente y rentable en tecnologías estándar de fabricación de circuitos integrados. Este modelo de computación cooperativa, propio de las redes neuronales en general, en las que la elevada interconexión entre sus elementos es responsable de comportamientos de muy alto orden, se ve aquí restringido a interacciones locales, de las que, aún así, emerge un comportamiento global muy complejo. Si a esto añadimos las posibilidades del substrato de silicio de las tecnologías CMOS como sensor y transductor del estímulo lumínico, nos encontramos ante una posibilidad fehaciente de producir microcámaras inteligentes en un solo chip, y a un coste muy por debajo de la alternativa digital convencional. Se han obtenido modelos, inspirados en la retina biológica, desarrollados por el Prof. Werblin en torno a la observación de la retina de los vertebrados [Werb95], y basados en el modelo de computación de las CNNs, que van a permitir la incorporación de los avances evolutivos a la implementación de un sistema de visión artificial compacto, eficiente y suficientemente eficaz.Con el fin de adecuar la descripción algorítmica de dichos modelos a la posibilidad real de implementación física de los mismos, surgen arquitecturas que tratan de salvar la distancia impuesta por las limitaciones tecnológicas. Por ejemplo, la Máquina Universal basada en CNNs (CNNUM), descrita por el Prof. Roska [Rosk93], supone una estructura totalmente programable y reconfigurable que, siendo compatible con las actuales tecnologías de fabricación, permite implementar los modelos de computación analógica distribuida referidos anteriormente. El último paso, relativamente pequeño en cuanto a lo conceptual, pero con toda una problemática práctica, de hondo calado, asociada, es la plasmación de dicho conjunto de reglas matemáticas en una analogía física, microelectrónica, en concreto, de muy alta escala de integración (VLSI).En esta Tesis, pretendemos abordar la realización física VLSI de circuitos y sistemas encaminados al procesamiento de imágenes en tiempo real, a partir de la adaptación de los citados modelos de computación analógica distribuida al problema específico del tratamiento de bajo nivel de los estímulos visuales. Para ello iniciaremos el recorrido con el planteamiento del problema en términos eminentemente prácticos y con la sugerencia de una alternativa al enfoque convencional, basada en las CNNs. Estudiaremos también las limitaciones tecnológicas y su incidencia en los parámetros del sistema. A continuación, revisaremos las herramientas teóricas y prácticas que nos permitirán una mejora de la implementación desde el punto de vista de la robustez, y concluiremos con el estudio de dos prototipos en silicio de dos elementos fundamentales en la implementación física del procesamiento de imágenes basado en CNNs: un chip de memoria analógica que actuará como buffer o memoria caché dentro del sistema, y un chip de procesamiento basado en la dinámica espacio-temporal de una CNN de dos capas, con funciones de microprocesador visual, inspirado en los modelos de la retina antes mencionados.
© 2001-2024 Fundación Dialnet · Todos los derechos reservados