El sistema visual de los mamíferos tiene una remarcable capacidad para procesar información en intervalos de tiempo de mili-segundos bajo condiciones muy variables y adquirir representaciones invariantes de esta información. Recientemente, un modelo del córtex primario visual, que explota las características de alta conectividad excitatriz local del neo-córtex, fue propuesto para modelar estas capacidades. El modelo integra rápidamente la actividad repartida espacialmente de las neuronas y genera codificaciones invariantes que se llaman Temporal Population Codes (TPC). Aquí investigamos una cuestión que ha persistido desde la introducción del TPC: estudiar un proceso biológicamente posible, capaz de hacer la lectura de estas codificaciones. Nosotros proponemos un nuevo circuito neuronal de lectura basado en las transformadas Wavelet que decodifica la señal TPC en diferentes intervalos de frecuencia. Los resultados muestran que, comparado con lecturas puramente lineales utilizadas previamente, el sistema propuesto proporciona una representación robusta, rápida y compacta de la entrada visual. También presentamos una generalización de este paradigma de codificación-decodificación optimizado que aplicamos a diferentes tareas de visión por computador y la visión dentro del contexto de la robótica. Los resultados de nuestro estudio sugieren que la representación de escenas visuales complejas, como caras humanas, gestos con las manos y señales del medio ambiente podrían ser codificadas por TPC que se puede considerar un poderoso marco biológico para reconocimiento de objetos en tiempo real. Además, nuestros resultados sugieren que la representación de la entrada sensorial puede ser integrada en un código espacio-temporal interpretado y analizado en una serie de componentes Wavelet por áreas visuales superiores.
© 2001-2026 Fundación Dialnet · Todos los derechos reservados