Este artículo investiga el estatuto operativo de las imágenes contemporáneas vinculadas al aprendizaje automático y revela su continuidad histórica con los métodos de extracción de datos desarrollados en la fotografía científica del siglo xix. El análisis comienza con los experimentos de Gilles de la Tourette y Étienne-Jules Marey, quienes transformaron los cuerpos en diagramas, eliminando lo figurativo para aislar patrones de movimiento y comportamiento. Estas técnicas, diseñadas para trascender la percepción humana y acceder a un conocimiento «objetivo», establecieron un paradigma donde la imagen funciona como superficie de inscripción de datos. El estudio demuestra cómo este paradigma ha alcanzado su máxima expresión en los sistemas contemporáneos de visión artificial, donde las imágenes han dejado de ser fundamentalmente objetos de percepción para convertirse en instrumentos de extracción automatizada. A diferencia de los registros fotográficos decimonónicos —explícitos en su mediación técnica—, la inscripción de datos opera ahora en capas computacionales opacas, y se desplaza del plano fenoménico al estadístico. A través del análisis de los espacios latentes en modelos de deep learning, se revela cómo las imágenes son reducidas a vectores matemáticos que codifican tanto información visual como estructuras de poder. Esta transformación opera a tres niveles: técnico (compresión de datos en dimensiones no humanamente legibles), epistemológico (producción de conocimiento mediante correlaciones masivas) y político (naturalización de categorizaciones sociales a través de interfaces aparentemente neutrales). La investigación concluye que este régimen de visualidad postretiniana invierte la lógica tradicional: lo visible deviene residuo accesorio, mientras que la agencia real ocurre en el cálculo de lo imperceptible.
This article explores the operational status of contemporary images linked to machine learning, revealing their historical continuity with data extraction methods developed in 19th-century scientific photography. The analysis begins with the experiments by Gilles de la Tourette and Étienne-Jules Marey, who transformed bodies into diagrams, eliminating the figurative to isolate patterns of movement and behaviour. These techniques, designed to transcend human perception and access "objective" knowledge, established a paradigm where the image functions as a surface for data inscription. The study demonstrates how this paradigm has reached its maximum expression in contemporary artificial vision systems, where images have ceased to be fundamentally objects of perception and become instruments of automated extraction. Unlike 19th-century photographic records − explicit in their technical mediation −, data registration now operates in opaque computational layers, shifting from the phenomenic to the statistical plane. Through the analysis of latent spaces in deep learning models, we show how images are reduced to mathematical vectors that encode both visual information and power structures. This transformation operates on three levels: technical (data compression into dimensions that are not humanly legible), epistemological (knowledge production through mass correlations), and political (naturalisation of social categorisations through seemingly neutral interfaces). The research concludes that this regime of post-retinal visuality inverts the traditional logic: the visible becomes an accessory residue, while real agency occurs in the calculation of the imperceptible.
© 2001-2026 Fundación Dialnet · Todos los derechos reservados