El aumento de la necesidad por conocer cuál es el estado de cualquier entorno, ya sea por motivos medioambientales, económicos, como sociales, ha propiciado el crecimiento del uso de nodos de sensorización capaces de cuantificar y cualificar cualquier tipo de fenómeno observable. Esta necesidad, combinada con la disminución de los precios y tamaño de los componentes, ha favorecido el despliegue de dichos nodos con la finalidad de interconectarse entre ellos formando una red que proporciona los datos de sensorización.
Mayoritariamente, las redes de sensores disponibles actualmente ofrecen sus observaciones mediante protocolos y formatos propietarios. Esta situación, muestra la carencia de un estándar común para que facilite la gestión de los datos generados por los sensores de una forma interoperable. Además, dichos protocolos y formatos, tampoco favorecen el consumo de este tipo de contenido en entornos donde los recursos computacionales son más reducidos, como pueden ser teléfonos móviles.
La tendencia actual es utilizar los protocolos de Internet para la comunicación entre los nodos de sensorización. Dichos protocolos, permiten el uso de los sensores como una parte de Internet, donde el enfoque es llamado el Internet de la Cosas. Esto propicia un escenario idóneo para el control de los sensores y favorece el acceso a ellos, aunque actualmente tampoco existe un estándar capaz de ofrecer dicho enfoque de una forma universal. El uso de los protocolos de Internet ha favorecido el uso de sensores ofreciendo nuevos usos donde antes no era posible. Prueba de ello son las ciudades inteligentes, en las cuales la implantación de sensores en sus alrededores, se ha hecho con la finalidad de conocer y controlar lo que está sucediendo en ella.
De esta forma, cada día hay un mayor despliegue de redes de sensores midiendo gran cantidad de fenómenos diferentes. Estas redes proporcionan grandes volúmenes de datos en múltiples formatos, resoluciones y escalas con una alta tasa de generación que no son posible analizar con las tecnologías actuales, por lo que es necesario ofrecer métodos de análisis adaptados a estas características. Además, también se necesita ofrecer dichos análisis mediante procesamientos que garanticen su reusabilidad e interoperabilidad. Esto puede lograrse mediante los procesamientos que siguen estándares, ya que establecen una interfaz predefinida para su ejecución.
Enmarcados en este escenario, se presenta la actual tesis. En ella, se utiliza como hilo conductor el ciclo de vida de cualquier contenido geoespacial, que coincide con el ciclo de los datos proporcionados por sensores. Para ello, se presentan cuatro etapas que son: adquisición, publicación, acceso y análisis. Para cada una de ellas se detallan los problemas existentes y se proponen diferentes soluciones.
Para la etapa de adquisición se presenta una plataforma de sensorización, basada en software y hardware libre, energéticamente autónoma e integrada en el Internet de las Cosas. En la etapa de publicación se diseña un procesamiento estándar para la publicación automatizada de contenido geoespacial en los diferentes servicios estándares del ámbito geoespacial. Además, en la etapa de acceso proponen diferentes formas de acceder a datos de sensores dependiendo del caso de uso en particular. Las interfaces propuestas se basan en seguir los paradigmas del Internet de las Cosas a través del uso de estándares geoespaciales mejorando la interoperabilidad, además de ofrecer un acceso ligero para dispositivos con restricciones limitadas o de ser capaces de servir grandes cantidades de observaciones. En la última etapa, el análisis, se aportan dos metodologías diferentes. La primera de ellas permite el análisis en tiempo real sobre grandes cantidades de datos y, la segunda, ofrece aplicar cualquier tipo de modelo utilizando un procesamiento estándar. Finalmente se proponen diferentes casos de uso donde son aplicadas todas las aportaciones que se describen.
© 2001-2024 Fundación Dialnet · Todos los derechos reservados