Integración de Gemelos Digitales y Realidad Aumentada Geoespacial para la Gestión Sostenible de Entornos Naturales y Construidos

Georreferenced Augmented Reality (GAR)

Colaboración Tecnológica: Grupo Geoso2 y LeftCape.com


Contexto del Proyecto

El proyecto se centra en resolver la problemática de la visualización contextualizada de datos complejos en entornos exteriores. Actualmente, la gestión ambiental y el seguimiento de obra civil requieren interpretar modelos digitales masivos sobre el terreno. Esta investigación desarrollará arquitecturas de software capaces de superponer esta información digital sobre la visión del mundo real con precisión centimétrica, facilitando la toma de decisiones in-situ para la gestión de recursos naturales, impacto ambiental e infraestructuras críticas.

Tecnologías Habilitadoras y Líneas de Investigación

Este desarrollo se sustentará en el perfeccionamiento de algoritmos propios de percepción computacional y fusión de datos, diseñados para operar en escenarios complejos donde los sistemas de posicionamiento tradicionales son insuficientes:

Investigación avanzada en Percepción Computacional y Navegación Autónoma (VIO/SLAM)

Esta línea de investigación profundizará en el diseño y perfeccionamiento de arquitecturas de Odometría Visual-Inercial (VIO) de acoplamiento fuerte (tightly-coupled) y sistemas SLAM (Simultaneous Localization and Mapping) de última generación. El grupo abordará la complejidad matemática de la fusión sensorial multimodal, integrando flujos de visión artificial estéreo con datos inerciales de alta frecuencia (acelerómetros y giroscopios) mediante técnicas avanzadas de optimización no lineal basada en grafos de factores.

El objetivo crítico será garantizar la estimación robusta de la posición y orientación (pose en 6 Grados de Libertad) en escenarios GNSS-denegados o degradados, tales como masas forestales densas, infraestructuras críticas, túneles o cañones urbanos, donde la señal satelital es inexistente o poco fiable por efecto multipath.

Los algoritmos que se desarrollarán permitirán la recuperación de la escala métrica absoluta sin necesidad de infraestructura externa (como balizas o marcadores fiduciales), superando las limitaciones tradicionales de la visión por computador pura frente a desafíos como el desenfoque de movimiento (motion blur), superficies con baja textura visual o rangos dinámicos de iluminación extremos. Asimismo, se investigará la optimización de estos procesos para su ejecución en tiempo real sobre plataformas de computación en el borde (Edge Computing) con recursos limitados, permitiendo una autonomía perceptiva total.

Arquitecturas de Computación en el Borde (Edge AI) y Fusión Sensorial Multimodal

Se desarrollarán arquitecturas de hardware y software para sistemas ciberfísicos autónomos, centrados en la capacidad de procesar masivos volúmenes de datos brutos (raw data) directamente en el lugar de la captura. Esta investigación se especializará en la integración de plataformas de computación heterogénea de bajo consumo y alto rendimiento (System-on-Module de la familia NVIDIA Jetson), optimizando el uso paralelo de núcleos CPU, GPU y aceleradores de Deep Learning para aplicaciones críticas.

El desafío técnico que se abordará será la sincronización temporal determinista de flujos de datos asíncronos. Se diseñarán pipelines de adquisición que alinearán, con precisión de microsegundos, la información geométrica densa proveniente de sistemas de visión estéreo con las mediciones de alta frecuencia de sensores inerciales (IMU MEMS de grado industrial) y sensores ambientales.

Mediante el uso de librerías de optimización avanzada (como CUDA y TensorRT), se trasladará la carga computacional de la nube al dispositivo (Edge Computing). Esto permitirá ejecutar algoritmos complejos de percepción y fusión de datos in situ, garantizando una latencia mínima (ultra-low latency) necesaria para la toma de decisiones en tiempo real en vehículos no tripulados y sistemas de monitorización remota, eliminando la dependencia de anchos de banda elevados o conectividad continua.

Georreferenciación de Precisión y Persistencia en Realidad Mixta Geoespacial

Se investigarán nuevos paradigmas matemáticos para la alineación espacial rigurosa entre modelos virtuales masivos (Gemelos Digitales BIM/CIM/GIS) y el entorno físico no estructurado. Este enfoque superará las limitaciones de la Realidad Aumentada convencional —basada en marcadores o planos locales relativos— mediante la implementación de algoritmos de anclaje geoespacial absoluto.

Se desarrollarán módulos de software que gestionarán en tiempo real la transformación de coordenadas entre marcos de referencia globales (sistemas geodésicos como ETRS89/WGS84 y proyecciones UTM) y los sistemas de coordenadas locales tangentes (tipo ENU: East-North-Up) generados por la odometría visual. Mediante técnicas de fusión sensorial global-local, se integrarán las lecturas GNSS para corregir la deriva acumulada (drift) de la navegación visual, garantizando la persistencia temporal y la estabilidad del holograma incluso en trayectorias largas o complejas.

Esta tecnología permitirá la superposición de información con coherencia visual y oclusión dinámica, aplicada a escenarios críticos como la validación de obra civil (comparativa as-built vs as-designed en tiempo real), el monitoreo de dinámicas de erosión en taludes y el inventario forestal de precisión, donde la interpretación correcta de los datos requerirá una alineación geométrica exenta de vibraciones (jitter) y errores de paralaje.