Saltar al contenido principalSaltar al pie de página

Robótica / Inteligencia Artificial

Perro robótico con IA: visión y memoria humanas para misiones de rescate

Un modelo multimodal permite al robot ver, recordar y responder como un rescatista en zonas de desastre

De la misma forma que los humanos, el robot utiliza comportamientos reactivos y deliberativos y una toma de decisiones reflexiva en situaciones de emergencia.

De la misma forma que los humanos, el robot utiliza comportamientos reactivos y deliberativos y una toma de decisiones reflexiva en situaciones de emergencia. / Crédito: Logan Jinks/Texas A&M Engineering.

Pablo Javier Piacente / T21

Por qué confiar en El Periódico Por qué confiar en El Periódico Por qué confiar en El Periódico

Pensado para navegar con precisión en zonas de desastre, el robot controlado por IA podría revolucionar las misiones de búsqueda y rescate, junto a otras operaciones de emergencia.

Un equipo de especialistas de la Universidad Texas A&M, en Estados Unidos, presentó un perro robótico impulsado por Inteligencia Artificial (IA) que “ve, recuerda y piensa” con capacidades de navegación y respuesta similares a las humanas, en entornos caóticos como zonas de desastre.

El prototipo combina cámaras, control híbrido y un modelo de lenguaje multimodal con memoria visual para planificar rutas, evitar obstáculos y responder a comandos de voz, una serie de características que lo hacen especialmente útil para misiones de búsqueda y rescate.

De acuerdo a una nota de prensa, la plataforma se basa en un robot terrestre equipado con un sistema de navegación basado en memoria e impulsado por un MLLM o modelo de lenguaje multimodal, capaz de interpretar entradas visuales y generar decisiones de enrutamiento y planificación con alta eficiencia.

Memoria visual y un sistema de navegación inteligente

La arquitectura informática integra comportamientos reactivos para evitar colisiones, y deliberativos para trazar rutas precisas reutilizando trayectos ya explorados. En la práctica, el equipo adaptó un robot Unitree GO1 con cámara y desarrolló una infraestructura ROS2, que posibilita capturar imágenes del entorno, almacenarlas en una memoria visual y consultarlas cuando el robot necesita volver a un punto o reconocer un objeto.

Los experimentos muestran que la navegación basada en memoria reduce la exploración repetida y mejora la capacidad de retrasar rutas en espacios no mapeados o sin GPS. La investigación fue presentada en la 22ª Conferencia Internacional sobre Robots Ubicuos, donde el equipo demostró el comportamiento del perro robótico en escenarios controlados.

Referencia

A Walk to Remember: Mllm Memory-Driven Visual Navigation. Sandun S. Vitharana et al. 22nd International Conference on Ubiquitous Robots (UR) (2025). DOI:https://doi.org/10.1109/UR65550.2025.11078086

Una mejor cooperación humano-máquina

Los autores destacan que desplegar la lógica del MLLM permite al robot tener "consciencia situacional inmediata" y una interacción más natural con los rescatistas mediante comandos de voz, entre otras ventajas. Además de las situaciones de rescate, los responsables del proyecto imaginan aplicaciones en hospitales, almacenes, apoyo a personas con discapacidad visual, e incluso labores de reconocimiento en zonas peligrosas.

Los desarrolladores creen que el sistema debe convertirse en un “compañero empático” y no solo ser una herramienta, simplificando así la cooperación humano-máquina en momentos críticos. Los desafíos más importantes incluyen operar el sistema de forma eficiente en entornos altamente dinámicos, garantizar la seguridad y confidencialidad de los datos visuales o verificar el comportamiento del MLLM frente a errores o adversidades.