Un nuevo perro robot puede caminar por donde los humanos no pueden. Todo es gracias a la IA
Un robot equipado con WildFire se ha puesto a prueba por densos bosques, pastizales y senderos de grava

Los robots humanoides llaman mucho nuestra atención porque los hemos visto durante décadas en la ficción, ya sea a través de películas, series de televisión o literatura, y ahora que están volviéndose una realidad nos entusiasma ver hasta dónde llegarán y qué cosas podrán hacer en un futuro no demasiado lejano. En China ya son todo un éxito, no habiendo existencias y con precios de alquiler exageradamente altos.
Algunos de los robots humanoides que más expectación están generando son el Unitree G1, que es capaz de ejecutar movimientos de Kung-fu como un verdadero profesional, y Ameca, que se caracteriza por su realismo facial y expresiones humanas naturales hasta el punto de resultar extremadamente perturbador. Te invitamos a echar un ojo al fenómeno del valle inquietante y por qué sucede.
Sin embargo, no hay que perder de vista a los roboperros. Desde bomberos hasta repartidores de paquetería, pasando por rescatadores en condiciones adversas. Han desarrollado un perro robótico que circula por una amplia variedad de terrenos como si fuera un ser humano y con la capacidad de sentir vibraciones y tener tacto. Te contamos más detalles a continuación.
Una tecnología que rompe con los sistemas de los roboperros convencionales
Un grupo de investigadores de la Universidad de Duke (Carolina del Norte, Estados Unidos de América) ha desarrollado un marco de trabajo (framework en inglés) un marco de trabajo muy especial que permite a los perros robóticos percibir objetos en exteriores de forma similar a como lo hacen los seres humanos.
El nombre del marco de trabajo es WildFusion y permite a los robots percibir vibraciones y tacto aparte de sus capacidades visuales para desplazarse por el terreno con mejor resultado. "WildFusion abre un nuevo capítulo en la navegación robótica y el mapeo 3D", afirmó Boyuan Chen, profesor adjunto de la Universidad de Duke.
WildFusion se ha mostado en la Conferencia Internacional IEEE sobre Robótica y Automatización (ICRA 2025) , que tuvo lugar entre el 19 y 23 de mayo de 2025 en Atlanta (Georgia, Estados Unidos de América).
Los robots «convencionales» dependen en gran medida de la visión o sensores LiDAR. El problema es que suelen fallar al no tener rutas claras ni puntos de referencia predecibles. Los métodos avanzados de mapeo 3D tampoco se libran de las dificultades para reconstruir un mapa cuando los datos de los sensores escasean o están incompletos. WildFusion ha solucionado estos inconvenientes.
La tecnología WildFusion está formada por una cámara RGB, LiDAR, sensores inerciales, micrófonos de contacto y sensores táctiles. Mientras que la cámara y LiDAR suele ser lo habitual en los robots para capturar información como la geometría del entorno, WildFusion se diferencia del resto por percibir vibraciones acústicas y el tacto.
Los micrófonos de contacto registran las vibraciones del robot al caminar, captando sonidos con sutiles diferencias. Los sensores tácticos, por su parte, determinan la fuerza necesaria para cada pie. Estos sensores también pueden evaluar cuánto se tambalea o rueda el robot al desplazarse por terrenos irregulares.
WildFusion se ha probado en el parque Estatal del Río Eno en Carolina del Norte, cerca del campus de Duke, y ayudó con éxito a que un robot navegara por densos bosques, pastizales y senderos de grava. La tecnología es muy prometedora, pudiendo implementarse en sistemas autónomos en entornos sensibles.