Los robots ya pueden pensar y actuar como seres humanos. La respuesta está en un vanguardista algoritmo
Un sistema inspirado en nuestro cerebro y cuerpo mejora un 17 % la ejecución de tareas y muestra una nueva manera de integrar modelos de lenguaje de gran tamaño
El sector de la robótica lleva años persiguiendo un objetivo tan simple de describir como difícil de conseguir: que las máquinas entiendan lo que queremos que hagan y lo ejecuten con la misma fluidez que una persona. Ahora, gracias al auge de los modelos de lenguaje de gran tamaño, se abre una posibilidad muy interesante: utilizar algoritmos para que un robot sea capaz de planificar y se mueva con más naturalidad.
Acercando la planificación humana a los robots
Un equipo de la Escuela de Ingeniería Tandon de la Universidad de Nueva York ha publicado un artículo en la revista científica Advanced Robotics Research en el que expone el algoritmo creado para imitar la forma en la que nuestro cerebro diseña un plan y nuestro cuerpo lo ajusta en tiempo real. El algoritmo ha sido apodado BrainBody-LLM y es capaz de hacer que un robot piense lo que quiere hacer y, al mismo tiempo, mueva su cuerpo ajustándose a lo que pasa- Y todo en un ciclo que se repite una y otra vez.
Los investigadores han partido de una simple idea: un robot no solo necesita saber qué tiene que hacer, sino que también traduce ese plan en movimientos seguros y precisos. Para ello, BrainBody-LLM divide la tarea en dos partes. El Brain LLM se encarga de la estrategia general, descomponiendo una orden compleja en pasos más sencillos. Por su parte, Body LLM toma esos pasos y genera las órdenes motoras necesarias para ejecutarlos, ya sea desplazar un brazo o ajustar la pinza para agarrar un objeto.
Las «escuelas de robots» de China son una mirada al futuro: así es como se adiestra a esta nueva generación https://urbantecno.com/robotica/las-escuelas-de-robots-de-china-son-una-mirada-al-futuro-asi-es-como-se-adiestra-a-esta-nueva-generacion
La clave está en que los dos modelos se hablan todo el rato. El robot va haciendo cada paso, comprueba si algo ha salido mal y el sistema lo corrige al momento. Esa comunicación constante permite que no se limite a seguir órdenes, sino que cambie su forma de actuar según lo que ocurre delante de él. Y aún quedaba poner a prueba en entornos digitales y con robots reales.
En primer lugar, los investigadores recurrieron a VirtualHome, una plataforma de simulación donde los robots virtuales realizan tareas domésticas en casas digitales. Después, utilizaron el algoritmo al brazo robótico Franka Research 3. Como resultado, BrainBody-LLM aumentó un 17 % la tasa de tareas completadas frente a otros modelos y alcanzó un éxito medio del 84 % en pruebas reales.
Una empresa quiere poner a prueba este robot de almacén: él solo es capaz de hacer todas las tareas https://urbantecno.com/robotica/una-empresa-quiere-poner-a-prueba-este-robot-de-almacen-el-solo-es-capaz-de-hacer-todas-las-tareas
Los autores explican que esta forma de trabajar con varios modelos de lenguaje sigue una tendencia creciente: usar distintas mentes de inteligencia artificial para resolver problemas complicados. En este caso, la herramienta es el propio robot, que no solo recibe órdenes, sino que aprende a entender la situación, anticiparse y corregirse.
En el futuro, se podrían añadir visión 3D, sensores y más control del movimiento, para que responda a lo que ve y no solo a lo que se le dice. BrainBody-LLM aún es un primer paso, pero marca una dirección clara: robots que planifican y se ajustan como lo haría una persona. ¿Será este el salto necesario para que la robótica con inteligencia artificial entre en una nueva etapa?