Este robot impulsado por IA es capaz de reconocer tus caras e imitarlas, pero no sabemos si nos transmite sorpresa o miedo

El robot, llamado Emo, tiene 23 motores que le permiten realizar coexpresiones junto a los tres dedicados al movimiento del cuello

Este robot impulsado por IA es capaz de reconocer tus caras e imitarlas, pero no sabemos si nos transmite sorpresa o miedo
Yuhang Hu de Creative Machines Lab, cara a cara con Emo | Imagen de Creative Machines Lab
Publicado en Tecnología

Muchos de los robots humanoides que las grandes empresas tecnológicas desarrollan tienen cabeza, pero no rostro. Solo hay que ver cuáles son las propuestas más interesantes del mercado para comprobarlo: el Optimus de Tesla, el Oli de LimX Dynamics o el de NEURA Robotics, que se hizo viral por poder preparar sándwiches, cócteles y planchar la ropa.

Algunos que sí tienen rostro, como el Aidol de Rusia o el H2 de Unitree, no le sacan apenas partido, ya que no mueven sus ojos ni boca para comunicarse. El más avanzado (y terrorífico) en este sentido es Ameca, diseñado para interacción social gracias a sus precisas expresiones faciales, que le permiten enfocarse en la comunicación no verbal y la empatía.

Visto por primera vez a finales de 2021, la creación de la británica Engineered Arts cuenta con 61 grados de libertad, de los cuales 27 están en la cara, lo que le permite sonreír, fruncir el ceño, parpadear e, incluso, mostrar asombro de forma natural. Ahora, un nuevo antropomórfico busca robar algo de protagonismo a Ameca, ya que domina la sincronización de labios y la imitación de expresiones.

Puede generar movimientos de labios realistas en 11 idiomas distintos

Investigadores de la Universidad de Colombia han desarrollado un nuevo marco que sincroniza los movimientos realistas de los labios con el audio del habla, lo que permite crear expresiones más humanas. Este innovador sistema puede emplearse en varios idiomas, incluidos el francés, chino y árabe, incluso si estos no forman parte de los datos de entrenamiento.

Las primeras pruebas, según los investigadores, muestran que el método supera a cinco enfoques existentes, produciendo la coincidencia más cercana entre los movimientos de la boca del robot y los vídeos de referencia idealizados. En un comunicado, el equipo explicó que "el marco también fue capaz de generar movimientos de labios realistas en 11 idiomas distintos del inglés, con diferentes estructuras fonéticas".

Los investigadores presentaron el marco junto a Emo, un robot facial antropomórfico avanzado, diseñado para mejorar la interacción social. Basado en la plataforma Eva, Emo cuenta con diversas mejoras de hardware, como 26 actuadores que permiten expresiones faciales asimétricas, en comparación con los 10 de Eva.

El rostro de Emo utiliza imanes de fijación directa para deformar la piel reemplazable, ofreciendo un control más preciso que el sistema de Eva, controlado por cable. El nuevo robot está equipado con cámaras RGB de alta resolución, las cuales están integradas en sus ojos. Esto le permite disponer de una percepción visual en tiempo real para mejor predicción de las expresiones faciales de quien habla.

Según los investigadores, los 23 motores de Emo que controlan las expresiones faciales, y los tres para el movimiento del cuello, le permiten realizar coexpresiones, sincronizando las suyas con las de los seres humanos. Para ello, debe anticipar las expresiones humanas, para tener tiempo con el que actuar. Para ello, los investigadores desarrollando un modelo predictivo de expresión facial entrenado con un conjunto de datos de 970 vídeos de 45 participantes.

El modelo predictivo funciona a 650 fotogramas por segundo (fps), mientras que el modelo inverso ejecuta comandos de motor a 8000 fps en una MacBook Pro 2019, lo que permite al robot generar expresiones en 0,002 segundos. Según los investigadores, un análisis de matriz de confusión de 2354 comandos muestra que el modelo predice correctamente la activación en el 72,2 % de los casos, con un valor predictivo positivo del 80,5 %, lo que demuestra una sólida anticipación

Para ti
Queremos saber tu opinión. ¡Comenta!