Microsoft y el MIT crean un sistema que detecta puntos ciegos en la IA de coches autónomos

La idea de los investigadores es que estos sistemas se utilicen en el futuro para vehículos y robots autónomos.

Microsoft y el MIT crean un sistema que detecta puntos ciegos en la IA de coches autónomos
El MIT y Microsoft han diseñado un sistema que encuentra los fallos en la IA de coches autónomos. MIT News

El MIT suele estar detrás de los proyectos innovadores que nos sorprenden cuando salen a la luz. En relación al transporte, este centro ya mostró su potencial al crear el primer avión que podía volar sin partes móviles, aunque ahora ha cambiado de medio y se ha centrado en el coche autónomo.

Con la ayuda de Microsoft, el Instituto Tecnológico de Massachusetts ha desarrollado un sistema que detecta aquellas situaciones en las que la IA de un coche autónomo aún no sabe comportarse. Aunque aún no esté completamente desarrollado, este modelo ayudaría a mejorar notablemente la seguridad de estos vehículos.

Un sistema para detectar puntos ciegos en la IA

Pese a su apuesta a lo grande por la Inteligencia Artificial, en el Instituto Tecnológico de Massachusetts (MIT) saben muy bien que este tipo de tecnologías también puede cometer graves fallos, especialmente si hablamos de aquellas integradas en coches autónomos.

Para aumentar la seguridad y evitar problemas en el tráfico, el MIT y Microsoft han trabajado de forma conjunta para crear un sistema que detecte esos puntos ciegos en la IA de los coches sin conductor. Según ha explicado el centro, este modelo identifica las situaciones en los que la IA, por su aprendizaje, va a actuar de forma diferente a la que debería.

Las Inteligencias Artificiales de los coches autónomos son entrenadas con simuladores virtuales que les enseñan a actuar en casi todos los casos que le pueden suceder en la carretera. Sin embargo, en algunas ocasiones entran en juego factores desconocidos que provocan que estos sistemas inteligentes no sepan reaccionar.

El siguiente paso es integrar el modelo de detección en los métodos tradicionales de entrenamiento de la IA

Para que entendamos algunas situaciones de ese tipo, el MIT nos pone como ejemplo la aparición de una ambulancia en la carretera. Si un coche autónomo no ha sido entrenado para detectar la presencia de un vehículo con urgencia, es muy posible que la IA no sepa que tiene que detenerse o apartarse del carril para dejar pasar al coche con sirenas y luces rojas.

Aquí es donde aparece el sistema creado por los investigadores del MIT y Microsoft. Según explicaron los mismos en unos documentos presentados en la International Conference on Autonomous Agents and Multiagent Systems y en la conferencia de Association for the Advancement of Artificial Intelligence, el modelo desarrollado puede identificar esos puntos ciegos en el trabajo de la IA.

Un entrenamiento guiado por los errores de la IA

La explicación del método empleado para crear este modelo nos acerca un poco más al funcionamiento del mismo. Al igual que ocurre con la Inteligencia Artificial de los coches autónomos, los investigadores entrenaron a su sistema con simulaciones virtuales.

Los investigadores solo han probado el comportamiento de este sistema con videojuegos

Uno de los expertos se encargaba de vigilar de cerca el comportamiento del modelo para darle retroalimentación cuando este cometía o estaba a punto de cometer algún fallo. Una vez realizada esa ayuda, los investigadores solo tuvieron que combinar los datos obtenidos del comportamiento de la tecnología con aquellos relacionados con la intervención humana.

Utilizando técnicas de aprendizaje automático, el MIT y Microsoft crearon un modelo que sabe identificar esas ocasiones en las que el sistema necesita más información para actuar de la forma correcta. Por ejemplo, este modelo sabría detectar que la tecnología no sabe qué hacer ante la aparición de una ambulancia con sirenas.

Aún queda duro trabajo por delante

Por el momento solo podemos afirmar que esta tecnología es prometedora, ya que aún está en las fases iniciales de desarrollo. Sus autores ya han probado su funcionamiento con videojuegos en los que el humano simulado corregía el camino del personaje.

Julie Shah, profesora asociada del Departamento de Aeronáutica y Astronáutica y jefa del Grupo de Robótica Interactiva de CSAIL; Ece Kamar, Debadeepta Dey y Eric Horvitz, todos de Microsoft Researchy Besmira Nushi son los coautores de este interesante trabajado. En la autoría principal está Ramya Ramakrishnan, un estudiante graduado en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial, que ha declarado lo siguiente:

El modelo ayuda a los sistemas autónomos a saber mejor lo que no saben. Muchas veces, cuando se implementan estos sistemas, sus simulaciones entrenadas no coinciden con la configuración del mundo real [y] podrían cometer errores, como meterse en accidentes. La idea es usar a los humanos para cerrar esa brecha entre la simulación y el mundo real, de manera segura, para que podamos reducir algunos de esos errores.

Los investigadores ya piensan en las próximas fases de la vida de este modelo, que pasarían por integrarlo en los métodos tradiciones de aprendizaje de los sistemas de coches y robots autónomos. Así, está claro que aún queda lo más importante para comprobar su utilidad: implantarlo en coches autónomos reales.

Actualmente, la Inteligencia Artificial de estos vehículos sabe cuándo ha hecho algo mal, pero no el por qué. Además, aún tiene problemas cuando se encuentra con una circulación a alta velocidad o condiciones metereológicas adversas como la nieve. Al enseñarle a comportarse en esos casos, el modelo del MIT aumentaría la inteligencia de esos sistemas y la seguridad de los mismos gracias a la intervención humana en el aprendizaje.

Para ti
Queremos saber tu opinión. ¡Comenta!