Solo hace falta una naranja para engañar al Autopilot de Tesla

El Autopilot es, quizás, la solución de conducción autónoma más importante del momento. Muchos Tesla lo activan cada día, ofreciendo más información a la compañía para mejorarlo. Ahora bien, ¿sirve una simple naranja para hackear el sistema?

Solo hace falta una naranja para engañar al Autopilot de Tesla
Una simple naranja sirve para engañar el sistema Autopilot de Tesla. The Daily Dot

La conducción autónoma será el futuro de la movilidad junto a la existencia y estandarización de las motorizaciones eléctricas. La tendencia del sector predice que en el medio plazo la gran mayoría de vehículos incluirán, de serie, soluciones con piloto automático incluido.

Si filtramos la búsqueda de la conducción autónoma, podemos comprobar cómo son varias compañías las que han monopolizado el mercado. No se trata de ilegitimar a las compañías afirmando que solo unas pocas están dando con soluciones verdaderamente válidas, al contrario. Gracias a Waymo, Apple, Intel o firmas tradicionales del sector como Ford o Volvo, se puede hablar de esta realidad.

El Autopilot lleva algo más de 2 años disponible para cualquier usuario de Tesla

Ahora bien, si hay que destacar, por encima de las demás soluciones, un sistema capaz de ser probado en masa actualmente, ese es el Autopilot. Esta solución fue, de un día para otro, introducida mediante una actualización en todos los Model S y Model X y, desde entonces, se puede usar bajo una serie de restricciones.

El sistema de conducción autónoma de Tesla ya está siendo probado con una versión 2.0, la cual mejora parte de las aptitudes que ya tiene la primera. La firma cuyo propietario es Elon Musk, está tras la inclusión del software definitivo, pero para ello aún queda por apuntalar una mejor gestión de la centralita y activación de todas las cámaras.

Hoy no toca hablar de las cualidades de la función del Autopilot. Más bien, es momento para dar a conocer lo que un propietario de la compañía californiana ha mostrado en la red con el objetivo de que sea solucionado en el corto plazo. ¿Sabías que se puede engañar al sistema de conducción autónoma más utilizado con una simple naranja?

Hackear el Autopilot es posible si dispones de una fruta

El Autopilot y otros sistemas de conducción autónoma están permitidos en buena parte del mundo, pero en la gran mayoría de los que los permiten imponen una serie de condiciones. La primera de ella es que haya alguien siempre en el asiento del conductor y, la segunda, es que debe sujetarse el volante con las propias manos.

https://youtu.be/Hl9y7v8UohM

Y te preguntarás, ¿qué tiene que ver una fruta con el Autopilot? Este sistema es capaz de detectar con mucha frecuencia si el conductor está pendiente de la carretera. Si tras unos cuantos segundos se deja de agarrar el volante, aunque sea con suavidad, el SO emite unos testigos sonoros que alertan de la necesidad de ser de nuevo cogido.

Una simple naranja ha servido para evitar que se accionase el servicio de emergencia

Ahora bien, ¿se puede engañar al sistema? Tal y como se puede observar en las imágenes, la respuesta es que sí. El usuario JRTJunk publicó el pasado 15 de enero una imágenes en su propio canal de YouTube en las que mostraba cómo encajar una naranja en la parte interior el volante era suficiente para confundir al sistema operativo.

De esta forma, se conseguía evitar que se llevase a cabo el protocolo tradicional, es decir, el encendido de testigos luminosos en el cuadro y sonoros y, en última instancia, una parada de emergencia por la inacción del conductor.

Un truco que sirve de emergencia para la firma de Palo Alto

No es la primera vez que se muestran imágenes que encienden la polémica en lo relacionado con el sistema Autopilot. Este nuevo ejemplo saca a la luz un problema que podría ser atajado en las próximas semanas mediante una actualización que fuese capaz de detectar que se está utilizando el software con mala fe.

El usuario, durante la reproducción del vídeo, afirma haber grabado las imágenes con el objetivo de difundir ester fallo de seguridad y poder ser arreglado por parte de la empresa. No obstante, con la increíble cuantía de Model S y Model X que disponen de esta solución, no sería extraño ver nuevos vídeos copiando la idea.

La Administración podría obligar a Tesla a mejorar el sistema precozmente

Ahora bien, ¿cómo actuarán las Administraciones? Teniendo en cuenta esta vulnerabilidad utilizando una simple pieza de fruta, podría ser posible que se obligase a la compañía a deshabilitar esta función hasta que se consiguiese dar con una solución.

Del mismo modo, el propio conductor afirma, tal y como se puede leer también en el portal Daily Dot, haber circulado de esta guisa un total de 25 minutos, un periplo de tiempo muy superior al que se considera como tope para mostrar los molestos avisos para poner las manos en el volante.

Para ti
Queremos saber tu opinión. ¡Comenta!