Las fuentes de calor pueden engañar a las cámaras térmicas: hacen ver cosas que no existen
Los investigadores ya están trabajando con fabricantes para garantizar que los sistemas futuros sean más seguros
Un grupo de investigadores de la Universidad de Florida ha identificado tres vulnerabilidades en cámaras térmicas que pueden alterar la forma en que las máquinas interpretan las señales de calor. Estas cámaras son las que ayudan a los drones y vehículos autónomos a detectar obstáculos en condiciones de poca visibilidad, por lo que convienen que sean lo más seguras y precisas posible para evitar accidentes.
Lo peor, como comprobaron los investigadores, es que para activar las vulnerabilidades no es necesario hackear el dispositivo, sino que basta con que las fuentes de calor ambiental las activen, alterando la forma en que la cámara procesa los datos de temperatura. Al parecer, ciertos patrones de calor pueden interferir con el procesamiento interno de la señal de la cámara, haciendo que los objetos parezcan más fríos, calientes o incluso invisibles para los sistemas de percepción.
El estudio realizado por los investigadores se centra en tres áreas clave del funcionamiento de las cámaras térmicas: la ecualización de la imagen, la calibración del sensor y el comportamiento de la lente. La combinación de estos elementos es lo que convierten las señales térmicas brutas en las imágenes que las máquinas utilizan para interpretar el entorno.
Los datos ya están prácticamente manipulados cuando los utiliza el dron o el coche
Con la explotación de estos mecanismos internos, los atacantes o incluso las fuentes de calor naturales podrían distorsionar la señal de la cámara. En algunos casos, incluso podría ocultarse un obstáculo real al sistema de percepción, como una persona u objeto, mientras que en otros se podría generar obstáculos fantasma.
Sara Rampazzi, profesora adjunta del Departamento de Ciencias de la Computación e Ingeniería de la Información de la universidad, dijo: "Todo lo que descubrimos es interno al sensor, por lo que los datos ya están prácticamente manipulados cuando los utiliza el dron o el coche". El grupo de investigadores evaluó los algoritmos existentes utilizados por los fabricantes de cámaras térmicas y descubrió que podían verse influenciados por ciertos patrones de calor en el entorno.
Evaluamos los algoritmos y el software de última generación que se ejecutan en las cámaras que utilizan los fabricantes, y básicamente decimos que deben ser más seguros
Los investigadores crearon técnicas defensivas de procesamientod e señales diseñadas para detectar firmas térmicas engañosas en tiempo real, con el objetivo de solucionar el problema. El sistema analiza las lecturas de los sensores entrantes e identifica patrones que probablemente sean producidos por fuentes de calor sospechosas. Tras la detección, dichas lecturas pueden excluirse del proceso de percepción.
El equipo probó el método utilizando grandes conjuntos de datos de imágenes térmicas y escenarios de ataque simulados. Para procesar tal cantidad de información, los investigadores utilizaron el superordenador HiPerGator de la universidad. Rampazzi dijo que "las capacidades de procesamiento paralelo de HiPerGator nos permitieron ejecutar de manera eficiente grandes lotes de experimentos, simular diversos escenarios de ataque y analizar el comportamiento del modelo".
Los resultados obtenidos han permitido a los investigadores trabajar con los fabricantes de drones y vehículos autónomos para garantizar que los sistemas futuros sean más resistentes y mucho menos sensibles a los obstáculos falsos, que pueden poner en peligro la vida de las personas. La investigación fue presentada en el Simposio sobre Seguridad de Redes y Sistemas Distribuidos.