Un sistema de seguridad con IA confunde una bolsa de Doritos con un arma en un instituto de EEUU

El incidente reabre el debate sobre la fiabilidad de los sistemas de vigilancia automatizados en centros educativos.

Un sistema de seguridad con IA confunde una bolsa de Doritos con un arma en un instituto de EEUU
Publicado en Tecnología
Por por Alex Verdía

La promesa de que la inteligencia artificial puede hacer las escuelas más seguras se ha topado con una demostración de sus límites. En el Kenwood High School, en el condado de Baltimore (Maryland), un estudiante fue esposado y registrado después de que un sistema de seguridad con IA identificara erróneamente una bolsa de Doritos como si fuera un arma de fuego. El incidente, ampliamente difundido en medios locales, reaviva el debate sobre la fiabilidad de los sistemas automatizados de vigilancia en espacios educativos.

Cuando la IA ve peligro donde no lo hay

El estudiante, Taki Allen, explicó a la cadena afiliada de CNN WBAL que todo comenzó cuando sostenía una bolsa de patatas con ambas manos. “Solo tenía la bolsa de Doritos (eran dos manos y un dedo extendido) y dijeron que parecía un arma”, relató. En cuestión de minutos, Allen fue obligado a arrodillarse, colocar las manos detrás de la espalda y ser esposado por agentes de seguridad.

Según el comunicado oficial de la directora del centro, Katie Smith, el sistema de detección activó una alerta automática de presencia de arma. Aunque el departamento de seguridad del instituto revisó la alerta y la canceló, Smith, sin saber aún que había sido invalidada, informó del aviso al oficial de recursos escolares, quien a su vez notificó a la policía local. Fue entonces cuando se produjo la intervención contra el estudiante.

El sistema responsable pertenece a la empresa Omnilert, especializada en soluciones de vigilancia con inteligencia artificial. La compañía expresó su pesar por lo ocurrido: “Lamentamos que este incidente haya ocurrido y deseamos transmitir nuestra preocupación al estudiante y a la comunidad afectada por los hechos”, señaló un portavoz en declaraciones a CNN. A pesar de ello, la empresa sostuvo que “el proceso funcionó según lo previsto”.

Esta afirmación ha generado una fuerte polémica, pues sugiere que el sistema actuó correctamente al identificar una posible amenaza, aunque el resultado fuera un error grave. Según expertos en ética tecnológica y seguridad, la respuesta evidencia una dependencia excesiva en decisiones algorítmicas en contextos donde la precisión es crítica y las consecuencias humanas, profundas.

Los sistemas de detección de armas basados en IA analizan imágenes de cámaras en tiempo real para identificar patrones visuales compatibles con la forma de un arma de fuego. En teoría, esta tecnología debería complementar la labor humana, filtrando solo los casos sospechosos. En la práctica, sin embargo, su rendimiento depende en gran medida del entrenamiento de los modelos y la calidad de los datos utilizados. Objetos cotidianos (como paraguas, teléfonos, herramientas o, en este caso, una bolsa de patatas) pueden generar falsos positivos si la IA no ha sido expuesta a una diversidad suficiente de ejemplos.

La situación cobra especial gravedad en entornos escolares, donde la sensibilidad ante posibles amenazas es máxima y los protocolos de seguridad tienden a sobrerreaccionar ante cualquier indicio. Para muchos críticos, este caso demuestra que la implantación apresurada de tecnologías de vigilancia automatizada puede poner en riesgo los derechos y la seguridad emocional de los propios estudiantes.

A la espera de una investigación más profunda, la dirección del Kenwood High School ha asegurado que revisará sus procedimientos internos y que ofrecerá apoyo al alumno afectado. Pero el daño reputacional ya está hecho. El suceso se suma a una larga lista de errores de identificación cometidos por sistemas de IA (desde software de reconocimiento facial que confunde rostros, hasta algoritmos de seguridad que interpretan objetos inocentes como amenazas letales) y subraya una advertencia cada vez más urgente: la inteligencia artificial no sustituye al juicio humano, especialmente cuando hay vidas o dignidad en juego.

Para ti
Queremos saber tu opinión. ¡Comenta!