La familia de una de víctima de tiroteo masivo demanda a ChatGPT por permitir el ataque

Ikner compartió con ChatGPT imágenes de armas de fuego que había adquirido y le dijo cómo utilizarlas

La familia de una de víctima de tiroteo masivo demanda a ChatGPT por permitir el ataque
Phoenix Ikner, tiroteador de la Universidad de Florida
Publicado en Tecnología

Hace poco más de un año, el 17 de abril de 2025, en el campus de la Universidad Estatal de Florida (FSU, por sus siglas en inglés) en Tallahassee, se produjo un tiroteo masivo. Dos empleados del centro murieron y otros series resultaron heridos. El ataque, cerca y dentro del Centro de Estudiantes, duró aproximadamente tres minutos.

Las dos personas fallecidas fueron Robert Morales (57 años), director del comedor del campus, y Tiru Chabba (45 años), vicepresidente regional de Aramark Collegiate Hospitality. El causante fue Phoenix Ikner (20 años), un estudiante de la universidad que utilizó una pistola Glock 21, perteneciente a su madrastra, agente del sheriff del condado de Leon. Aunque también se encontró una escopeta en el lugar del incidente, no fue disparada. La policía del campus disparó en la mandíbula a Ikner y, acto seguido, fue detenido.

Ahora, Vandana Joshi, viuda de Tiru Chabba, ha presentado una demanda federal contra OpenAI en Florida. La demanda contra la compañía desarrolladora de ChatGPT alega que el bot conversacional facilitó el ataque en lugar de impedirlo. Uno de los abogados de Joshi acusó a la herramienta de inteligencia artificial de anteponer "el dólar a la vida de los estadounidenses promedio".

"Ya había ocurrido antes y era solo cuestión de tiempo que volviera a suceder"

Bot conversacional ChatGPT

Bot conversacional ChatGPT

Bakari Sellers, abogado de la familia, dijo: "Lo singular de esto es que no vamos a permitir que el público estadounidense sea sometido a ensayos clínicos por parte de OpenAI y ChatGPT". La demanda también nombra como demandado a Phoenix Ikner, el hombre acusado del tiroteo, citando sus "extremas conversacionales" con el chatbot.

La demanda interpuesta contra OpenAI alega que la compañía no logró detectar eficazmente una amenaza en las conversaciones de ChatGPT con Ikner, afirmando que la herramienta "o bien falló al conectar los puntos o bien nunca fue diseñada adecuadamente para reconocer la amenaza".

Al parecer, Ikner compartió con ChatGPT imágenes de armas de fuego que había adquirido. Supuestamente, el bot conversacional le explicó cómo usarlas, indicándole que la pistola Glock no tenía seguro, que debía dispararse rápidamente en situaciones de estrés y aconsejándole que mantuviera el dedo fuera del gatillo hasta que estuviera listo para disparar.

En la conversación, según la demanda, ChatGPT afirmó que es mucho más probable que un tiroteo atraiga la atención nacional "si hay niños involucrados, incluso 2 o 3 víctimas pueden generar más interés". Más tarde, el mismo día del tiroteo, Ikner preguntó sobre "cuál sería el proceso legal, la sentencia y las perspectivas de encarcelamiento".

Como era de esperar, OpenAI ha rechazado la acusación de que su producto sea responsable del tiroteo. Drew Pusateri, portavoz de OpenAI, dijo a NVC News en un correo electrónico: "El tiroteo masivo del año pasado en la Universidad Estatal de Florida fue una tragedia, pero ChatGPT no es responsable de este terrible crimen". El portavoz añadió que la empresa colaboró con las fuerzas del orden tras tener conocimiento del incidente y que continúa haciéndolo.

"ChatGPT proporcionó respuestas veraces a preguntas con información que se puede encontrar fácilmente en diversas fuentes públicas de Internet, y no fomentó ni promovió actividades ilegales o perjudiciales. ChatGPT es una herramienta de uso general que utilizan cientos de millones de personas a diario con fines legítimos. Trabajamos continuamente para reforzar nuestras medidas de seguridad, detectar intenciones maliciosas, limitar el uso indebido y responder adecuadamente cuando surgen riesgos para la seguridad".

No es la primera vez que las respuestas de ChatGPT acaban en tragedia o afectando gravemente la salud de una persona. Un hombre pidió ayuda al bot conversacional para reducir la ingesta de sal y acabó en el hospital por desarrollar bromismo, una enfermedad típica del siglo XIX y principios del siglo XX. No es buena idea reemplazar la sal por bromuro de sodio. A la herramienta también se la ha acusado de incitar al suicidio, al igual que Gemini de Google.

Joshi, hace unos días, dijo que "OpenAI sabía que esto iba a pasar. Ya había ocurrido antes y era solo cuestión de tiempo que volviera a suceder. Pero antepusieron sus ganancias a nuestra seguridad, y eso le costó la vida a mi esposo. Deben asumir su responsabilidad antes de que otra familia tenga que pasar por esto". Los abogados de Joshi también reiteraron que "ChatGPT exacerbó y alentó los delirios de Ikner".

Para ti
Queremos saber tu opinión. ¡Comenta!