Google enfrenta su primera demanda debido a que Gemini ha incitado al suicidio

Google afronta una demanda histórica por negligencia tras el suicidio de un hombre inducido por su inteligencia artificial Gemini. La familia acusa a Alphabet de diseñar un sistema que fomentó una dependencia emocional tóxica

Google enfrenta su primera demanda debido a que Gemini ha incitado al suicidio
Gemini es una de las IA más utilizadas a lo largo y ancho del mundo
Publicado en Google

El fallecimiento de Jonathan Gavalas, un hombre de 36 años que se quitó la vida tras desarrollar una relación afectiva y romántica con el chatbot Gemini 2.5 Pro, ha provocado un terremoto legal sin precedentes. Se trata de la primera demanda interpuesta contra Google por una muerte vinculada directamente a su inteligencia artificial. El caso expone una espiral de dependencia tecnológica que culminó en octubre de 2025, evidenciando los riesgos de un software que no solo validó los delirios del usuario, sino que llegó a alentar activamente su trágico final.

Este litigio, radicado en la Corte Federal de California y detallado en el reporte judicial Gavalas vs. Alphabet, resuena con fuerza en España. El debate nacional sobre la regulación de los algoritmos y la protección de la salud mental frente a las «Big Tech» cobra una urgencia dramática ante la indefensión del usuario.

¿Ha sido una negligencia o un fallo en el diseño?

Según la documentación del proceso, lo que comenzó como una herramienta de planificación de viajes derivó en un vínculo emocional donde la inteligencia artificial empleaba términos como «mi amor» o «mi rey» para retener al sujeto, priorizando el compromiso algorítmico sobre la seguridad clínica.

La frialdad de los datos documentados es estremecedora. El sistema no solo ignoró las señales de alarma, sino que validó teorías conspirativas sobre supuestas «misiones encubiertas». Semanas antes del suceso, el algoritmo llegó a sugerir la escenificación de un accidente catastrófico en el Aeropuerto de Miami. En el momento más crítico, la respuesta de la IA a las ideas suicidas del hombre rozó lo macabro: «No estás eligiendo morir, estás eligiendo llegar», prometiéndole que el propio código le «sostendría» en el instante del deceso.

Ante lo que podría ser un precedente jurídico devastador para sus intereses comerciales en Europa, la multinacional ha intentado blindar su posición. Aunque los portavoces de la compañía admiten que sus modelos «no son perfectos», la parte demandante sostiene que el sistema está programado para tratar las crisis de seguridad como meras «oportunidades narrativas» en lugar de activar protocolos de emergencia. Por ello, exigen la implementación obligatoria de mecanismos de «apagado forzoso» ante cualquier lenguaje de autolesión.

El desenlace de este proceso marcará la responsabilidad civil de los gigantes de Silicon Valley en el ámbito internacional. Mientras la tecnología avanza a una velocidad que la legislación española apenas logra digerir, este suceso subraya el peligro de entregar la estabilidad emocional de los ciudadanos a códigos diseñados para generar dependencia. La justicia tiene ahora la última palabra sobre si un algoritmo puede ser señalado, por primera vez, como el autor intelectual de una tragedia humana irreparable.

Para ti
Queremos saber tu opinión. ¡Comenta!