Google nos enseña el abismo: las conversaciones de ChatGPT más vergonzosas
En Google Search Console se podían encontrar consultas «extrañas», a veces de más de 300 caracteres
Pocas herramientas han ganado tantos adeptos en tan poco tiempo como ChatGPT. El bot conversacional de OpenAI vio la luz a finales de 2022, y desde entonces se ha convertido en uno de los servicios imprescindibles de cientos de millones de personas en todo el mundo (en septiembre de 2025, la compañía informó de que tenía más de 700 millones de usuarios activos semanales).
La razón de que ChatGPT tenga tanto éxito es su versatilidad. El chatbot puede hacer multitud de cosas: desde generar texto creativo hasta responder preguntas, pasando por resumir información, traducir idiomas, ayudar con tareas de programación, analizar datos y hasta crear planes de viaje personalizados. En otras palabras: si sigue mejorando, podría llegar a reemplazar muchísimos puestos de trabajo.
Otro de los usos más populares de ChatGPT (y que desde Urban Tecno no recomendamos) es convertirlo en psicólogo. La generación Z ha encontrado en él un terapeuta asequible que está disponible las 24 horas del día, los 7 días de la semana. No solo no es peligroso seguir los consejos de una inteligencia artificial, sino que no se le debería tampoco proporcionar detalles personales ni muy sensibles, porque nunca se sabe dónde podrían acabar.
Un portavoz de OpenAI afirma que la compañía ya ha resuelto un fallo que afecta a un "pequeño número de consultas de búsqueda"

ChatGPT, el bot conversacional de OpenAI
Google Search Console (GSC) es una herramienta gratuita proporcionada por Google (como bien indica su nombre) que permite a los propietarios de sitios web supervisar, gestionar y solucionar problemas de visibilidad en la Búsqueda de Google. Ayuda a entender cómo el buscador ve el sitio web, a corregir errores de indexación y a mejorar el rendimiento general.
Al parecer, durante meses, muchas conversaciones personales de ChatGPT se han estado filtrando en GSC. Lo normal cuando los administradores acceden a la herramienta es ver las consultas basadas en palabras clave o frases cortas que los internautas escriben en Google para encontrar cierto contenido. Sin embargo, desde septiembre, también se pueden encontrar en Google Search Console consultas «extrañas», a veces de más de 300 caracteres.
Si bien las conversaciones solo muestran lo que escriben los usuarios, muchas reflejan lo que ya se sabía: bastante gente utiliza el bot conversacional como ayuda o guía para solucionar problemas personales o comerciales. No esperaban que sus confesiones acabaran siendo reveladas a todo el mundo digital. Uno de los primeros en darse cuenta del problema fue Jason Packer, propietario de la consultora de análisis Quantable.
Packer, decidido a descubrir la causa exacta de las filtraciones, se asoció con Slobodan Manić, experto en ciberseguridad y consultor de optimización web. Juntos realizaron varias pruebas, las cuales les sirvieron para llegar a "la primera prueba definitiva de que OpenAI extrae directamente datos de la Búsqueda de Google con consultas reales de los usuarios".
La investigación parece que confirma que la empresa de IA (una de las más importantes del sector) estaba comprometiendo la privacidad de los usuarios. A pesar del descubrimiento, OpenAI no ha querido comentar nada al respecto de la teoría, pero un portavoz sí ha confirmado que estaba "al tanto" del problema y que ya ha "resuelto" un fallo "que afectó temporalmente la forma en que se enrutaba un pequeño número de consultas de búsqueda".