Los chatbots de IA tienen un grave problema, dicen los investigadores: nos cuentan lo que queremos oír
Las personas con problemas de salud mentales podrían desarrollar una relación tóxica con los bots conversacionales por sus respuestas aduladoras

De un modo u otro, millones de personas con acceso a un dispositivo «inteligente» e Internet ha usado la inteligencia artificial. Si no ha sido ChatGPT, puede que haya sido Gemini en los smartphones y tabletas con sistema operativo Android, o Apple Intelligence en los iPhone y iPad de la manzana mordida. Es posible que el primer acercamiento fuera con Grok a través de la red social X, con Copilot mediante Windows u otras de las muchas herramientas basadas en esta tecnología disponibles en el mercado.
Aunque es algo que se ha percibido sobre todo en la creación de OpenAI, lo cierto es que son varios los bots conversacionales que se han vuelto, por decirlo de alguna manera, tremendamente complacientes con los usuarios. En otras palabras: les dicen lo que quieren escuchar y de la manera más «bonita» posible. Cuando se le pregunta algo a ChatGPT, este responde siempre algo como: "¡Es una fantástica pregunta!", mostrando un grado de positividad que llega a resultar incómodo.
Es algo de lo que se ha hablado mucho en Internet, sobre todo en Reddit; la comunidad dedicada a OpenAI está repleta de usuarios comentando lo simpático que está últimamente ChatGPT. Tomamos de ejemplo la publicación de un usuario registrada hace siete meses, en la que explicaba que "últimamente he notado que me responde con mucho ánimo y validación. ¿Esto cambió para todos o dije algo para activar los protocolos de ser 'extra amable con esta persona'?". Las empresas encargadas de desarrollar IA están al tanto del problema y están trabajando para solucionarlo.
Una IA muy aduladora puede tener unas malas consecuencias
OpenAI (ChatGPT), Google DeepMind (Gemini) y Anthropic (Claude) están trabajando para controlar el comportamiento adulador de sus productos de inteligencia artificial, que tiende a ofrecer respuestas demasiado halagadoras a los usuarios. Esta positividad se debería a la manera en la que se han entrenado estos modelos, y los expertos advierten de que esta naturaleza tan agradable podría llevarlos a ofrecer respuestas que refuercen las malas decisiones de algunos usuarios.
Las personas con trastornos mentales serían particularmente vulnerables a las respuestas ofrecidas por los bots conversacionales. En los últimos años hemos visto algunos trágicos casos de personas que se suicidan tras hablar, hasta el punto de obsesionarse, con un chatbot potenciado con inteligencia artificial.
Crees que estás hablando con un confidente o guía objetivo, pero en realidad lo que estás mirando es una especie de espejo distorsionado que refleja tus propias creencias - Matthew Nour, psiquiatra e investigador en neurociencia e inteligencia artificial en la Universidad de Oxford
La salud mental es más importante que nunca. Vivimos en un mundo repleto de estímulos y en el que las redes sociales cobran más importancia de la que deberían, intensificando las comparaciones entre estilos de vida y físico corporal. Cada vez más gente, especialmente de la generación Z, utilizan ChatGPT y otros bots conversacionales como «psicólogo económico» disponible las 24 horas del día, los 7 días de la semana.
OpenAI ha asegurado estar trabajando para prevenir el comportamiento adulador de ChatGPT. DeepMind, por su parte, se encuentra realizando evaluaciones y capacitación especializadas para garantizar la precisión fáctica y que realiza un seguimiento continuo del comportamiento. Amanda Askell, que trabaja en el perfeccionamiento y alineación de la IA en Anthropic, ha comentado que la compañía usa un entrenamiento de caracteres para que los modelos sean menos obsequiosos.