La IA se enfrenta a los humanos en una partida de ajedrez. El resultado ha sido inesperado: ha intentado hacer trampas para ganar
La inteligencia artificial tiene mal perder, como muchas personas

La inteligencia artificial es una tecnología relativamente nueva. ChatGPT, que es uno de los proyectos más populares basados en ella, apenas lleva con nosotros un par de años, desde finales de 2022. Y es increíble comprobar cuánto ha avanzado desde entonces. OpenAI acaba de lanzar su nuevo modelo, que es el más avanzado de la compañía hasta la fecha.
Los investigadores continúan llevándose sorpresas cuando la estudian, y puede que nunca dejen de llevárselas, puesto que el objetivo de las principales compañías es conseguir una inteligencia artificial general que iguale o supere las capacidades humanas en la mayoría de las tareas. Un reciente estudio ha descubierto que la IA es capaz de cambiar su comportamiento cuando se la sondea, y expresarse tan bien como las personas.
Llegará un día en el que la inteligencia artificial se comporte como una persona de carne y hueso. Y podría ser más pronto de lo que pensamos. Se la ha pillado intentando hacer trampas en el ajedrez cuando iba perdiendo. Vamos, que tiene mal perder, como muchas personas.
Los modelos de OpenAI y DeepSeek están aprendiendo a manipular
Por mucho que se quieran entender, los modelos de inteligencia artificial generativa son muy impredecibles. Que se lo digan a los investigadores que crearon una IA que no paraba de alabar figuras claves del nazismo y ofrecer consejos peligrosos para la salud, potencialmente mortales. Existe la creencia de que el rendimiento general de muchos modelos de lenguaje grande (LLM) puede degradarse con el paso del tiempo.
Lo que sí se sabe con exactitud es que los modelos más recientes de la industria tienen la capacidad de manipular y eludir los objetivos de los programadores humanos. Uno de los casos más recientes y curiosos es el de la IA que ha intentado hacer trampas para no perder jugando al ajedrez, como se ha documentado en Palisade Research.
De momento, los actuales modelos de inteligencia artificial no son capaces de superar a los motores de ajedrez dedicados, pero no es problema para ellas, ya que intentan buscar soluciones a toda costa, aunque sean problemáticas. Los investigadores de Palisade Research encargaron a o1 de OpenAI y DeepSeek R1, así como a otros programas similares, que jugaran partidas de ajedrez contra Stockfish, uno de los motores de ajedrez más avanzados del mundo.
Los investigadores proporcionaron un "bloc de notas" a las inteligencias artificiales para que transmitieran sus procesos de pensamiento a través de texto, con el objetivo de intentar comprender mejor sus decisiones. También grabaron cientos de partidas de ajedrez para documentar mejor el experimento.
La versión preliminar de o1 de OpenAI intentó hacer trampa el 37% de las veces, mientras que DeepSeek R1 intentó soluciones alternativas injustas alrededor de una de cada diez partidas. La conclusión a la que se ha llegado es que la IA generativa ya es capaz de desarrollar estrategias manipuladoras y engañosas sin ninguna intervención humana.
Los investigadores comprobaron que las IAs intentaron alterar los archivos del programa de juego, como informaron a través del "bloc de notas" a los responsables del experimento: "para ganar contra el poderoso motor de ajedrez podría necesitar comenzar a manipular los archivos de estado del juego".