OpenIA sigue con su misión de hacerte la vida más fácil. ¿Pero puede una IA realmente razonar?
ChatGPT-5 llegará para cambiarlo todo.

Hace apenas un par de años, ChatGPT aparecía como un experimento curioso, una especie de juguete de laboratorio que, sin pretenderlo, se convirtió en uno de los productos tecnológicos de más rápido crecimiento de la historia, que ahora están incluso planteando la creación de un buscador propio tratando de desbancar al gigante de Google. Pero mientras el mundo entero quedaba perplejo con su capacidad para responder preguntas o escribir textos con una sorprendente fluidez, en las entrañas de OpenAI un pequeño equipo trabajaba en algo mucho más ambicioso: enseñar a las máquinas a pensar. O, al menos, a parecer que piensan.
Este pequeño grupo se llama MathGen, y su misión es aparentemente sencilla: mejorar la capacidad de los modelos de OpenAI para resolver problemas matemáticos de nivel bachillerato. Pero detrás de esa tarea concreta se escondía un objetivo mucho mayor: desarrollar modelos de razonamiento artificial que pudieran enfrentarse a tareas complejas, no simplemente imitar respuestas.
Hunter Lightman, uno de los investigadores implicados, lo explica sin rodeos: al principio, los modelos de IA eran torpes con las matemáticas. Así que se pusieron manos a la obra, y lo que empezó como un reto académico terminó convirtiéndose en el germen de una revolución tecnológica. Porque la mejora en razonamiento matemático dio lugar al nacimiento de o1, el primer modelo de razonamiento avanzado de OpenAI, capaz de lograr incluso una medalla de oro en la Olimpiada Internacional de Matemáticas, compitiendo contra los cerebritos más brillantes del mundo.

Hunter Lightman, uno de los desarrolladores implicados en MathGen
De las mates al “razonamiento artificial”
Pero ¿qué significa exactamente que una IA “razone”? Según los propios investigadores, la respuesta no es tan clara. Algunos, como El Kishky, lo ven desde la informática pura: si el modelo sabe usar eficientemente su capacidad de cómputo para llegar a una respuesta, entonces está razonando. Otros, como Lightman, prefieren un enfoque pragmático: si consigue hacer cosas difíciles, da igual cómo lo logre, podemos decir que razona.
Más allá del debate filosófico, lo que está claro es que el desarrollo de o1 y sus sucesores ha cambiado las reglas del juego. Estas IAs no solo responden con más precisión: ahora “piensan” sus respuestas, se equivocan, corrigen, vuelven atrás... y todo esto gracias a técnicas como el “chain-of-thought”(cadena de pensamiento), que permiten a los modelos explicarse a sí mismos paso a paso, al punto de comparar estas IAs al nivel de doctorados.
La clave de todo esto está en el aprendizaje por refuerzo (RL), una técnica conocida desde hace años —ya se usó para que AlphaGo venciera al campeón mundial de Go en 2016— pero que OpenAI ha combinado con otras innovaciones para dar el salto cualitativo. Entre ellas destaca la computación en tiempo de prueba, que permite al modelo “pararse a pensar” antes de dar una respuesta. Es decir, no se lanza a soltar lo primero que se le ocurre, como hacían antes muchos chatbots.
Todo este avance ha sido posible gracias a una política interna muy clara: si un equipo de investigación demuestra que su idea funciona, se le dan los recursos para llevarla al máximo. Así nació Strawberry, luego o1, y ahora los agentes de IA que pretenden cambiarlo todo.
¿Y qué pinta tiene el futuro?
La gran promesa es que, en no mucho tiempo, le pedirás a tu ordenador que reserve un vuelo, redacte un informe, te busque la mejor tarifa de internet o te organice un viaje de fin de semana... y todo se hará solo, sin que tú tengas que abrir una sola pestaña del navegador. Así lo imagina Sam Altman, CEO de OpenAI: una especie de asistente personal digital que sepa lo que quieres y cómo lo quieres.

Sam Altman, ceo de OpenAI.
Pero no es tan fácil. Hoy en día, los agentes de IA funcionan razonablemente bien en tareas objetivas y cerradas, como programar o resolver ecuaciones. Ahí tienes a Codex, que ayuda a los desarrolladores con tareas rutinarias, o a Claude Code, que se ha hecho muy popular entre quienes usan la IA para escribir código. El problema llega con las tareas más subjetivas: hacer la compra online, buscar aparcamiento barato en una ciudad o encontrar el mejor colegio para tu hijo. Ahí los agentes aún patinan: son lentos, se equivocan, o simplemente no entienden bien lo que les pides.
Lightman lo resume con una frase clara: “es un problema de datos”. Para entrenar modelos en tareas subjetivas, hace falta encontrar la forma de enseñarles sin tener respuestas claramente correctas o incorrectas. Pero OpenAI ya está experimentando con nuevas técnicas que permiten generar múltiples respuestas, compararlas entre sí y elegir la mejor.
Estos avances requieren una inversión brutal en talento (Meta ha fichado a varios de los investigadores clave de OpenAI con cheques de más de 100 millones de dólares) y en potencia de cálculo. Además, el desarrollo no es solo técnico: hay cuestiones éticas, sociales y de privacidad aún por resolver. Y, por si fuera poco, la competencia aprieta. Google, xAI, Anthropic y Meta también están desarrollando sus propios agentes, y la carrera por liderar la próxima era de la IA está más abierta que nunca.
¿Puede una máquina razonar como un humano? Aún queda camino. Pero lo que sí puede es resolver problemas complejos, detectar errores, corregirse a sí misma y aprender de cada intento. Y eso, en la práctica, se parece mucho a pensar. Mientras tanto, nosotros, los usuarios, asistimos como testigos, víctimas, beneficiarios y protagonistas de una transformación que apenas comienza. Porque si los modelos como o1 son el primer paso... lo que viene con GPT-5 puede ser aún más asombroso.