GPT-5: ¿El modelo "universal" se quedó a medias?

Usarios piden a gritos que vuelva GPT-4o

GPT-5: ¿El modelo "universal" se quedó a medias?
Publicado en Tecnología
Por por Alex Verdía

Todo parecía perfecto sobre el papel. La semana pasada, OpenAI lanzó GPT-5 con un discurso triunfalista: "Adiós a los menús complicados, hola a la IA que elige por ti". La idea era brillante —un sistema inteligente que, como un mayordomo digital, decidiera automáticamente si tu pregunta necesitaba una respuesta rápida ("Fast"), reflexiva ("Thinking") o equilibrada ("Auto")—. Pero la realidad ha sido un poco diferente. En apenas unos días, OpenAI ha tenido que rectificar: los usuarios se quejan de que el "router" de GPT-5 no funcionaba bien, añoran modelos antiguos como GPT-4o y, para colmo, la supuesta "unificación" se ha convertido en un menú de opciones igual de complejo que antes.

Los problemas de ChatGPT-5

El sistema prometía seleccionar automáticamente el mejor modo para cada pregunta, y Sam Altman, CEO de OpenAI, habló de su búsqueda de la IA que realmente razonase. Pero ya en un primer momento no razonó como era de esperar. Muchos usuarios recibían respuestas lentas para consultas simples o demasiado superficiales para temas complejos. Hasta Sam Altman reconoció en Reddit que "el lanzamiento no fue perfecto".

La solución temporal: añadir los modos "Fast", "Thinking" y "Auto" manualmente. En otras palabras, volver al lío de elegir. "Parece que la IA ‘universal’ aún necesita muletas humanas", bromeó un usuario en X. OpenAI cometió un error inesperado: subestimar el cariño de los usuarios por modelos antiguos. Cuando retiraron GPT-4o y otros, las redes estallaron en protestas. "GPT-4o era más cálido", "Extraño sus respuestas sarcásticas", se leía en foros.

También Altman admitió que están "ajustando" el tono de GPT-5: "Que sea cálido, pero no tan irritante como GPT-4o". El problema es que lo que para unos es "agradable", para otros es "falso". Un usuario resumió el desafío: "Quieren contentar a todos, y al final no contentan a nadie".

GPT-5 no es un fracaso, pero sí un recordatorio de que la IA perfecta no existe. La compañía ha aprendido tres lecciones: los usuarios quieren control, por eso han recuperado modelos antiguos y opciones manuales; la personalidad importa más de lo que creían; y por último, las expectativas son un arma de doble filo. Tras el salto de GPT-4, muchos esperaban otro milagro.

Probablemente, más experimentos hasta generar el modelo que más se ajuste a la mayoría de usuarios. Altman ya avisó: "No siempre acertamos a la primera, pero iteramos rápido". Mientras, los usuarios seguirán debatiendo si prefieren velocidad, profundidad o ese toque "humano" que, por ahora, ninguna IA logra imitar del todo.

Para ti
Queremos saber tu opinión. ¡Comenta!