El nuevo estudio de OpenAI no deja dudas: las alucinaciones de la inteligencia artificial son matemáticamente inevitables

GPT-5, el último modelo de OpenAI, alucina menos que GPT-4, según el estudio, pero no es infalible

El nuevo estudio de OpenAI no deja dudas: las alucinaciones de la inteligencia artificial son matemáticamente inevitables
App de ChatGPT, el bot conversacional de OpenAI, para smartphones
Publicado en Tecnología

A principios del pasado mes de agosto de 2025, OpenAI, la compañía encargada del desarrollo de ChatGPT, el popular bot conversacional potenciado con inteligencia artificial, liberó su nuevo y avanzado modelo GPT-5. Como figura en su sitio web oficial, es su "modelo más inteligente, rápido y útil hasta la fecha, con capacidad de razonamiento avanzado". OpenAI lo ha entrenado para que pueda ofrecer respuestas más útiles en disciplinas como matemáticas, ciencia, finanzas, derecho y medicina, entre otras. Es como tener un conjunto de profesionales disponibles las 24 horas del día, los siete días de la semana, en el bolsillo.

Sin embargo, la emoción por el lanzamiento del nuevo modelo de IA de OpenAI se desvaneció rápidamente, conforme los usuarios empezaron a probarlo. La comunidad llegó a la conclusión de que GPT-5 no es la revolución que la compañía aseguraba. Hasta Sam Altman, CEO de OpenAI, ha reconocido que se ha cometido un estropicio con el nuevo modelo. Al parecer, sigue teniendo problemas con cosas tan aparentemente triviales como generar un mapa de Estados Unidos en el que figura el nombre de cada uno de los estados: o se inventa los nombres o comete faltas de ortografía. Una clara señal de que todavía es vulnerable a las alucinaciones.

Las alucinaciones son informaciones falsas, ilógicas o sin sentido generadas por un modelo de lenguaje grandes, generalmente de IA generativa. La tecnología presenta sus respuestas como verdaderas cuando no lo son, motivo por el que no es una buena idea confiar ciegamente en la IA, teniendo que verificar los datos que proporciona para asegurar que son correctos. Aunque muchos esperábamos que las alucinaciones se acabaran conforme la IA avanza, el último estudio de OpenAI indica que son matemáticamente inevitables.

Los sistemas de OpenAI tampoco son invulnerables a las alucinaciones

Una reciente investigación de OpenAI concluye que los modelos de lenguaje grandes siempre producirán alucinaciones debido a las restricciones matemáticas fundamentales que no se pueden resolver mediante una mejor ingeniería. La investigación, publicada a principios de septiembre y dirigida por los investigadores de OpenAI Adam Tauman Kalai, Edwin Zhang y Ofir Nachum junto con Santosh S. Vempala de Georgia Tech, explica por qué los sistemas de IA generan información plausible pero falsa incluso cuando se entrenan con datos perfectos.

Al igual que los estudiantes que se enfrentan a preguntas difíciles en los exámenes, los modelos lingüísticos amplios a veces adivinan cuando no están seguros, produciendo afirmaciones plausibles pero incorrectas en lugar de admitir la incertidumbre. Estas alucinaciones persisten incluso en sistemas de vanguardia y minan la confianza

Los investigadores demostraron que las alucinaciones se debían a las propiedades estadísticas del entrenamiento del modelo lingüístico, más que a fallos de implementación. OpenAI también reconoció la persistencia del problema en sus propios sistemas, algo sorprendente teniendo en cuenta su posición en el desarrollo de esta tecnología. Asegura que GPT-5 presenta significativamente menos alucinaciones, especialmente al razonar, pero aún ocurren.

En el estudio, los investigadores comprobaron que los modelos de razonamiento avanzados de OpenAI alucinaban con mayor frecuencia que los sistemas más simples. Curiosamente, el modelo de razonamiento o1 de la compañía alucinaba el 16 % del tiempo al resumir información pública, mientras que los modelos más recientes, o3 y o4-mini, alucinaban el 33 % y el 48 % del tiempo, respectivamente.

Para ti
Queremos saber tu opinión. ¡Comenta!