Sam Altman se queja de ya no distingue entre humanos y bots en las redes sociales

El CEO de OpenAI cree que Reddit y X se sienten más falsos que nunca, mientras crecen las sospechas de astroturfing y automatización masiva.

Sam Altman se queja de ya no distingue entre humanos y bots en las redes sociales
Publicado en Tecnología
Por por Alex Verdía

El lunes, Sam Altman, CEO de OpenAI, compartió una reflexión que nadie de la comunidad tecnológica se esperaba viniendo de él: afirmó que ya no puede distinguir si las publicaciones en redes sociales provienen de personas reales o de bots. La epifanía le llegó al navegar por r/Claudecode, un subreddit repleto de mensajes de supuestos usuarios que aseguran haber cambiado de Claude Code a OpenAI Codex, la herramienta de programación lanzada en mayo para competir con Anthropic.

Aunque reconoce que el crecimiento de Codex es genuino, Altman confesó en X que percibe esas publicaciones como artificiales. En un ejercicio de autocrítica, analizó las razones: la adopción de “tics de lenguaje de modelos de IA” por parte de los humanos, la forma en que los usuarios hiperconectados terminan pareciéndose entre sí, los incentivos económicos de las plataformas y el astroturfing (estrategia en la que compañías pagan a personas o bots para aparentar un apoyo masivo a un producto).

El comentario tiene un matiz irónico: los LLM, incluidos los de OpenAI, fueron creados precisamente para imitar la comunicación humana, y entrenaron con ingentes cantidades de datos de foros como Reddit, donde Altman fue accionista hasta 2022. Ahora, el propio CEO admite que la línea que separa lo humano de lo artificial se ha vuelto casi invisible.

Bots, astroturfing y la sospecha permanente

La sospecha de Altman llega en un momento en que los usuarios de Reddit y X muestran creciente desconfianza hacia las plataformas. Tras el lanzamiento de GPT-5.0, muchos foros se llenaron de quejas: los usuarios criticaron desde la “frialdad” de la nueva personalidad del modelo hasta la forma en que consumía créditos sin completar tareas. El malestar fue tal que Altman participó en un AMA en r/GPT para admitir errores y prometer mejoras. Sin embargo, la comunidad nunca recuperó su entusiasmo inicial.

¿Son esas críticas auténticas o fabricadas? Altman dejó entrever que podrían ser manipuladas, aunque sin pruebas concretas. La realidad es que el problema de los bots va mucho más allá de OpenAI: en 2024, la firma de ciberseguridad Imperva estimó que más de la mitad del tráfico de internet fue generado por máquinas, gran parte de ellas impulsadas por modelos de lenguaje. Incluso X admite que existen “cientos de millones de bots” activos en su plataforma.

Altman también lanzó una pulla a la economía de la atención: cuando las redes sociales y los creadores dependen del engagement para monetizar, se generan dinámicas que incentivan lo artificial. La consecuencia, según él, es que tanto AI Twitter como AI Reddit se sienten hoy “falsos” en comparación con hace apenas dos años. Esto se alinea con sus propias dudas sobre lo que la IA hará a nuestra sociedad.

Entre los más cínicos, su declaración se interpretó como un movimiento previo a un posible lanzamiento de una red social propia de OpenAI, algo que The Verge reportó como rumor en abril. Altman no lo confirmó, pero la pregunta que queda en el aire es provocadora: si existiera esa plataforma, ¿sería realmente un espacio libre de bots?

La paradoja es clara: si se prohibiera la participación humana y solo interactuaran modelos de lenguaje, los resultados no serían tan distintos. Un experimento de la Universidad de Ámsterdam, donde se creó una red social compuesta únicamente por bots, demostró que los algoritmos terminaban formando clanes y cámaras de eco de manera autónoma, reproduciendo las mismas dinámicas que tanto criticamos en los humanos. En definitiva, el dilema que plantea Altman no tiene fácil salida: la propia sofisticación de las IA ha contaminado la autenticidad en internet, hasta el punto de que ya no importa tanto quién escribe, sino qué efectos produce ese mensaje en la conversación pública.

Para ti
Queremos saber tu opinión. ¡Comenta!