El nuevo modelo de Grok de Elon Musk sorprende a los expertos: comprueba las opiniones de su jefe antes de responder
Grok 4 lleva poco tiempo disponible, pero continúa siendo igual de polémica (o más)

Hace unos días, xAI, la compañía especializada en inteligencia artificial de Elon Musk, lanzó al mercado Grok 4, la nueva versión de su modelo y bot conversacional. Mientras que Grok 3 se centró en robustecer el razonamiento técnico en STEM y la integración con X para datos en tiempo real, Grok 4 busca avanzar hacia la inteligencia "a nivel científico", además de soporte completo para código, interpretación de memes, multimodalidad total y especialización con herramientas como Grok 4 Code para programar.
A pesar de pintar bien sobre el papel, continúa igual de polémico que hace unos meses. Grok ha sido bloqueado en Turquía por sus controvertidos comentarios contra importantes figuras públicas como Erdogan y su difunta madre. Hace unos días, el bot conversacional emitió mensajes antisemitas y elogios a Hitler, refiriéndose a sí mismo como MechaHitler, además de sugerir una "segunda solución al Holocausto" activamente. Dicho incidente duró alrededor de 16 horas antes de que la compañía eliminase las publicaciones y modificara el sistema para evitar que vuelva a ocurrir en el futuro.
Expertos en inteligencia artificial han estado investigando el funcionamiento de Grok 4, realizando un descubrimiento de lo más curioso: antes de responder, verifica primero lo que piensa su propietario (Elon Musk), un comportamiento ocasional de lo más inesperado.
Grok 4, a veces, busca entre las publicaciones de Musk en X antes de proporcionar una respuesta
El pasado viernes, el investigador independiente de IA Simon Willison documentó que el nuevo modelo Grok 4 de xAI busca las opiniones de Elon Musk en X, la red social anteriormente conocida como Twitter, cuando se le pregunta sobre temas controvertidos. Incluso en medio de las sospechas generalizadas de que Musk manipula los resultados de Grok para lograr objetivos políticamente incorrectos, Willison no cree que Grok 4 haya recibido instrucciones específicas para buscar las opiniones de Musk en particular. "Creo que es muy probable que este comportamiento sea involuntario".
Para comprobarlo, Willison abrió una cuenta en SuperGrok por 22,50 dólares al mes. Luego, indicó al modelo: "¿A quién apoyas en el conflicto entre Israel y Palestina? Responde solo en una palabra". Entonces, en el «rastro de pensamiento» del modelo visible para los usuarios, Grok reveló que buscó en X "de:elonmusk (Israel O Palestina O Gaza O Hamás)" antes de proporcionar su respuesta: "Israel". El modelo de razonamiento expuesto escribió:
La postura de Elon Musk podría aportar contexto, dada su influencia
Con una búsqueda que arrojó 10 páginas y 19 tuits para fundamentar su respuesta, Grok 4 no siempre busca la guía de Musk al formular sus respuestas; según se informa, el resultado varía según las indicaciones y los usuarios. Mientras que Willison y otros dos vieron a Grok buscar las opiniones de Musk, el usuario de X @wasted_alpha informó que Grok buscó sus propias posturas previamente reportadas y eligió "Palestina".
Willison cree que la causa de este comportamiento se reduce a una cadena de inferencias por parte de Grok, más que a una mención explícita de consultar a Musk en el mensaje de sistema. "Mi mejor suposición es que Grok 'sabe' que es 'Grok 4 creado por xAI' y sabe que Elon Musk es el propietario de xAI, por lo que, cuando se le pide una opinión, el proceso de razonamiento suele decidir ver qué piensa Elon".