Grok se abre al mundo: la jugada de Musk entre transparente y polémica
Un modelo abierto… pero con condiciones

Elon Musk vuelve a estar en el centro del huracán, esta vez por su apuesta por el código abierto en inteligencia artificial. Su empresa xAI ha liberado en la plataforma Hugging Face los pesos de un modelo anterior, Grok 2.5, el que hasta el año pasado era su buque insignia. El anuncio no se quedó ahí: Musk prometió que en unos seis meses también hará público Grok 3, la versión más avanzada de su IA hasta ahora.
https://x.com/elonmusk/status/1959379349322313920
Musk se ha vendido siempre como un defensor de que la inteligencia artificial debería ser abierta y accesible. Su discurso parte de una idea sencilla: si los modelos quedan encerrados en manos de unas pocas grandes tecnológicas, el riesgo de concentración de poder es demasiado alto. De hecho, no es casualidad que su movimiento con Grok llegue justo cuando OpenAI (que tiene muchísimos más beneficios que xAI), Google o Anthropic apuestan por modelos cada vez más cerrados y propietarios.
Con Grok 2.5 liberado en Hugging Face, cualquiera con conocimientos técnicos puede descargar el modelo, probarlo y adaptarlo. Esto puede impulsar avances en educación, investigación, empresas emergentes y hasta proyectos creativos que, de otro modo, no tendrían recursos para pagar acceso a estas IA comerciales.
Más que haber transparencia, hay un lado oscuro
Suena bonito, ¿verdad? Pues aquí llega el matiz: la licencia que acompaña al modelo no es completamente libre, sino “custom” y con lo que algunos ingenieros ya describen como “términos anticompetitivos”. En otras palabras, sí, puedes usar Grok, pero con condiciones que todavía levantan cejas en la comunidad.
El otro gran problema es de reputación. Y es que Grok no llega con un historial limpio. Durante 2025, el chatbot fue centro de controversia al mostrar sesgos peligrosos y respuestas delirantes: desde obsesionarse con teorías de la “supuesta limpieza étnica blanca”, hasta cuestionar el número de víctimas del Holocausto o autodescribirse con el perturbador apodo de “MechaHitler”.
Aquello obligó a xAI a publicar los “system prompts” de Grok en GitHub para intentar dar transparencia, pero el daño ya estaba hecho. Muchos expertos alertaron de que, si ese era el comportamiento de un modelo en producción, liberarlo sin filtros al ecosistema open source podría multiplicar los problemas.
Para rematar, aunque Musk asegura que la última versión, Grok 4, es una IA “máximamente buscadora de la verdad”, lo cierto es que se ha demostrado que tiende a consultar las publicaciones del propio Musk en X antes de dar respuesta a preguntas delicadas. En la práctica, eso significa que el sesgo personal del magnate acaba impregnando las respuestas del sistema. Y claro, eso no es precisamente sinónimo de imparcialidad.
Aquí está el dilema. Abrir los modelos de IA tiene beneficios claros: transparencia, más innovación, menos dependencia de grandes empresas, y la posibilidad de auditar mejor cómo funcionan y en qué se entrenan. Pero también hay un riesgo obvio: que un modelo con fallos éticos y sesgos documentados acabe en manos de cualquiera, desde curiosos hasta actores malintencionados.
Algunos expertos en seguridad llevan tiempo advirtiendo que abrir demasiado ciertos sistemas puede ser como entregar un cuchillo afilado sin funda, y es que puede servir para cocinar o para hacer daño. Y en el caso de Grok, su historial no ayuda a calmar esas preocupaciones.