El plan de Microsoft de arreglar su sistema de busqueda con IA ya tiene un fallos garrafales
Pueden llegar hasta el corazón de tus datos sin esfuerzo.

Lo presentaron como la nueva frontera del “web agentic”, una especie de HTML modernizado pensado para que la inteligencia artificial navegue y actúe por nosotros en la web. Microsoft bautizó este avance como NLWeb (Natural Language Web), lo anunció con bombo y platillo en su conferencia Build, y presumió de que gigantes como Shopify, Snowflake o TripAdvisor ya estaban probándolo.
Pero, apenas unas semanas después del anuncio, todo se ha torcido: investigadores en ciberseguridad han descubierto una vulnerabilidad crítica que permite leer archivos sensibles del sistema, incluidas claves API de modelos como GPT-4 o Gemini. Y lo más grave no es solo lo que permite hacer... sino lo fácil que resulta hacerlo.
Era completamente evitable
A veces, los fallos de seguridad son complejos, difíciles de explotar. No es el caso. La vulnerabilidad descubierta es un fallo de “path traversal”, uno de los errores más básicos (y peligrosos) que existen. Con solo escribir una URL especialmente manipulada, cualquier usuario remoto podía acceder a archivos confidenciales del sistema, como si fueran parte del contenido público del sitio. Sí, con tan poco como cambiar unos caracteres en la barra del navegador, se podían leer configuraciones, archivos .env, y, lo que más preocupa, las llaves privadas que dan acceso a los modelos de lenguaje detrás de estos agentes de IA. En otras palabras: te podían robar el “cerebro” del sistema.
Este error fue descubierto por los investigadores Aonan Guan y Lei Wang, que alertaron a Microsoft el pasado 28 de mayo. Para el 1 de julio, la empresa ya había lanzado un parche. Pero aquí empieza el segundo problema: Microsoft no ha emitido un CVE, el sistema estándar de clasificación de fallos de seguridad a nivel global. Sin un CVE, muchos desarrolladores ni siquiera saben que hubo un fallo, y es más difícil hacer seguimiento. Si algo está claro es lo mucho que tarda la compañía en reconocer sus errores, ya pasó con Windows 11.
Caminar por la IA como si fueran arenas movedizas
Y es que más allá del fallo técnico, lo que muchos critican es la falta de claridad. Microsoft ha intentado minimizar el problema, diciendo que el código afectado no se usa internamente y que los clientes están protegidos... pero no ha emitido un aviso formal ni ha dado detalles técnicos claros sobre cómo ocurrió el fallo ni qué medidas adicionales se han tomado.
Si eres desarrollador y estabas pensando en probar NLWeb en tus proyectos, toca revisar el repositorio oficial, asegurarse de que estás usando la versión corregida, y leer con atención las recomendaciones de seguridad.
Si eres usuario final, la historia sirve como recordatorio de que el mundo de la IA aún tiene mucho camino por recorrer en materia de seguridad. Estos sistemas son potentes, sí, pero también pueden ser frágiles si no se diseñan y auditan correctamente. Y si trabajas en el sector tecnológico, el mensaje es claro: los viejos errores siguen siendo peligrosos, incluso (o especialmente) en entornos nuevos. Los agentes de IA prometen revolucionar la forma en que usamos internet, pero no podemos dar por hecho que vienen sin riesgos.
Microsoft ha reaccionado, sí, pero la falta de transparencia y la ausencia de un CVE oficial siembran dudas. En un momento donde la IA avanza a toda velocidad, conviene recordar que la seguridad no puede ser opcional. Porque un fallo, por simple que parezca, puede costar mucho.