El Pentágono 'da puerta' a Anthropic para apoyarse todavía más en los servicios de IA de Grok y Elon Musk
El año pasado, la Casa Blanca aprobó Grok, ChatGPT, Gemini y Claude para uso gubernamental
Sin lugar a duda, Grok es el bot conversacional más polémico del mercado. La herramienta de IA de xAI, compañía propiedad de Elon Musk, ha estado envuelta en diversas controversias desde su lanzamiento a finales de 2023: desde alabar a Hitler y el nazismo hasta insultar al fundador de Turquía, pasando más recientemente por desnudar las fotografías de miles de mujeres y menores de edad en la red social X (también propiedad de Musk).
Aun sabiendo de su peligrosidad, obtuvo un contrato militar por valor de hasta 200 millones de dólares del Departamento de Defensa de los Estados Unidos de América. Si bien este contrato se otorgó también a otras compañías de IA, como Google y OpenAI, no por ello la decisión resulta menos llamativa. El plan era ayudar a acelerar la adopción de capacidades avanzadas de esta tecnología por parte del Departamento de Defensa para abordar desafíos críticos de seguridad nacional.
Recientemente, se ha conocido la noticia de que el Pentágono está ultimando los detalles para expandir los sistemas de inteligencia artificial que se ejecutan dentro de sus redes clasificadas más sensibles. Al parecer, xAI ha firmado un acuerdo que permitiría que su modelo Grok opere dentro de esos entornos seguros, como informó Axios, quitándole cierto protagonismo a Claude de Anthropic.
Grok, junto con Gemini de Google y ChatGPT de OpenAI, ya opera en sistemas no clasificados del Departamento de Defensa
Hasta hace muy poco, Claude de Anthropic era el único modelo de inteligencia artificial autorizado para su uso en sistemas clasificados vinculados al análisis de inteligencia, el desarrollo de armas avanzadas y las operaciones en el campo de batalla. Sin embargo, este acceso exclusivo se habría perdido con el nuevo acuerdo con xAI.
Las informaciones aseguran que los funcionarios de defensa han presionado para tener acceso a los modelos para todos los usos legalmente permitidos, incluidas las aplicaciones vinculadas a la vigilancia y las armas autónomas. Anthropic había mantenido límites sobre cómo se puede utilizar a Claude, negándose a eliminar ciertas barreras incluso operando en sistemas gubernamentales.
La resistencia de Anthropic a dichas funciones intensificó las tensiones, hasta el punto de que los líderes de defensa han advertido que podrían reconsiderar la posición de Anthropic como proveedor confiable si la empresa no flexibiliza sus restricciones. No obstante, los funcionarios reconocen que eliminar a Claude de los sistemas clasificados sería técnicamente complejo y perturbador, ya que el modelo está profundamente integrado en los flujos de trabajo que respaldan las operaciones de inteligencia y la planificación estratégica.
xAI habría aceptado el estándar del Departamento de Defensa que permite el uso de su modelo para cualquier propósito legal, abriendo las puertas a que Grok pase de entornos no clasificados a las redes más restringidas del ejército. Curiosamente, algunos funcionarios de defensa cuestionan en privado si Grok puede igualar inmediatamente la madurez técnica de Claude. Parece ser que no se considera a Grok tan avanzado o probado en batalla en contextos de defensa sensibles.
Actualmente, Grok, junto con Gemini de Google y ChatGPT de OpenAI, ya opera en sistemas no clasificados del Departamento de Defensa. Google y OpenAI también habrían discutido la posibilidad de expandirse a entornos clasificados. El año pasado, la Casa Blanca aprobó Grok, ChatGPT, Gemini y Claude para uso gubernamental. No obstante, solo Claude consiguió autorización para los sistemas clasificados más sensibles en ese momento.