Sam Altman de OpenAI propone un nuevo marco para el despliegue de la IA en el ejército estadounidense

OpenAI tiene su propia propuesta para el Pentágono que cree que permitirá sus modelos puedan utilizarse en entornos clasificados

Sam Altman de OpenAI propone un nuevo marco para el despliegue de la IA en el ejército estadounidense
Sam Altman, CEO de OpenAI
Publicado en Defensa

La inteligencia artificial no es solo cosa de usuarios domésticos u oficinistas que utilizan ChatGPT, Gemini o Grok para avanzar en sus tareas u obtener información sobre un tema concreto de manera mucho más rápida que con los buscadores convencionales, sino también de los ejércitos y cuerpos de seguridad de todo el mundo.

Esta tecnología se ha convertido en una gran aliada en el campo de batalla porque permite identificar objetivos y realizar simulaciones basadas en ingentes cantidades de datos de manera muy rápida, en cuestión de segundos. Incluso «da vida» a armas autónomas o sistemas de vigilancia masiva, a pesar de que muchas compañías encargadas de desarrollarla se oponen a estos fines y lo impiden en sus cláusulas y condiciones.

Anthropic, la firma tras Claude, colaboraba con el Pentágono de los Estados Unidos hasta hace unos días, cuando el presidente Donald Trump prohibió usar su IA al no permitir que pudieran utilizarla para cualquier fin. OpenAI, la compañía tras los modelos GPT, parece haber ocupado su lugar, pero Sam Altman, su director ejecutivo, ha defendido a Anthropic, asegurando que cualquier empresa de inteligencia artificial debería asegurarse de tener límites estrictos al colaborar con el Pentágono.

"Es un problema de toda la industria"

La inteligencia artificial Claude fue el primer modelo de IA de ese tipo utilizado en aplicaciones militares clasificadas. Si bien Anthropic colabora gustosamente con el Pentágono, no está de acuerdo en que su tecnología se use para armas autónomas y vigilancia masiva de ciudadanos estadounidenses. A pesar de esto, se sabe que el ejército la utilizó en los ataques contra Irán, que provocaron la muerte del ayatolá Alí Jamanei (líder supremo del país).

Aunque Estados Unidos pudo usar facultades legales, como la Ley de Producción de Defensa, para obligar a la cooperación de Anthropic, parece que ha decidido «pasar página» y optar por utilizar los modelos de OpenAI. Curiosamente, Sam Altman apoya a Anthropic, y cree que el problema podría afectar a otras empresas de inteligencia artificial, como la suya.

A pesar de todas las diferencias que tengo con Anthropic, confío principalmente en ellos como empresa y creo que realmente se preocupan por la seguridad, y estoy feliz de que hayan estado apoyando a nuestros combatientes

"No estoy seguro de dónde irá esto. Ya no es solo un problema entre Anthropic y el DoW (Departamento de Guerra); es un problema de toda la industria, y es importante aclarar nuestra postura", dijo Altman al personal de OpenAI en un memorando interno.

OpenAI tiene su propia propuesta para el Pentágono que cree que permitirá "que nuestros modelos se implementen en entornos clasificados y eso encaja con nuestros principios", lo que también podría funcionar para otros laboratorios de IA. "Creemos que esta disputa no se trata de cómo se usará la IA, sino de control. Creemos que una empresa privada estadounidense no puede ser más poderosa que el gobierno elegido democráticamente, aunque las empresas pueden tener mucha influencia y aportación".

En el acuerdo con el Pentágono, OpenAI habría acordado restricciones similares con los modelos de OpenAI: "Dos de nuestros principios de seguridad más importantes son la prohibición de la vigilancia masiva nacional y la responsabilidad humana por el uso de la fuerza, incluyendo los sistemas de armas autónomas. El Departamento de Guerra (DoW) está de acuerdo con estos principios".

Para ti
Queremos saber tu opinión. ¡Comenta!