OpenAI abre la posibilidad de desarrollar aplicaciones militares y muchas personas se manifiestan en contra
¿Está OpenAI aproximándose al Departamento de Defensa de los Estados Unidos? La firma cuyo CEO es Sam Altman ha recibido duras críticas por la toma de una decisión algo comprometida

OpenAI, hasta hace un par de años, era una compañía que pasaba desapercibida en la industria de la tecnología digital. La compra de la mayor parte del accionariado por parte de Microsoft catapultó la visibilidad de la compañía. Ahora, es famosa por haber creado ChatGPT, una inteligencia artificial accesible para todo el mundo y que está en constante evolución. Tras unos meses de servicio, la empresa ha cambiado su política de desarrollo y uso, lo cual ha provocado manifestaciones, incluso, en la sede de la compañía.
Manifestantes se congregan en la sede de OpenAI por el cambio de su estrategia
OpenAI ha abierto la posibilidad de desarrollar aplicaciones militares para determinadas organizaciones específicas, de acuerdo con la actualización de la política de uso de la firma. Hace tan solo unos días, uno de los ejecutivos de la compañía, en declaraciones a Bloomberg, confirmó la introducción de nuevos márgenes para ampliar el uso de soluciones como ChatGPT a entidades dependientes del Departamento de Defensa.

OpenAI forma parte de Microsoft desde hace más de un año. Wikipedia
De hecho, se sabe que se ha puesto en marcha un nuevo filtro que tiene como objetivo evitar prácticas de suicidio entre ex combatientes del ejército estadounidense. La empresa mostró en el pasado una postura férrea en lo que se refiere al trato militar, pero se están observando importantes cambios que no están siendo bien vistos por una parte de algunos usuarios del mundo digital. La concentración frente a la sede de la compañía estuvo formada por un total de 30 personas.
Uno de los portavoces de la empresa ha asegurado que las políticas de uso siguen vigentes respecto a la postura inicialmente mostrada. Simplemente, se han introducido determinados mecanismos para garantizar la usabilidad en determinados casos concretos, tales como el mencionado anteriormente. Esto supondría el mantenimiento de las mismas limitaciones de uso presentes desde el inicio de la operativa de la empresa.
Así pues, mientras que ChatGPT introduce nuevas funciones en su sistema, parece que sigue habiendo problemas relacionados con el uso de esta herramienta de productividad. ¿Debería OpenAI mostrar una mayor transparencia con el objetivo de que sus principales servicios no levantasen la sospecha acerca de los cambios que se producen en el seno de los mismos? Esta polémica, sin duda alguna, ha vuelto a poner encima de la mesa el debate sobre la necesidad de incluir cierta regulación.