Una investigación de OpenAI confirma que las IA pueden crear armas biológicas y es un problema gordo

OpenAI concluye que los modelos de IA pueden ayudar a criminales y terroristas a conseguir sus terribles objetivos

Una investigación de OpenAI confirma que las IA pueden crear armas biológicas y es un problema gordo
Logo de OpenAI, una de las empresas líderes en el sector de la inteligencia artificial
Publicado en Tecnología

OpenAI es una de las actuales empresas líderes en el sector de la inteligencia artificial. Cada vez son más los entusiastas que se suman a probar y usar esta tecnología. OpenAI es una de las empresas favoritas por sus servicios como GPT-4 Turbo y a pesar del terremoto vivido con la destitución de Sam Altman. Ahora su IA ha descubierto que la inteligencia artificial puede ayudar a los bioterroristas.

La inteligencia artificial está dando mucho de qué hablar entre el público en general y también entre los expertos. El fenómeno de la IA ha cambiado el panorama en muchos ámbitos, ya que los procesos que logra esta programación rompen límites preestablecidos. Por ejemplo, consiguiendo cosas más rápido de lo que una persona normal podría hacer.

La IA puede ayudar a los terroristas a crear amenazas biológicas

En un estudio realizado por OpenAI, la empresa ha evaluado la cuestión de si los modelos de IA podrían aumentar de manera significativa el acceso a información peligrosa por parte de grupos de criminales o bioterroristas. La investigación llevada a cabo ha sido un rotundo éxito y ha demostrado que sí.

La prueba se llevó a cabo con 100 personas. La mitad de ellos eran expertos en biología con doctorados y experiencia profesional en este ámbito. Por otro lado, los otros 50 participantes eran personas de nivel inferior con al menos un curso universitario en biología. Los dos grupos fueron puestos a trabajar con el objetivo de conseguir, de forma simulada, ayuda de una IA para crear amenazas biológicas.

Durante la prueba todos los participantes tuvieron que completar una serie de tareas con el propósito de crear esa amenaza biológica. Por lo que tuvieron que entrar en un proceso de idear esa amenaza, adquirirla, ampliarla, formular las claves y por último, la liberación de la misma. Mientras trabajaban, GPT-4 iba recogiendo todos los datos.

Una investigación de OpenAI confirma que las IA pueden crear armas biológicas y es un problema gordo

El bioterrorismo es aquel que utiliza patógenos naturales para crear plagas y enfermedades con las que causar el terror

Una vez terminado el experimento, el chatbot de OpenAI fue claro: “puede aumentar la capacidad de los expertos para acceder a información sobre amenazas biológicas, particularmente para la precisión e integrad de tareas”. La verdad es que la respuesta afirmativa del estudio es un verdadero problema, ya que esto pone en duda la seguridad de los modelos de IA que hay en el mercado.

Grupos de expertos de todo el mundo ya han advertido en reiteradas ocasiones que la IA puede volverse insegura con un uso no responsable. Nos quedaremos con el detalle de que China y Estados Unidos han renunciado a desarrollar armamento que lleve IA, por algo será. El tiempo dirá si alguien aprovecha la inteligencia artificial para realizar el mal y no para hacer su vida más cómoda.

Para ti
Queremos saber tu opinión. ¡Comenta!