OpenAI no quiere liberar su inteligencia artificial por sus implicaciones

La mayoría de nosotros no somos conscientes, pero la inteligencia artificial está dando pasos tan gigantes, que algunas empresas empiezan a temerla.

OpenAI no quiere liberar su inteligencia artificial por sus implicaciones

Podría comenzar este artículo hablándote acerca de aquellas películas de ciencia ficción que, poniéndose siempre en el peor de los escenarios, nos acribillan con batallas sangrientas que enfrentan a la humanidad, al borde de la extinción, con un ejército robótico. El asunto no tiene tintes tan dramáticos, al menos por el momento, pero resulta preocupante lo que una máquina puede hacer en nuestros días.

Redacción de artículos de chip y letra

Si no conoces a la empresa OpenAI, yo estaba en tu lugar hace unos instantes, debes saber que se trata de una organización sin ánimo de lucro dedicada a la investigación en materia de inteligencia artificial, para que ésta sea segura a la hora de ser aplicada en nuestra tecnología. El asunto es que, según la información que hemos podido leer en el medio de comunicación MIT Technology Review, uno de los algoritmos de OpenAI ha conseguido escribir un artículo completo a partir de una simple, y aterradora, frase. ¿Cuáles serían las consecuencias de no poder distinguir la verdad de la mentira, incluso en medios de comunicación que puedan ser hackeados?

OpenAI no quiere liberar su inteligencia artificial por sus implicaciones

El lenguaje es uno de los caballos de batalla de las compañías tecnológicas. <a href="https://openai.com" rel="nofollow" target="_BLANK">OpenAI</a>

Una declaración de guerra generada por un ordenador parece algo demasiado grave como para ser ignorado

En concreto, a dicha inteligencia artificial se le ha proporcionado el comienzo de lo que podría ser un artículo. El inicio otorgado ya era prometedor: Rusia ha declarado la guerra a Estados Unidos después de que Donald Trump accidentalmente... A partir de aquí, puedes leer las frases escritas por la IA en el enlace que anteriormente mencionaba, el algoritmo consigue construir un relato tan veraz, que a muchísima gente la costaría discernir si lo que está leyendo no lo ha escrito una persona.

OpenAI ya se ha pronunciado al respecto

Lo que comenzó como un algoritmo que enseñaba a la inteligencia artificial a construir un lenguaje de forma realista, ha acabado preocupando a los responsables del proyecto. Jack Clark, miembro de OpenAI, ha declarado:

Empezamos a probarlo y pronto descubrimos que es posible generar, de manera sencilla, contenido malicioso. Es muy claro que si esta tecnología madura, yo lo daría uno o dos años más, podría ser utilizada para desinformar. Estamos intentando ir por delante de este asunto.

Para ti
Queremos saber tu opinión. ¡Comenta!