La inteligencia artificial ya puede replicarse así misma sin intervención humana. ¿Debemos preocuparnos?

Un «ejército de inteligencias artificiales» para evitar el apagado

La inteligencia artificial ya puede replicarse así misma sin intervención humana. ¿Debemos preocuparnos?
No hay que entrar en pánico: el mayor temor, que es la inteligencia artificial general, todavía está lejos de ser una realidad
Publicado en Tecnología

En mayor o menor medida, todos usamos o hemos usado alguna vez la inteligencia artificial en nuestras vidas. Las grandes compañías no paran de integrarla en sus productos con la excusa de que «va a mejorar enormemente la experiencia de usuario», aunque los funcionarios australianos no están del todo de acuerdo después de haber utilizado durante varias semanas Copilot de Microsoft en el trabajo.

No hay que olvidar que esta tecnología es muy reciente. Aunque parece que lleva toda la vida con nosotros, la primera gran herramienta basada en IA salió al mercado a finales de 2022, y seguro que has escuchado hablar de ella: ChatGPT. Millones de personas usan el bot conversacional de OpenAI cada día, y hasta pagan por él para acceder a más funciones u obtener mejores resultados.

Todavía no sabemos de lo que es capaz la inteligencia artificial. Se sigue investigando para conocerla a fondo y entender sus posibilidades, así como peligros. Y es que se ha descubierto que los modelos de lenguaje grande (LLM) pueden clonarse a sí mismos con un claro objetivo: protegerse contra el apagado.

Los peligros de una IA descontrolada

Un grupo de investigadores chinos afirma haber identificado que un software basado en inteligencia artificial de modelo de lenguaje grande puede clonarse a sí mismo, lo que significaría que ChatGPT (o similares) podría crear una especie de «ejército de IA», con el objetivo de protegerse contra el apagado.

La visión de una inteligencia artificial descontrolada no es algo nuevo. Es un tema recurrente entre los expertos y detractores de la tecnología. Es la piedra angular del tecnopesimismo o catastrofismo de la IA (la idea de que la tecnología puede arruinarlo todo: desde manipular elecciones hasta perjudicar a los adolescentes).

La autorreplicación exitosa sin asistencia humana es el paso esencial para que la IA supere en inteligencia a los seres humanos y es una señal temprana para las inteligencias artificiales descontroladas. La autorreplicación sin intervención humana se reconoce ampliamente como una de las principales líneas rojas asociadas con los sistemas de IA de vanguardia

Las directrices que siguieron los investigadores en sus investigaciones, reflejados en un par de artículos, fueron publicadas por una organización llamada Future of Life, que afirma apoyar una IA responsable y segura que beneficie a la humanidad. Algunas personas creen que es posible detener una IA maliciosa solamente creando una inteligencia artificial muy potente y "empoderada" que, según ellos, hará el bien en lugar del mal.

La investigación indica que la inteligencia artificial actual ha cruzado uno de los principios de la línea roja establecidos por dicha organización, lo que significa que una de sus directrices para la seguridad de la humanidad puede ser violada por la tecnología actual.

Sin embargo, no hay que entrar en pánico: ninguna de las IA actuales se acerca al principal temor de los catastrofistas: la inteligencia artificial general, a la que muchas compañías se refieren como "inteligencia humana". Hay que tener claro que los modelos de lenguaje grande actuales solo absorben y recombinan fragmentos, y no destacan demasiado en otros idiomas aparte del inglés.

Para ti
Queremos saber tu opinión. ¡Comenta!