La inteligencia artificial no piensa por sí misma. Así es cómo aprende y por qué es un problema grave

El entrenamiento de la IA es crucial para que ofrezca buenos resultados. La clave está en los datos que se utilizan

La inteligencia artificial no piensa por sí misma. Así es cómo aprende y por qué es un problema grave
La inteligencia artificial comete errores (alucinaciones) y puede tener un comportamiento sesgado
Publicado en Tecnología

Los bots conversacionales como ChatGPT o Claude han creado la idea generalizada entre la gente de que la inteligencia artificial es inteligentísima... cuando no lo es. Da la sensación de que son casi mágicos: los usuarios introducen unas instrucciones (prompts) y ellos responden de acuerdo a la petición: redactan texto, escriben código, crean imágenes o analizan datos, entre otras cosas.

Pero la inteligencia artificial tiene poco de sobrenatural. Para entender cómo son capaces de ofrecer lo que piden los usuarios, primero hay que saber cómo funcionan. Y el secreto está en el proceso de aprendizaje. Para que la IA de estas herramientas funcione, primero hay que «nutrirla» de una gran cantidad de datos. Es lo que ha llevado a Meta a meterse en uno de sus últimos líos: entrenar su IA con una gran cantidad de libros protegidos con derechos de autor que han sido, además, descargados ilegalmente.

Cuando se le pregunta algo a una IA, esta no piensa, sino adivina. Al igual que los seres humanos nos equivocamos cuando no tenemos la información suficiente, la inteligencia artificial también comete fallos. En la situación ideal, comunica que no sabe de lo que se está hablando. En la peor, se inventa una los hechos. Así es como un bufete de abogados hizo el ridículo durante un juicio, pidiendo ejemplos de casos. En lugar de proporcionar casos reales, se los inventó. Son las llamadas «alucinaciones».

Los pilares de un modelo de lenguaje grande de IA

Como hemos comentado, los modelos de lenguaje grande de las inteligencias artificiales no procesan la información como las personas; no razonan, ni entienden o se preocupan, sino que se entrenan a partir de grandes cantidades de datos. Estos datos pueden proceder de libros, sitios web, imágenes, entre otro tipo de contenido, para predecir qué es lo que tienen que decir.

La IA «despedaza» el lenguaje en unidades más pequeñas llamadas «tokens», que suelen ser partes de palabras, e intenta predecir qué token tiene que ir después de otro token. Cuando se le pregunta a un bot conversacional cuál es la capital de España, este no sabe que es Madrid, sino que sencillamente sabe que la palabra «Madrid» está asociada con España en las preguntas según los datos proporcionados para su entrenamiento.

Conociendo el mecanismo por el que la inteligencia artificial es capaz de responder a las preguntas, se entiende mejor el fenómeno de las alucinaciones y que cometa errores extraños. Da igual que se hayan proporcionado millones de datos; la IA es capaz de responder erróneamente a preguntas que, a priori, parecen fáciles. Es habitual encontrar fallos en fechas, que confunda términos, etc.

A la inteligencia artificial le importa que lo que responda suene bien, no que esté precisamente bien. Por este motivo, no es una buena herramienta para realizar investigaciones científicas. Se ha demostrado que los bots conversacionales suelen inventarse las fuentes. A estas alturas, no está claro si llegará un día en el que la IA sea infalible, pero de momento es imprescindible la verificación humana.

Aparte de alucinaciones, los modelos de IA también se pueden ver afectados por el sesgo para que proporcionen respuestas más favorables a unas ideas que a otras. Es tan simple como entrenarlos con libros, sitios web y contenido en redes sociales que contengan ciertos ideales. Si la inteligencia artificial no es capaz de pensar/razonar, tampoco de filtrar las ideas.

Para ti
Queremos saber tu opinión. ¡Comenta!