Un grupo de científicos chinos dice que la IA es capaz de comprender como los humanos

Los sistemas crearon 66 dimensiones conceptuales para la organización de los objetos

Un grupo de científicos chinos dice que la IA es capaz de comprender como los humanos
Los investigadores realizaron el experimento con ChatGPT y Gemini Pro Vision de Google
Publicado en Tecnología

Hay un gran debate sobre si la inteligencia artificial es capaz de razonar como los seres humanos. Existen los modelos de razonamiento simulado, diseñados para imitar los procesos de razonamiento humano. Sin embargo, no tienen comprensión (de ahí lo de «simulados»), de modo que aplican patrones estadísticos y reglas estructuradas para resolver las tareas que tradicionalmente requerirían razonamiento, como la resolución de problemas lógicos o matemáticos.

En cambio, el razonamiento humano se basa en la comprensión, experiencia y el juicio, integrando la lógica, la emoción, la intuición y la conciencia en un «todo» para razonar. Sabiendo las diferencias, parece complicado que un sistema de IA consiga, algún día, razonar como si fuera una persona de carne y hueso, alejando la idea de obtener una inteligencia artificial general en el corto-medio plazo.

Sin embargo, un grupo de investigadores chinos afirma haber encontrado pruebas de que los modelos de lenguaje grande (LLM, por sus siglas en inglés) sí que pueden comprender y procesar objetos naturales como los seres humanos, ocurriendo de forma espontánea y sin necesidad de un entrenamiento previo explícito.

Las inteligencias artificiales del futuro podrían razonar de manera más intuitiva

Un grupo de investigadores de la Academia de Ciencias de China y la Universidad de Tecnología del Sur de China en Guangzhou ha descubierto que la inteligencia artificial sí que podría comprender y procesar objetos naturales como los seres humanos. Al parecer, ChatGPT o Gemini, entre otros sistemas, pueden clasificar la información.

El estudio, publicado en Nature Machine Intelligence, se basa en si los modelos LLM pueden desarrollar procesos cognitivos similares a los de la representación de objetos humanos, reconociendo y categorizando objetos según su función, emoción, entorno, etc. Para ello, los investigadores asignaron a las diferentes IAs tareas de "eliminación de objetos" por texto (ChatGPT 3.5) o imágenes (Gemini Pro Vision).

Los investigadores recopilaron 4,7 millones de respuestas de 1.854 objetos naturales, entre los que se encontraban, entre otros, perros, sillas y coches. Al realizar la prueba, los investigadores descubrieron que se crearon 66 dimensiones conceptuales para la organización de los objetos, tal y como haríamos los seres humanos.

Además, los modelos multimodales, que son los que combinan tanto texto como imagen, se alineaban aún más con el pensamiento humano debido a que procesaban simultáneamente las características tanto visuales como semánticas. Por otro lado, el equipo descubrió que los datos de escaneo cerebral (neuroimagen) revelaban una superposición entre cómo la IA y el cerebro humano responden a los objetos.

Los hallazgos sugieren que las futuras inteligencias artificiales podrían tener un razonamiento más intuitivo y compatible con el ser humano, lo cual es esencial para la robótica, la educación y la colaboración entre los seres humanos y la IA. No obstante, cabe señalar que los modelos de lenguaje grande no comprenden los objetos de la misma manera que los humanos lo hacen a nivel emocional y experiencial.

Para ti
Queremos saber tu opinión. ¡Comenta!