Este bebé con una cámara en la cabeza ha enseñado a una IA cómo los humanos aprendemos el lenguaje
Si la inteligencia artificial quiere parecerse al ser humano, debe aprender de él

En la era de la inteligencia artificial, que un bebé con una cámara en la cabeza sea capaz de demostrar que los humanos aún tenemos mucho que decir en el desarrollo de las más modernas tecnologías es algo interesante de deducir de un estudio que no sólo implica hablar del lenguaje, sino de la manera en que modelos de IA, como podrían ser los que utiliza ChatGPT, añaden funcionalidades a su gama de habilidades.
El aprendizaje de la IA a manos de un bebé
Un reciente estudio a cargo de la Universidad de Nueva York, cuyo artículo ha sido publicado en la revista Science, nos habla acerca de un nuevo avance en materia de inteligencia artificial, con el que los más pequeños han sido protagonistas.
Tal y como asegura Wai Keen Wong, investigador de la institución norteamericana, la razón del increíble poder de los modelos actuales de IA se basa en la ingente cantidad de datos con los que son entrenados, que podría asemejarse a millones de veces más de lo que cualquier ser humano recibirá como información en toda su vida.
What if AI systems had to learn language NOT by gobbling up all the text on the whole internet, but rather the way babies do? NYU researchers tried training a neural network solely on what a single child saw and heard in day-to-day life: https://t.co/u5bbjDZRL7 pic.twitter.com/YpZB619xZW
— New York University (@nyuniversity) February 1, 2024
En este caso, se han utilizado a bebés para aproximarse al concepto de la referencia. Por referencia se entiende la capacidad que tienen los más pequeños para asociar conceptos que escuchan. Por ejemplo, cuando un bebé oye la palabra taza sabe que se refiere a un objeto en concreto y no ideas parecidas de artículos con agujeros, con asas y con una forma similar.
Para los investigadores de la Universidad de Nueva York lo ideal no es entrenar a los modelos de IA con gigantescas cantidades de datos, sino a través de los ojos y los oídos de los niños mientras éstos aprenden todo acerca de lo que ocurre en el ambiente en el que viven. Y eso, precisamente, es lo que ha decidido hacer en el estudio.
This AI learnt language by seeing the world through a baby’s eyes https://t.co/gyLijGkIRj #MachineLearning #NatureJournal #AI pic.twitter.com/MSYuW0bSke
— Paul Lopez (@lopezunwired) February 2, 2024
A través de una cámara acoplada en una especie de casco infantil, se han utilizado bebés de entre 6 y 25 meses de edad para grabar sus experiencias, aproximadamente de una hora de duración. El descubrimiento que comparten este grupo de científicos con el mundo demuestra que un modelo de IA entrenado con datos obtenidos de bebés es capaz de aprender algunas palabras en ambientes naturales.
Estos sistemas fueron capaces de mapear algunas palabras con ejemplos visuales de referencia. Eso sí, dado que estamos en una fase aún poco avanzada de la investigación, un fallo que denota que este aprendizaje aún necesita de más tiempo es comprobar como la IA unía el concepto mano con arena, dado que la palabra mano únicamente era mencionada cuando los bebés se encontraban disfrutando de la playa.
Brenden Lake, profesor del departamento de Psicología y Ciencia de Datos, ha mostrado su sorpresa al descubrir cuanto pueden aprender algunos sistemas de IA en la actualidad, simplemente con el acceso a pequeñas cantidades de información, similares a las que los niños y niñas reciben a temprana edad cuando están aprendiendo su lenguaje.