Este modelo de inteligencia artificial se creó con pensamientos humanos y ahora se comporta igual que nosotros
El modelo se ha entrenado con más de 10 millones de decisiones individuales tomadas por más de 60 mil participantes en 160 experimentos psicológicos

Centauro, el modelo de IA desarrollado por el Dr. Marcel Binz y el Dr. Eric Schulz en el HAI (_Stanford Institute for Human-Centered Artificial Intelligence), ha sido diseñado para reflejar cómo las personas piensan y toman decisiones en situaciones tanto familiares como nuevas. Los investigadores lo han conseguido tras entrenarlo con más de 10 millones de decisiones individuales tomadas por más de 60 mil participantes en 160 experimentos psicológicos.
Llamado así en honor a la criatura mitológica con parte superior del cuerpo humano y patas de caballo, Centauro utiliza un conjunto de datos seleccionados llamado Psych-101, que captura una amplia gama de patrones de comportamiento, incluidos el aprendizaje de recompensa por toma de riesgos y el razonamiento moral, para estructurarlos en un formato que un modelo de lenguaje puede entender.
Este innovador modelo de inteligencia artificial, a diferencia de los anteriores basados en reglas predefinidas o parámetros, aprende estrategias comunes de toma de decisiones y las generaliza a nuevos contextos. Es capaz incluso de predecir los tiempos de reacción, ofreciendo así una visión más profunda de la dinámica de la elección.
Un modelo que ayudaría a entender mejor a las personas con problemas de salud mental
Importantes compañías tecnológicas como Meta van en busca de la «superinteligencia» (ASI, por sus siglas en inglés), un concepto teórico que describe un sistema de IA con capacidades cognitivas superiores a las de los seres humanos en todos los aspectos posibles, incluyendo la creatividad, resolución de problemas y el razonamiento. Por ello, Zuckerberg ha «robado» a OpenAI algunos de sus mejores expertos.
Teniendo en cuenta el estado actual de la inteligencia artificial, basada en el aprendizaje automático y profundo para enfocarse en tareas específicas, poniendo a prueba la capacidad de las máquinas para aprender datos, enfocarse en llegar a la «superinteligencia» suena más utópico que algo posible. Al menos, en el corto-medio plazo.
Sin embargo, la propuesta de Binz y Schulz va por otro camino. Podría respaldar la investigación clínica al ayudar a simular los procesos de toma de decisiones de personas con problemas de salud mental, véase la ansiedad o la depresión. "Hemos creado una herramienta que nos permite predecir el comportamiento humano en cualquier situación descrita en lenguaje natural, como un laboratorio virtual", comentó Binz, que es el autor principal del estudio.
Como se explica en el comunicado, el modelo podría mejorar la forma en que se modela la toma de decisiones en la atención médica, el diseño de políticas y ciencias sociales. El equipo enfatiza la transparencia y el uso ético, favoreciendo sistemas abiertos, alojados localmente, para proteger los datos y ofrecer un escrutinio independiente.
Garantizar que estos sistemas sigan siendo transparentes y controlables es fundamental. Por ejemplo, mediante el uso de modelos abiertos y alojados localmente que salvaguarden la plena soberanía de los datos
Los investigadores son optimistas y realmente piensan que estos modelos tienen el potencial de mejorar nuestra comprensión de la cognición humana, siempre que se aplique de manera responsable. Con los resultados del estudio publicados en la revista Nature, Binz afirma que "En un entorno de investigación público, tenemos la libertad de abordar cuestiones cognitivas fundamentales que a menudo no son el foco de atención de la industria".