OpenAI prevé crear un investigador con IA completamente autónomo para 2028
La compañía estima que en 2026 sus modelos alcanzarán el nivel de un becario de investigación y en 2028 el de un científico autónomo.
OpenAI ha trazado una hoja de ruta ambiciosa que, de cumplirse, redefiniría la relación entre la inteligencia artificial y la investigación científica. Según su director ejecutivo, Sam Altman, la compañía espera contar con un asistente de investigación a nivel de becario en apenas un año y con un investigador de IA plenamente autónomo para 2028. Lo anunció durante una retransmisión en directo en la que también confirmó la transformación estructural de OpenAI en una “public benefit corporation”, un cambio que marca el fin de su modelo sin ánimo de lucro y abre la puerta a una expansión económica sin precedentes.
De laboratorio sin ánimo de lucro a motor científico global
La nueva estructura corporativa permite a OpenAI recaudar capital sin las restricciones legales de su antigua carta fundacional, a la vez que mantiene una rama dedicada al avance científico y la seguridad de la IA. La OpenAI Foundation, que conservará el 26 % de la compañía, será la encargada de orientar la investigación y de gestionar una inversión de 25.000 millones de dólares destinada a aplicar la inteligencia artificial en la cura de enfermedades y en proyectos de impacto social.
Altman explicó que esta reorganización es esencial para sostener el ritmo de desarrollo que la compañía ha alcanzado: “Necesitamos una base de financiación capaz de soportar la infraestructura que hará posibles los próximos saltos científicos”, afirmó. En esa línea, anunció un compromiso de 30 gigavatios de capacidad computacional, equivalente a una inversión estimada de 1,4 billones de dólares en los próximos años.
Durante la retransmisión, Jakub Pachocki, científico jefe de OpenAI, aportó detalles técnicos sobre lo que la empresa denomina un “investigador de IA legítimo”: un sistema capaz de planificar, ejecutar y entregar resultados en proyectos de investigación complejos sin intervención humana directa. Aclaró que no se trata de una metáfora, sino de una meta concreta basada en los avances observados en los modelos de aprendizaje profundo actuales.
Pachocki sostuvo que los sistemas de deep learning podrían estar a menos de una década de alcanzar la superinteligencia, entendida como la capacidad de superar a los humanos en una amplia gama de tareas críticas. El salto, según él, dependerá de dos pilares fundamentales: la innovación algorítmica continua y la expansión masiva del “test time compute”, es decir, del tiempo que los modelos dedican a pensar antes de emitir una respuesta.
En palabras del científico, los modelos actuales ya pueden manejar tareas con horizontes de hasta cinco horas de razonamiento y competir al nivel de los mejores humanos en pruebas de alta exigencia, como la Olimpiada Internacional de Matemáticas. Pero lo verdaderamente revolucionario, añadió, será permitir que esos modelos dispongan de mucho más tiempo y recursos computacionales para pensar, incluso si eso implica dedicar centros de datos enteros a un único problema científico. Para Pachocki, un enfoque así podría acelerar descubrimientos en física, medicina o ingeniería de materiales a una velocidad nunca vista.
La visión de OpenAI va más allá de la automatización del trabajo de laboratorio. Altman describió el objetivo como un ecosistema de investigación acelerado, en el que la IA no solo asista a los científicos humanos, sino que sea capaz de formular hipótesis, diseñar experimentos virtuales y producir conocimiento nuevo. En este sentido, el directivo insistió en que el desarrollo de estas capacidades irá acompañado de mecanismos de control ético y transparencia: “Nuestro compromiso con el desarrollo responsable de la IA sigue siendo absoluto”, aseguró.
Sin embargo, el anuncio también ha generado inquietud entre expertos y observadores del sector. La idea de una inteligencia artificial capaz de realizar investigación de forma autónoma plantea preguntas éticas y de gobernanza profundas: ¿quién será el propietario de los descubrimientos realizados por una IA? ¿cómo se auditará su razonamiento? ¿y qué pasará si su capacidad de generar conocimiento supera la comprensión humana?
Por ahora, OpenAI confía en que su nuevo modelo híbrido (mitad fundación científica, mitad empresa de capital abierto) ofrezca un equilibrio entre ambición tecnológica y responsabilidad social. Si las proyecciones de Altman y Pachocki se cumplen, el año 2028 podría marcar el nacimiento del primer investigador no humano de la historia, una entidad capaz de pensar, descubrir y avanzar la ciencia sin intervención humana directa. Un hito que, de lograrse, no solo transformaría la investigación, sino también la propia definición de inteligencia.