Este será el precio de los superordenadores con inteligencia artificial en 2030. Ningún país podrá hacerlos funcionar
Cada vez queda más claro que la inteligencia artificial avanzada estará en manos de muy pocas compañías

Cuando hablamos de inteligencia artificial, casi nunca nos referimos a los superordenadores que parecen estar protagonizando una auténtica revolución tecnológica. Hablamos de sistemas colosales, formados por cientos de miles de chips, que duplican su potencia cada pocos meses, que consumen tanta energía como una ciudad mediana y que cuestan miles de millones de la divisa que quieras imaginar. Y lo más inquietante: están en manos del sector privado.
Los superordenadores con IA será una revolución casi inalcanzable
Una reciente investigación de la compañía Epoch AI nos invita a reflexionar hacia un panorama, cuanto menos digno de cualquier ficción literaria. A través del análisis de más de 500 superordenadores de IA, entre 2019 y 2025, se ha comprobado que la capacidad de computación de estos sistemas, a menudo conocidos como clústeres de CPU o centros de datos de inteligencia artificial, ha crecido a un ritmo de 2,5 por cada año. ¿El motivo? La calidad y cantidad de los chips utilizados.
Si en 2019 los sistemas con más de 100.000 chips eran una auténtica rareza, hoy en día empresas como xAI, impulsadas por el de sobra conocido Elon Musk, operan sistemas tan gigantescos como el denominado Colossus, con 200.000 chips especializados. Sin embargo, crecer no es algo que se pueda hacer de manera simple y efectiva. El precio del hardware de estos sistemas se ha incrementado por 1,9 cada año y su consumo eléctrico por 2.
Para que te hagas una idea, Colossus necesita 300 megavatios de potencia para funcionar, lo que sería el equivalente a 250.000 hogares. El rendimiento por vatio crece un 34% de manera anual y eso que se ha mejorado en la eficiencia energética. Si estos números se mantienen, el superordenador más poderoso de 2030 podría necesitar la escalofriante cifra de 2 millones de chips.
Pero, eso no es lo más preocupante, según el artículo publicado en arXiv. Su coste podría dispararse hasta los 200.000 millones de euros y consumir hasta 9 gigavatios o, lo que es lo mismo, el equivalente a la potencia de nueve centrales nucleares. Una posible solución podría ser la denominada estrategia de entrenamiento distribuido, es decir, repartir una tarea de IA entre centros de distintas localizaciones. De esta manera, se podría sostener esa increíble demanda energética.
Y si preocupantes son los datos, también tenemos que empezar a ver que el control de estas infraestructuras cada vez se mueve más hacia el sector privado, con un 80% en la actualidad. En cuanto a su distribución geográfica, Estados Unidos concentra el 75% de la capacidad mundial de estos sistemas, seguido de lejos por China, con un 15%, Europa y Japón. El artículo publicado en arXiv nos invita a reflexionar sobre si estamos preparados para una era de IA controlada por unas pocas empresas. ¿Lo estamos realmente?