Google quiere dejar atrás a sus competidores y parece que lo ha conseguido. Ha diseñado un chip más rápido que un superordenador

La compañía estadounidense pretende que la inteligencia artificial piense por sí misma y sea más rápida y eficiente

Google quiere dejar atrás a sus competidores y parece que lo ha conseguido. Ha diseñado un chip más rápido que un superordenador
Imagen promocional de la TPU Ironwood de Google
Publicado en Google

En el marco del Google Cloud Next '25, la empresa tecnológica ha revelado qué se esconde detrás del nombre Ironwood. Estamos ante la séptima generación de sus unidades de procesamiento Tensor, conocidas como TPU, y ante un chip que busca acelerar la inteligencia artificial y que se ha convertido en el procesador más eficiente y escalable, además del primero creado para tareas de inferencia, es decir, para que la IA no solo proceso información, sino que genere ideas y respuestas por sí misma.

El chip que presenta la era de la inferencia

Google lleva años creando estas TPU para entrenar y producir sus modelos de IA más avanzados. Sin embargo, el chip Ironwood podría ser descrito como el paso de la reactividad a la proactividad. Los modelos generados con este procesador no solo procesarán datos e información, sino que serán capaces de pensar. Esto es lo que daría inicio a la era de la inferencia. Si hasta ahora los modelos de IA ven patrones en conjuntos de datos seleccionados, a partir de ahora podrán ver esos patrones en grupos de datos que nunca antes había visto.

Esta es una unidad de procesamiento Tensor que resulta ideal para modelos que razonan, como podría ser el caso de los modelos de lenguaje o los MoE, conocidos como Mezclas de Expertos, un enfoque de machine learning que divide un modelo de inteligencia artificial en subredes separadas. Cada chip puede alcanzar los 4.614 teraflops, con lo que con su configuración más potente, 9.216 chips, llegaría a un total de 42,5 exaflops. O lo que es lo mismo, 24 veces más potente que el superordenador El Capitán, ubicado en el Laboratorio Nacional Lawrence Livermore, en el estado de California.

Una de las bondades de esta TPU es que cuenta con una conectividad avanzada, pudiendo realizar una comunicación sincronizada y ultrarrápida entre miles de chips, con 1,2 Tbps bidireccionales, siendo así un 50% más rápida que la generación anterior. Y no solo eso. Google también ha destacado que cada chip cuenta con 192 GB de memoria HBM, seis veces más que Trillium, el TPU de sexta generación, y 7,2 TB/s de ancho de banda por cada procesador.

Esta unidad de procesamiento utiliza refrigeración líquida para mantener el rendimiento, siendo 30 veces más eficiente que la primera TPU y con el doble de rendimiento por vatio que Trillium. Ironwood forma parte de la arquitectura AI Hypercomputer de Google Cloud, que permite maximizar el rendimiento de los modelos de IA más ambiciosos. Es por ello que esta TPU busca ser elemento fundamental para liderar la siguiente generación de avances de inteligencia artificial.

Para ti
Queremos saber tu opinión. ¡Comenta!