Google lanza la nueva generación de sus chips TPU con tres veces más potencia para acelerar el entrenamiento de IA

Google ha optimizado la eficiencia con una gestión de energía integrada que ajusta dinámicamente el consumo energético

Google lanza la nueva generación de sus chips TPU con tres veces más potencia para acelerar el entrenamiento de IA
Nuevos chips TPU de 8ª generación de Google | Imagen de Google
Publicado en Google

Google acaba de celebrar la nueva edición de Google Cloud Next, su evento anual más importante dedicado a la computación en la nube, la inteligencia artificial y las herramientas de colaboración empresarial. Se diferencia del Google I/O porque está enfocado completamente en el mundo corporativo e ingenieros de datos, y no en los desarrolladores de consumo y el sistema operativo Android, presente en miles de millones de smartphones y tabletas.

En Google Cloud Next 2026, el gigante de Internet ha dejado algunos titulares muy interesantes e importantes. Uno de los más llamativos, proporcionado por el propio Sundar Pichai, CEO de la compañía, es que el 75 % del código nuevo que se escribe dentro de Google ya lo genera una inteligencia artificial, revisado y aprobado por ingenieros humanos. Hace un año era el 50 %.

La compañía de Mountain View es una de las que más apuesta por la inteligencia artificial. Su bot conversacional Gemini le está pisando los talones a ChatGPT de OpenAI, con más de 750 millones de usuarios móviles activos mensuales. Está integrándolo en sus aplicaciones y servicios más populares, como Maps, para «mejorar» la experiencia de uso. Por ello, requiere del mejor hardware y herramientas para acelerar su desarrollo y entrenamiento, como los nuevos chips TPU 8.

Las TPU 8t y TPU 8i ofrecen un rendimiento por vatio hasta dos veces superior al de la generación anterior, Ironwood

Aprovechando el marco del evento Cloud Next, Google ha presentado la octava generación de la Unidad de Procesamiento Tensorial (TPU) personalizada de la compañía, la cual estará disponible en dos arquitecturas distintas y diseñadas específicamente para entrenamiento e inferencia: TPU 8t y TPU 8i.

Estos dos chips están diseñados para potenciar los superordenadores personalizados de Google y gestionar desde el entrenamiento de modelos de vanguardia y el desarrollo de agentes hasta cargas de trabajo de inferencia masivas. Como explica el comunicado oficial, las TPU han impulsado modelos líderes en el mercado, como Gemini, durante años, y las de octava generación ofrecerán escalabilidad, eficiencia y capacidades para cargas de trabajo de entrenamiento, servicio y agentes.

La TPU 8t destaca en cargas de trabajo de entrenamiento masivas y de alta exigencia computacional, diseñadas con mayor rendimiento computacional y mayor ancho de banda escalable. La TPU 8i, por su parte, está diseñada con mayor ancho de banda de memoria para gestionar las cargas de trabajo de inferencia más sensibles a la latencia, lo que es fundamental, puesto que las interacciones entre agentes a gran escala magnifican incluso las pequeñas ineficiencias.

Por primera vez, ambos chips funcionan con la CPU Axion de Google, basada en ARM, lo que permite a la compañía optimizar el sistema completo, no solo el chip, en cuanto a rendimiento y eficiencia. Las dos plataformas son compatibles con JAX nativo, MaxText, PyTorch, SGLang y vLLM, y ofrecen acceso directo al hardware, brindando a los clientes acceso sin la complejidad de la virtualización.

Debido a que la energía es una limitación crucial en los centros de datos actuales, Google ha optimizado la eficiencia con una gestión de energía integrada que ajusta dinámicamente el consumo energético en función de la demanda en tiempo real. Las TPU 8t y TPU 8i ofrecen un rendimiento por vatio hasta dos veces superior al de la generación anterior, Ironwood.

Para ti
Queremos saber tu opinión. ¡Comenta!