Más ancho de banda y espacio para almacenar: Qualcomm invierte en sus nuevos aceleradores con IA

La compañía estadounidense presenta soluciones diseñadas para centros de datos, que prometen multiplicar la eficiencia y reducir costes

Más ancho de banda y espacio para almacenar: Qualcomm invierte en sus nuevos aceleradores con IA
Qualcomm quiere potenciar los futuros modelos de IA
Publicado en Tecnología

Qualcomm quiere abandonar la idea que solamente cumple el papel de potenciar los dispositivos tecnológicos de este siglo, intentando posicionarse como eje fundamental en la era de la inteligencia artificial. La empresa ha desvelado dos piezas fundamentales para conquistar los centros de datos, que pretenden marcar un antes y un después en la eficiencia y el consumo.

Qualcomm da un salto en la carrera por la IA

Hablamos de aceleradores, de acuerdo, pero ¿qué es un acelerador? En realidad, el avance de Qualcomm tiene que ver con procesadores especializados, que han sido diseñados para ejecutar tareas matemáticas de los modelos de IA de manera más eficiente y rápida. En primer lugar, tenemos el AI200, que se presenta como una solución para grandes modelos de lenguaje y modelos multimodales. Hablamos de los que están detrás de chatbots, asistentes virtuales y sistemas de análisis de datos.

Imagen promocional de los aceleradores AI200 y AI250 de Qualcomm

Imagen promocional de los aceleradores AI200 y AI250 de Qualcomm

Este acelerador admite hasta 768 GB de memoria LPDDR, un tipo de memoria RAM que consume mucha menos energía que la memoria DRAM tradicional. Estamos hablando de un chip que permite reducir costes y obtener más músculo de cálculo sin tener que disparar el consumo eléctrico ni el presupuesto. El siguiente escalón en la hoja de ruta de Qualcomm es el acelerador AI250.

La gran novedad de este chip se encuentra a arquitectura de memoria basada en el llamado near-memory computing. Habitualmente, los cálculos se hacen en el procesador y los datos se almacenan en la memoria. En este caso, con el near-memory computing, se acerca el procesamiento lo máximo posible a la memoria, incluso integrando unidades de cálculo dentro o al lado de los chips de memoria. Esto ofrece como resultado una mejora de más de 10 veces en el ancho de banda efectivo, una alimentación de los modelos de IA mucho más rápida y un consumo energético muy inferior.

Existen características compartidas entre ambos aceleradores, tales como la refrigeración líquida directa, la conectividad PCIe, Ethernet y un consumo total de 160 kilovatios por bastidor, lo que equivale a unas 50 casas con electrodomésticos encendidos al mismo tiempo. Además, incorporan funciones de computación confidencial, que sería una especie de caja fuerte que se encuentra dentro del procesador.

La compañía ha anunciado que el AI200 estará disponible comercialmente en 2026, mientras que el AI250 llegará en el año 2027. Qualcomm ha prometido mantener un ritmo anual de actualizaciones para los centros de datos, con el objetivo de liderar la nueva era de la inteligencia artificial, combinando potencia, eficiencia y sostenibilidad.

Para ti
Queremos saber tu opinión. ¡Comenta!