Los científicos tras la pista del infinito "Pi: llevan más de 314 billones de dígitos calculados en 110 días, ¡y van a seguir!
Un equipo de ingenieros ha logrado descifrar 314 billones de dígitos de la constante matemática más famosa utilizando una sola máquina. Esta hazaña técnica redefine los límites del almacenamiento de datos y la eficiencia
El infinito número Pi siempre ha supuesto una gran obsesión para los matemáticos y, en la era digital, se ha convertido en el campo de batalla definitivo para medir la potencia de los superordenadores. La carrera por calcular esta cifra interminable acaba de dar un salto inédito, dejando atrás las marcas establecidas por grandes corporaciones tecnológicas que en 2022 celebraron haber alcanzado los 100 billones de decimales.
Hasta hace poco tiempo, lograr magnitudes astronómicas de este calibre exigía granjas enteras de servidores trabajando al unísono en la nube. Sin embargo, las reglas han cambiado drásticamente en el ámbito de los equipos locales. Según detalla el portal especializado Interesting Engineering, un único servidor logró procesar 314 billones de decimales en un maratón ininterrumpido de 110 días. Este hito demuestra que la arquitectura de almacenamiento constituye ahora el verdadero obstáculo a superar en la informática moderna.
Cualquier científico sabe que la NASA apenas necesita 37 decimales de Pi para calcular la circunferencia del universo observable con una precisión milimétrica. De ahí que la utilidad práctica de conocer billones de dígitos resulte prácticamente nula. Estos experimentos extremos sirven fundamentalmente para llevar las máquinas al límite absoluto, operando como un banco de pruebas implacable para detectar posibles fallos en componentes sometidos a un estrés brutal durante meses.
Mantener un equipo informático rindiendo al cien por cien de su capacidad durante casi cuatro meses supone un desafío mayúsculo. La ausencia total de caídas del sistema o reinicios inesperados confirma la extrema fiabilidad de la configuración, un factor crítico cuando se manejan cargas de trabajo que no toleran el más mínimo error de lectura o escritura.
El portento técnico detrás del récord
Para materializar esta proeza sin precedentes, los responsables del proyecto utilizaron un servidor Dell PowerEdge R7725 modificado específicamente para la ocasión. La máquina contaba con dos procesadores que sumaban 384 núcleos, respaldados por la friolera de 1,5 terabytes de memoria.
El verdadero secreto del éxito residió en su descomunal capacidad para leer y escribir datos a velocidades continuas. El equipo instaló 40 unidades de estado sólido de última generación, sumando un total de 2,5 petabytes de almacenamiento físico. Esta configuración extrema permitió al programa informático realizar los complejos cálculos matemáticos sin colapsar ante la gigantesca avalancha de información temporal generada por el sistema.
Eficiencia energética frente a la fuerza bruta
Más allá del apabullante volumen de datos procesados, el hito destaca por su asombrosa optimización de recursos frente a sus competidores directos. En intentos anteriores se requirieron enormes infraestructuras de almacenamiento compartido que dispararon el consumo eléctrico y complicaron enormemente la refrigeración de las instalaciones.
Por el contrario, el nuevo sistema operó con un consumo medio de apenas 1.600 vatios, requiriendo un total de 4.305 kilovatios hora para completar la titánica tarea en menos de cuatro meses. Esta cifra establece un nuevo estándar de eficiencia en la computación de alto rendimiento, demostrando que resulta posible realizar operaciones matemáticas a escala colosal reduciendo drásticamente la huella energética.