Z praktycznego punktu widzenia aż tyle cyfr nie jest nikomu potrzebne. NASA przypomina, że do obliczenia obwodu obserwowalnego Wszechświata z dokładnością do szerokości atomu wodoru wystarczyłoby około 37 miejsc po przecinku. Reszta nie służy więc temu, by lepiej narysować okrąg. To raczej test granic infrastruktury obliczeniowej, pamięci masowej i niezawodności sprzętu. W pewnym sensie rekord π coraz mniej mówi o samej matematyce, a coraz bardziej o tym, jak daleko da się dociągnąć współczesne maszyny, zanim zaczną prosić o litość.
314 bilionów cyfr to bardziej maraton dla serwerów niż święto kalkulatora
Rekordowy wynik powstał nie w gigantycznej chmurze obliczeniowej rozlanej po świecie, lecz na pojedynczym serwerze Dell PowerEdge R7725. W środku pracowały dwa procesory AMD EPYC i 40 dysków NVMe, z czego 34 brały bezpośredni udział w obliczeniach prowadzonych przez program y-cruncher. Całość trwała około 110 dni bez ani sekundy przestoju. Przy takiej skali nie chodzi już tylko o szybkość, ale o to, by przez ponad trzy miesiące nic się nie rozsypało – ani sprzętowo, ani logicznie.
Brzmi to trochę jak wyścig w pisaniu najdłuższego numeru świata, ale w praktyce jest bliżej do logistycznej operacji wojskowej niż do zabawy z cyframi. Przy setkach bilionów miejsc po przecinku procesor przestaje być jedynym bohaterem. Ogromne znaczenie ma to, jak szybko system potrafi zapisywać i odczytywać gigantyczne pliki tymczasowe. Innymi słowy, rekord π nie jest już konkursem na najmądrzejszy wzór, tylko na najlepiej zestrojoną orkiestrę procesorów, pamięci i nośników danych.
Zespół twierdzi, że jego konfiguracja była wyraźnie “szczuplejsza” niż poprzedni rekord 300 bilionów cyfr z maja 2025 roku, ustanowiony przez Linus Media Group i Kioxię. Zamiast iść w brutalną rozbudowę systemu, postawiono na bezpośrednie połączenie dysków NVMe z procesorami przez szybkie linie PCIe, żeby ograniczyć wąskie gardła przy zapisie i odczycie danych. To trochę jak różnica między dołożeniem kolejnych ciężarówek a przebudową całego węzła drogowego tak, by ruch wreszcie zaczął płynąć sensownie.

Sama historia bicia rekordów π ma w sobie coś z matematycznego sportu motorowego. Przez lata padały wyniki 31,4 biliona, potem 62,8 biliona, później 100 bilionów, a teraz 300 i 314 bilionów. Widać w tym nie tylko postęp sprzętu, ale też pewną kulturę środowiska: z jednej strony czystą rywalizację, z drugiej zabawę symboliką samej liczby π, która aż prosi się o wyniki zaczynające się od 3,14.
Różnica polega na tym, że dawniej rekord brzmiał głównie jak ciekawostka dla matematyków i geeków od benchmarków. Dziś jest już pełnoprawnym testem odporności nowoczesnych systemów obliczeniowych. Kiedy trzeba przez 110 dni bez przerwy mielić dane na pojedynczej maszynie, okazuje się, że rekord π jest trochę jak ultramaraton dla centrum danych. Nie wygrywa ten, kto na starcie zrobi najwięcej hałasu, tylko ten, kto potrafi utrzymać tempo bez awarii, przegrzania i załamania przepływu danych.
π pozostaje tą samą nieskończoną liczbą, spokojną i obojętną na nasze ambicje. Zmieniają się tylko ludzie i ich maszyny, które co kilka miesięcy próbują dopisać do niej jeszcze więcej cyfr, choć świat od tego nie stanie się ani bardziej okrągły, ani bardziej zrozumiały. Ale za to całkiem sporo powie nam o tym, jak sprawnie potrafimy budować systemy, które przez ponad sto dni robią jedną rzecz i nie mylą się ani razu.
Źródło: Science Alert; Jet Propulsion Laboratory
