Nowe podejście do superkomputerów
Uczeni z Uniwerstytetu Johnsa Hopkinsa konfigurują swój nowy superkomputer w sposób, który może zmienić zasady pomiaru wydajności takich maszyn. Argumentują przy tym, że nowa konfiguracja jest lepiej dostosowana do obliczeń naukowych, podczas których superkomputery wykorzystują gigantyczne ilości danych.

Obecnie wydajność superkomputerów mierzy się we flopsach czyli w operacjach zmiennoprzecinkowych na sekundę. Uczeni z Johna Hopkinsa konfigurują swoją maszynę pod kątem osiągnięcia najlepszej wydajności mierzonej w IOPS-ach, a zatem w liczbie operacji wejścia/wyjścia na sekundę. Innymi słowy, flopsy informują nas o zdolnościach obliczeniowych komputera, a IOPS-y o tym, jakie ilości danych mogą maszynę opuszczać i być do niej przesyłane.
Alexander Szalay, informatyk i astrofizyk z Institute for Data Intensive Engineering and Science wyjaśnia, że dla naukowców liczba operacji wejścia/wyjścia stała się wąskim gardłem. Ludzie uruchamiają na superkomputerach coraz większe symulacje, które zajmują olbrzymie ilości miejsca w pamięci operacyjnej i bardzo trudno jest zapisywać dane wyjściowe na dysk.
Na nowy system, nazwany Data-Scope, przeznaczono 3,1 miliona dolarów, z czego 2,1 miliona do grant z Narodowej Fundacji Nauki. Superkomputer ma rozpocząć prace w maju przyszłego roku. Już w tej chwili 20 grup naukowych z Johnsa Hopkinsa wyraziło zainteresowanie jego użyciem. Chcą go wykorzystać do obliczeń związanych z genetyką, obiegiem wody w oceanach, turbulencjami, astrofizyką itp. Uniwersytet będzie udostępniał Data-Scope także obcym uczonym.
Proponowana przez uczonych z Johnsa Hopkinsa zmiana podejścia może być bardzo interesująca, gdyż powinna pozwolić na zmniejszenie kosztów użytkowania superkomputerów. Obecnie większość uczonych może na pojedynczej maszynie analizować dane o objętości nie większej niż 10 terabajtów. Do obrabiania większej ilości danych zaprzęga się kilka superkomputerów. Jak twierdzi Szalay, dzięki zmianie konfiguracji i skupieniu się na wskaźniku IOPS, możliwe będzie obniżenie kosztów analizy danych.
Twórcy Data-Scope zapewniają, że wydajność wydajność IOPS superkomputera wyniesie od 400 do 500 gigabitów na sekundę. To ponaddwukrotnie więcej niż wydajność IOPS obecnego lidera listy TOP500 - superkomputera Jaguar. Jednocześnie wydajność Data-Scope'a we FLOPS-ach to zaledwie 600 TFlops, czyli trzykrotnie mniej niż Jaguara.
Projektowany superkomputer składa się z około 100 serwerów, z których każdy ma do dyspozycji 24 dedykowane HDD i 4 SDD. Zapewnią one przepustowość danych rzędu 4,4 gigabity na sekundę. Za zdecydowaną większość obliczeń będą odpowiadały po dwa procesory graficzne (GPU) umieszczone w każdym z serwerów.
Konstruktorzy nowego superkomputera kierują się wytycznymi Gene'a Amdahla, który stwierdził, że idealna maszyna powinna dysponować 1 bitem I/O na każdą instrukcję, którą wykonuje. Obecnie reguła ta jest ignorowana i tzw. liczba Amdahla dla typowego superkomputera wynosi .001. W przypadku Data-Scope'a będzie to .6 lub .7.
Mariusz Błoński