Wojciech Koczyk | 2 marca 2019, 14:04

Od Pentium D do Threadrippera − test 38 procesorów w zastosowaniach naukowych

BOINC, czyli superkomputer w każdym domu

Wszyscy wiemy, że komputery z roku na rok są coraz szybsze. Najczęściej porównujemy jednak tylko kilka ostatnich generacji i trudno oszacować, jak wiele zmieniło się na przestrzeni na przykład dziesięciu lat. Wiemy oczywiście, że dużo. Ale jak dużo? Sprawdziliśmy to na przykładzie poważnych aplikacji naukowych potrafiących wycisnąć siódme poty nie tylko z domowych komputerów, ale i z wielowątkowych maszyn przeznaczonych dla profesjonalistów.

Komputery domowe...

Przez wiele lat komputery z procesorami w architekturze x86 uznawane były za zabawki dla domowych użytkowników. Oczywiście pozwalały korzystać z procesora tekstu (kto jeszcze pamięta dziś to pojęcie?), grać w proste gry czy uczyć się programowania. Do poważnej pracy służyły jednak inne, specjalizowane maszyny, takie jak stacje graficzne nieistniejącego już Silicon Graphics z procesorami MIPS czy komputery Apple z IBM PowerPC. Obu tych rozwiązań, a także wielu innych nie ma dziś już na rynku. Dlaczego?

Ogromną zaletą pecetów było oczywiście to, że były względnie tanie, łatwe w rozbudowie i co prawda niezbyt wydajne w porównaniu z dedykowanymi rozwiązaniami, ale za to uniwersalne. Na pewno pomogło też niezwykłe tempo rozwoju wymuszane przez wielu konkurujących ze sobą producentów CPU, kart graficznych i wszelkich innych komponentów. Użytkownik profesjonalny nadal nie miał jednak łatwo. Procesory w latach dziewięćdziesiątych nadał były jednordzeniowe, ale coraz więcej producentów zauważyło nową niszę na rynku i zaczęły pojawiać się dwuprocesorowe płyty główne. Były to rozwiązania niezwykle drogie, a do tego niezbyt uniwersalne. Po pierwsze, niewiele programów mogło z nich korzystać. Po drugie popularny wówczas Windows 98 nie obsługiwał SMP (ang. Symmetric MultiProcessing) i nie rozpoznawał drugiego procesora w systemie, a czasem wręcz odmawiał startu. Pozostawał więc Windows NT z jego licznymi, z punktu widzenia domowego użytkownika, ograniczeniami oraz Linux. Ktokolwiek używał Linuksa w zeszłym wieku wie, że nie było to rozwiązanie dla Kowalskiego czy Smitha...

Przykładem płyty obsługującej dwa procesory może być powyższy Tyan S1668. Płyta obsługująca dwa Pentium Pro, o wyraźnie serwerowym rodowodzie, została pozbawiona kontrolera SCSI i z pewnym trudem wydana w rozmiarze ATX. O cenę kompletnej platformy lepiej nie pytać...

Z czasem sytuacja zaczęła się jednak zmieniać, a jedną z pierwszych jaskółek wypuścił legendarny już dziś producent płyt. ABIT BP6, bo o nim mowa, miał niezwykłe właściwości! Umożliwiał bezzworkowe podkręcanie procesora, co nie było w 1999 roku oczywiste. Miał dwa sockety 370 i co być może najważniejsze − pozwalał zainstalować w nich dwa procesory Celeron, a więc znacznie tańsze od Pentium III. Niewiele później pojawił się Windows 2000 (nie mylić z Millenium!), który był pierwszym nieśmiałym krokiem do połączenia dwóch systemowych światów − domowego Windows 98 z profesjonalną linią NT − i obsługiwał SMP.

Płyta ABIT-a wyraźnie bliższa desktopowym standardom.

Po pojawieniu się Windows XP poszło już z górki. Gdy tylko zwolnił wyścig na megaherce, rozpoczął się wyścig na rdzenie. Pojawiło się HT, pierwsze procesory Athlon X2 czy Quad Core. To jednak historia znacznie nowsza i znana zapewne większości naszych czytelników.

Sytuacja ustabilizowała się na blisko dziesięć lat. Domowi użytkownicy mieli do dyspozycji maksymalnie czterordzeniowe i ośmiowątkowe procesory Intel Core i7, ewentualnie AMD Phenom II X6 czy później niesławny model FX 8xxx. Kto chciał więcej, ten musiał sięgnąć po drogą platformę HEDT oferującą maksymalnie sześć rdzeni albo rozwiązania Intel Xeon. Ostatnie kilka lat było więc okresem spokoju, choć lepiej pasuje raczej określenie − cisza przed burzą.

Burza nadeszła w postaci procesorów Ryzen i Threadripper. Już te pierwsze, typowo domowe, zaoferowały więcej rdzeni i wątków niż platforma HEDT Intela przy znacznie niższej cenie. Linia dla profesjonalistów zaskoczyła równie mocno i zmusiła konkurenta do nerwowych ruchów, takich jak wydanie bardzo chłodno przyjętego przez rynek Core i9-9980XE.

Taka sytuacja, oczywiście korzystna dla konsumenta, ma pewne daleko idące konsekwencje. Znów po latach wróciliśmy do sytuacji, gdy rynek oprogramowania nie nadąża za sprzętem, a przetestowanie procesora obsługującego 64 wątki w realnym zastosowaniu jest trudne. Nawet benchmarki często mają ograniczenia i nie skalują się dobrze powyżej określonej liczby wątków. Skrajnym przykładem są oczywiście gry, które zdecydowanie lepiej działają na czterech szybkich rdzeniach, niż szesnastu wolniejszych. Choć wydaje się to oczywiste, wciąż spotykamy się z komentarzami dotyczącymi testowania Threadripperów w grach...

 

Superkomputery...

Równolegle w ośrodkach badawczych, na uniwersytetach i w tajnych (mniej lub bardziej) laboratoriach konstruowano wyspecjalizowane, potężne superkomputery. Ich historia z oczywistych względów przebiegała dość podobnie. Pierwsze budowane były na długo przed pojawieniem się idei komputera osobistego. W tych pionierskich czasach tworzono je od poziomu sprzętu aż po oprogramowanie w jednym, konkretnym celu. Jakim? Zazwyczaj oczywiście militarnym. A konkretnie − służyły do prowadzenia obliczeń balistycznych, symulacji wybuchów nuklearnych i tym podobnych naukowych działań. Z czasem jednak cena sprzętu spadała i choć najmocniejsze maszyny nadal były własnością militarnych ośrodków rządowych, to jednak coraz częściej także innego rodzaju placówki badawcze mogły sobie na nie pozwolić. I tak zaczęły się rozwijać nauki biologiczne, chemiczne czy fizyczne o mniejszym wojskowym znaczeniu.

Wracając jednak do samego sprzętu, ewolucja zachodziła podobnie jak w desktopach. Niektóre pomysły i architektury przyjęły się i dynamicznie rozwijały, inne powoli wymierały. Na początku lutego w naszym serwisie mogliście przeczytać, że Intel kończy produkcję ostatnich chipów Itanium. Kolejny przegrany w wyścigu. Dziś na liście Top 500 najszybszych superkomputerów znajdziemy głównie procesory x86, choć pewien opór wciąż stawia IBM z architekturą Power. Intel jest jednak zagrożony ciągłym rozwojem kart graficznych akceleratorów obliczeniowych produkowanych przez Nvidię i AMD. Na wartym miliardy dolarów rynku konkurencja nie śpi...

Nie każdy naukowiec ma środki finansowe i techniczne, by korzystać z maszyn za dziesiątki czy wręcz setki milionów dolarów. Nie każdy też tego potrzebuje. Na styku dwóch powyższych światów istnieje trzeci, który dostarczy tym razem nie naukowcom, ale nam interesujących danych.