Wojciech Koczyk | 30 lipca 2018, 16:00

V = ω * r – czyli test talerzowych dysków twardych

Dwudziestu siedmiu zawodników z różnych kategorii

Od ostatniego dużego testu dysków twardych na łamach PCLab.pl minęło pięć lat. Choć nie jest to już tak ciekawy i tak rozwijający się rynek jak kiedyś, wciąż co jakiś czas pojawiają się nowe produkty. Postanowiliśmy więc zakasać rękawy i nadrobić zaległości w formie dużego, pracochłonnego, ale – mamy nadzieję – pożytecznego artykułu.

Wielki test HDD

Seagate kiedyś i dziś – 4-terabajtowa Barracuda obok swojego przodka, ST-251 o pojemności 40 MB. Czytelnikom pozostawiam policzenie stosunku pojemności ;)

Choć przedstawione na zdjęciu dyski dzieli prawie 30 lat, fizyczne rozmiary, interfejs czy złącze zasilania, jedno pozostało właściwie niezmienne: zasada działania. W obu znajdują się wirujące talerze, nad którymi pracują magnetyczne głowice zapisujące i odczytujące dane. Krótko mówiąc, wciąż są to urządzenia mechaniczne, a nie tylko elektroniczne, jak chociażby nośniki SSD. Ma to bardzo istotne konsekwencje.

Wzór w tytule być może wymaga pewnego wyjaśnienia (choć powinien być znany każdemu gimnazjaliście ;-)). W przypadku HDD oznacza on, że prędkość liniowa V (a więc prędkość poruszania się powierzchni dysku pod głowicą) równa jest prędkości obrotowej talerza (na przykład 7200 obr./min) pomnożonej przez długość ramienia (czyli odległość od środka talerza). Dlaczego to tak ważne?

Po pierwsze, prędkość transferu zapewniana przez dysk twardy nie jest stała. Osiąga maksimum na krawędzi talerza i spada tym bardziej, im bliżej środka znajduje się głowica. Między innymi dlatego na HDD używanym jako nośnik systemowy warto utworzyć partycję na system operacyjny i najważniejsze programy oraz drugą w dalszej części dysku, na multimedia i inne dane.

Po drugie, choć mogłoby się wydawać, że łatwą drogą do zwiększenia wydajności HDD jest zwiększenie prędkości obrotowej, sprawa, jak to zwykle bywa z fizyką, nie jest taka prosta. Na przeszkodzie stoją problemy takie, jak: większa głośność, silniejsze wibracje, wzrost poboru energii, większa awaryjność, a ponadto, rzecz kluczowa, im szybciej kręci się dysk, tym więcej precyzji wymaga pozycjonowanie nad nim głowicy. Ostatecznie więc od ponad 20 lat w komputerach domowych standardem są dyski „szybkie”, o prędkości 7200 obr./min, i „wolne”, o prędkości 5400 obr./min. Istnieją jednak pewne wyjątki od tej reguły, do których wrócę na dalszych stronach.

Skoro więc zwiększanie prędkości obrotowej (a wraz z nią V) nie jest dobrą drogą do lepszej wydajności, to jakie są alternatywne opcje? Oczywiście – zwiększenie gęstości upakowania danych na talerzu. Im jest ona większa, tym więcej informacji może zostać odczytanych bądź zapisanych, nawet przy stałej prędkości. Tu jednak znów na drodze stoi fizyka, gdyż z jednej strony większe upakowanie wymaga coraz wyższej jakości nośnika, z drugiej zaś margines błędu pozycjonowania głowicy jest coraz mniejszy. Postęp w tej dziedzinie jest więc wolny.

Te pobieżne rozważania właściwie wyczerpują temat prędkości obrotowej. A co z R?

Rzecz jasna, im szybciej głowica znajdzie się na właściwej pozycji, tym szybciej dysk będzie mógł dostarczyć (bądź zapisać) potrzebne dane. Niestety, spotykamy tu te same problemy co poprzednio. Szybszy ruch to większe przeciążenia czy awaryjność, a mniejsza precyzja. Wymagające korekty ustawienie głowicy spowoduje zaś opóźnienie i w efekcie obniży wydajność, zamiast zwiększyć.

Pozostają jeszcze takie czynniki, jak elektronika sterująca i jej oprogramowanie czy użyta pamięć podręczna i jej rozmiar. Ostatecznie jednak można powiedzieć, że zbudowanie nowoczesnego, wydajnego dysku twardego jest bardzo trudnym zadaniem. Porównywalnym ze znalezieniem optymalnego rozwiązania równania o bardzo wielu, nie zawsze dokładnie zdefiniowanych, zmiennych.

Pozostaje sprawdzić, jak poradzili sobie z nim nieliczni pozostali na rynku HDD producenci.