Nieco historii
Zanim Nvidia po raz pierwszy pokazała technikę G-Sync, w październiku 2013 roku, utrzymywała wszystko w ogromnej tajemnicy. Dziennikarze zaproszeni na konferencję dla kilkudziesięciu osób z całego świata nie wiedzieli, czy lecą zobaczyć nową kartę graficzną czy jakieś rewolucyjne rozwiązanie. Ostatecznie okazało się, że na konferencji, za zamkniętymi drzwiami, przedstawiono nie tylko kartę GeForce GTX 780 Ti, ale też monitory z modułem, który Nvidia nazwała G-Sync. Zebrani naprzeciwko nowych monitorów z nową techniką synchronizacji obrazu, początkowo sceptyczni, już po kilkudziesięciu sekundach przekonali się, że to, o czym przed chwilą szeptem mówiono: „Nic interesującego”, to tak naprawdę game changer.
Nieprzypadkowo utrzymywano G-Sync w tajemnicy: Nvidia na pewno chciała złapać w swoją sieć nowych klientów przez zaoferowanie im nowej możliwości na wyłączność, podczas gdy AMD zupełnie nie miało czym odpowiedzieć.
FreeSync – początki
Pierwsze pogłoski o podobnie działającym rozwiązaniu AMD pojawiły się podczas targów CES 2014. Wtedy to firma przedstawiła technikę FreeSync. Nazwa była w oczywisty sposób wymierzona w dodatkowo płatną G-Sync. W pierwszej prezentacji użyto pary laptopów Toshiba Satellite. Dobór sprzętu był nieprzypadkowy, a wręcz wymuszony. Laptopy te mają nieco inną budowę niż większość: karta graficzna jest w nich podłączona bezpośrednio do wyświetlacza za pomocą interfejsu eDP (Embedded DisplayPort), który pozwolił użyć polecenia VBLANK, opóźniającego kolejne odświeżenia ekranu w celu redukcji poboru energii w urządzeniach przenośnych. Okazało się jednak, że opóźnienie odświeżenia ekranu przez manipulowanie czasem VBLANK może mieć też zastosowanie w grach.
Z naszego testu rozwiązania Nvidii wynika, że właśnie tak działa moduł G-Sync: częstotliwość odświeżania ekranu jest kontrolowana za pomocą parametru VBLANK i ten sam trik zastosowało AMD w laptopach Toshiby, aby pokazać FreeSync w akcji. W tamtym czasie nie dało się zaprezentować działania nowej techniki na samodzielnych monitorach, bo tylko Nvidia miała w swoich rękach zbudowany od podstaw moduł tego typu, który tak naprawdę jest zaawansowanym skalerem (obsługującym między innymi technikę zmiennego odświeżania obrazu), zastępującym standardowy skaler w monitorze. AMD, aby przedstawić FreeSync na targach CES w 2014 roku (2 miesiące po pierwszej prezentacji G-Sync), musiało wykorzystać właśnie laptopy z interfejsem eDP.
Sytuacja zmieniła się dopiero sześć miesięcy później, w czerwcu 2014 roku, na targach Computex. Tam AMD w końcu pokazało prototyp zewnętrznego wyświetlacza, który obsługiwał funkcję AMD FreeSync, czyli pozwalał wyeliminować rozrywanie obrazu (tearing) i zacięcia (stuttering). Wszelkie logo czy tabliczki znamionowe zostały przez pracowników firmy zaklejone, aby nie było wiadomo, z jakim monitorem dziennikarze mają do czynienia na stoisku, ale zapewniano, że jest to model dostępny w sprzedaży (wyposażony w odpowiednie podzespoły) i aby wymusić działanie FreeSync, wystarczyłoby przeprowadzić aktualizację oprogramowania mikroukładu. Jednocześnie pracownicy AMD przyznawali, że choć na rynku jest kilka monitorów zdolnych sprzętowo do obsługi FreeSync (nie podano jakich), nie należy się spodziewać aktualizacji oprogramowania, która udostępniłaby FreeSync w istniejących wyświetlaczach.
Kilkanaście dni po targach Computex w amerykańskiej redakcji „PCPer” pojawił się znany większości Richard Huddy, w AMD pełniący funkcję Chief Gaming Scientist, co w wolnym tłumaczeniu oznacza specjalistę od technik związanych z grafiką 3D w komputerach i konsolach. Podczas prawie 1,5-godzinnej dyskusji Huddy mówił o wielu rzeczach, między innymi o monitorach z techniką FreeSync. W pewnym momencie przedstawiciel AMD stwierdził, że testerzy powinni dostać monitory z FreeSync na przełomie września i października 2014 roku. AMD stało już pod ścianą, bo na rynku pojawił się rozchwytywany wówczas przez zapaleńców 144-hercowy Asus ROG Swift PG278Q o rozdzielczości WQHD (2560 × 1440), wyposażony w moduł G-Sync. Odpowiedź AMD była więc bardzo wyczekiwana, ale nic takiego nie nastąpiło. Monitorów FreeSync w czwartym kwartale 2014 roku nadal nie było ani w redakcyjnych laboratoriach, ani tym bardziej w sprzedaży.
Stało się jasne, że bez produktów na półkach sklepowych strategia marketingowa AMD dotycząca FreeSync nie polegała na promocji własnego rozwiązania, a raczej na próbach zahamowania sprzedaży monitorów z G-Sync. A było co hamować: ROG Swift znikał z półek w tempie 100 sztuk dziennie. Na rynku było zapotrzebowanie na taki sprzęt i Asus wraz z Nvidią zdołali to wykorzystać.
Platforma testowa do porównań
W niniejszym artykule porównamy działanie G-Sync oraz FreeSync. I już na początku pojawia się mały problem. Dema technologiczne obu tych rozwiązań znacznie się różnią. Uznaliśmy, że nie możemy wykorzystywać materiałów jednej lub drugiej firmy (Nvidia udostępniła demo z wahadłem, a AMD – z wiatrakiem), więc sami stworzyliśmy sobie pole do porównań.
Aby to zrobić, przeanalizowaliśmy, jaki ruch obiektu jest najlepszy do zaprezentowania różnic pomiędzy trybami G-Sync i FreeSync z włączoną i wyłączoną synchronizacją pionową, i postanowiliśmy go odtworzyć przy użyciu jednego z silników gry. Silnik Source, na którym jest oparta najpopularniejsza strzelanka sieciowa, Counter-Strike: Global Offensive, okazał się idealnym narzędziem. W edytorze map Hammer zbudowaliśmy przestrzeń do testów FreeSync i G-Sync. Przedstawia ją poniższy film.
Plusy? Testujemy obie techniki na neutralnym gruncie: nie w demie technologicznym, ale w realnej grze, a do tego żadna z firm nie mogła przygotować swojego sprzętu pod kątem tego testu, ponieważ mapka o jakże wymyślnej nazwie de_tearing znajduje się w pilnie strzeżonym laboratorium PCLab ;)
AMD FreeSync – idea i sposób działania
Obecnie stosowane powszechnie skalery kontrolujące zachowanie matryc LCD nie są przystosowane do zmiennego odświeżania ekranu. Nvidia postanowiła zrobić taki skaler na własną rękę z wykorzystaniem układu FPGA (to właśnie moduł G-Sync), by zastąpić nim oryginalny skaler w monitorze. AMD poszło inną drogą: zaproponowało konsorcjum VESA, aby manipulowanie parametrem VBLANK stało się standardem przemysłowym.
Tak naprawdę rozwiązanie już istniało: manipulowanie parametrem VBLANK jest możliwe w interfejsie eDP (stosowanym w laptopach) i właśnie tę drogę wybrały AMD i VESA. Konsorcjum nazwało nową technikę VESA DisplayPort Adaptive-Sync i postanowiło, że Adaptive-Sync (podstawa działania FreeSync) będzie opcjonalną częścią standardu DisplayPort 1.2a. W związku z tym powstało wiele nieporozumień.
Słowo standard było zbyt często używane w złym kontekście, przez co wielu pomyślało, że Adaptive-Sync, czyli zmienna częstotliwość odświeżania, stanie się „standardowym”, a więc wymaganym przez VESA, składnikiem urządzenia z portem DisplayPort 1.2a. To jednak nie jest prawdą. Można stworzyć urządzenie zgodne ze specyfikacją DisplayPort 1.2a (kartę rozszerzeń, np. graficzną, monitor czy wreszcie telewizor), ale pozbawione funkcji zmiennej częstotliwości odświeżania. Tym samym twierdzenia o „darmowym” rozwiązaniu, które byłoby stosowane w każdym nowym monitorze, można włożyć między bajki. Implementacja Adaptive-Sync jest dla producenta sprzętu opcjonalna i nie decyduje o zgodności ze standardem DisplayPort 1.2a. Dlatego AMD, które nie zamierzało stworzyć własnego skalera, musiało zachęcić do swojej techniki producentów monitorowych skalerów.
Zadania podjęły się trzy firmy: Realtek, MStar i Novatek, które postanowiły zaprojektować skalery zgodne ze specyfikacją DisplayPort 1.2a i zapewniające dodatkową funkcję: Adaptive-Sync, którą AMD wykorzystało do stworzenia FreeSync. Ostatecznie okazało się więc, że FreeSync również potrzebuje nowych modułów w monitorach, a na te trzeba było poczekać.
AMD FreeSync – działanie
Do czego technika FreeSync jest potrzebna? Aby wyeliminować niedoskonałości w obrazie w postaci rozrywania (tearing) i zacięć (stuttering) oraz zminimalizować denerwujące opóźnienie sygnału (input lag).
Wszystkie te problemy opisaliśmy dokładnie, gdy po raz pierwszy zajmowaliśmy się dogłębnie techniką G-Sync („V-Sync – półśrodek z przeszłości”), i nie ma większego sensu przedstawiać całej teorii raz jeszcze, bo wiadomo, gdzie leży problem: w grach doświadczamy zmiennej liczby klatek na sekundę, a obecnie monitory odświeżają obraz z ustaloną częstotliwością, dlatego zdarza się, że ekran wyświetla kilka klatek jednocześnie, co prowadzi do rozrywania ekranu (tearing), lub karta graficzna nie zdąża wygenerować nowej klatki na czas i monitor musi dwa razy wyświetlić tę samą ramkę obrazu, co prowadzi do mikrozacięć (stuttering).
Jest jeszcze dodatkowe opóźnienie sygnału po włączeniu synchronizacji pionowej, co sprawia, że dla części osób gra przy włączonej opcji V-Sync staje się nieprzyjemna, a nawet niemożliwa.
Przedstawione na powyższych diagramach problemy niweluje AMD FreeSync (korzystając z podstawy w postaci VESA Adaptive-Sync) w taki sam sposób, w jaki robi to G-Sync Nvidii, czyli odpowiednio modyfikuje parametr VBLANK (różnicę czasu pomiędzy wyświetleniem ostatniej linii obrazu x i pierwszej linii obrazu x + 1). W ten sposób to karta graficzna decyduje o tym, kiedy monitor odświeża obraz, i jest to już sprawdzone rozwiązanie, które po prostu działa.
FreeSync – zakres częstotliwości odświeżania ekranu
G-Sync działa w zakresie 30–144 Hz. Nvidia mówi przy tym, że podany zakres częstotliwości to nie są graniczne możliwości modułu G-Sync, ale raczej ograniczenie wynikające z tego, jak działa LCD: obraz na obecnych matrycach ciekłokrystalicznych odświeżanych z częstotliwością mniejszą niż 30 Hz po prostu nie wygląda dobrze: w pewnym momencie ekran traci nasycenie kolorów (albo wręcz jasność) i po prostu trzeba go odświeżać częściej niż na przykład 15 razy na sekundę. To działa także w drugą stronę: Nvidia podaje maksymalną wartość, 144 Hz, ponieważ obecnie nie są produkowane szybsze matryce dla graczy.
A FreeSync? Tutaj teoria mija się wyraźnie z praktyką. Częstotliwość odświeżania podawana przez AMD w specyfikacji to 9–240 Hz. Oznacza to jednak tylko tyle, że sam standard VESA Adaptive-Sync (na którym jest oparta technika FreeSync) obsługuje wymieniony zakres.
Problem polega na tym, że obecnie żaden wyświetlacz z FreeSync nie jest zdolny do odświeżania obrazu wolniej niż z częstotliwością 40 Hz. Oznacza to mniej więcej tyle, że jeśli karta graficzna umie zapewnić 30–39 kl./s, nie sposób zsynchronizować jej z monitorem i na ekranie występuje rozrywanie obrazu (tearing). Dla porównania: każdy monitor zgodny z G-Sync umie spowalniać odświeżanie obrazu nawet do 30 Hz.
Dlaczego o tym piszemy? AMD nie kontroluje ściśle procesu powstawania monitorów z techniką FreeSync. To ich producenci decydują ostatecznie, w jakim zakresie częstotliwości FreeSync będzie działać w danym urządzeniu. Oznacza to, że ktoś, kto decyduje się na monitor z obsługą FreeSync, musi bardzo dokładnie kontrolować, co kupuje, bo sprzęt może się okazać praktycznie bezużyteczny. Przykład?
LG 34UM67 z ekranem o przekątnej 34 cali. Zakres, w którym FreeSync działa w tym monitorze, wynosi w praktyce... od 48 Hz do 75 Hz (!), a więc 27 Hz... Jeśli liczba klatek na sekundę przekroczy ten wąski zakres, pojawi się rozrywanie obrazu oraz zacięcia animacji. Nie boimy się tego powiedzieć już teraz: w naszej ocenie monitory „dla graczy” obsługujące FreeSync w zakresie 48–75 Hz w rzeczywistości wcale nie są „dla graczy”.
Rozwiązanie AMD góruje zaś nad rozwiązaniem Nvidii w ten sposób, że pozwala wybrać, jak monitor będzie się zachowywał w sytuacji, gdy sprzęt osiągnie liczbę klatek na sekundę większą od najwyższej częstotliwości taktowania, w której działa nowa technika synchronizacji obrazu. Jeśli na 144-hercowym monitorze z G-Sync sprzęt dojdzie do górnej granicy dostępnego zakresu, moduł G-Sync nie pozwoli na wygenerowanie więcej niż 144 kl./s, ponieważ tylko tyle klatek można wyświetlić w całości, bez rozrywania obrazu, przy takim odświeżaniu. AMD daje wybór: gracz może zdecydować, że przy liczbie klatek przekraczającej częstotliwość odświeżania monitora (np. 200) FreeSync będzie zachowywać się tak jak G-Sync (ograniczenie liczby klatek i zsynchronizowanie ich z odświeżaniem monitora), lub całkowicie wyłączyć synchronizację. To drugie spowoduje, że monitor zdoła wyświetlić w ciągu sekundy więcej klatek, niż wynikałoby z zakresu obsługiwanego przez FreeSync, ale będzie się to wiązało z widocznym rozrywaniem obrazu. To ostatnie rozwiązanie wielu się spodoba, szczególnie zaawansowanym graczom, którzy w szybkich strzelankach grają na przykład w 300 kl./s, aby zminimalizować opóźnienie sterowania w grze.
AMD FreeSync – konfiguracja i działanie
A jak technika AMD FreeSync (VESA Adaptive-Sync) działa w praktyce? Aby się tego dowiedzieć, postanowiliśmy wypróbować nowy 27-calowy monitor Benq XL2730Z. Parametrami mocno przypomina model Asus ROG Swift PG278Q: też ma rozdzielczość WQHD (2560 × 1440), odświeżanie sięgające 144 Hz i matrycę TN (choć inny model). Różni się w zasadzie zastosowaniem techniki AMD FreeSync zamiast Nvidia G-Sync. Test modelu Benq XL2730Z pojawi się na PCLab.pl w ciągu kilku dni, a w niniejszym artykule zajmiemy się wyłącznie kwestią obsługi FreeSync.
Pierwsze, co się pojawia na ekranie po zainstalowaniu odpowiednich sterowników i podłączeniu monitora do odpowiedniej karty graficznej, to komunikat informujący o podłączeniu monitora zgodnie z techniką AMD FreeSync (VESA Adaptive-Sync). Można go zignorować (ale kto by to zrobił, mając taką możliwość?) lub przejść do zakładki Właściwości w Catalyst Control Center.
Tam wystarczy znaleźć opcję włączającą FreeSync i zaznaczyć ją kliknięciem myszy.
Od tego momentu obsługa FreeSync będzie włączona.
Już w tym miejscu trudno uniknąć porównania z G-Sync. Sterowniki Nvidii po wykryciu kompatybilnej karty graficznej i kompatybilnego monitora automatycznie włączają obsługę G-Sync w grach, bez żadnej ingerencji ze strony użytkownika, wyświetlając przy tym tylko krótki komunikat widoczny z zasobniku systemowym.
Tak czy inaczej, przez kilka godzin udało nam się pograć z włączoną techniką FreeSync z użyciem Radeona R9 290X oraz wspomnianego monitora Benq XL2730Z. Wykorzystanie VESA Adaptive-Sync przez AMD sprawia, że FreeSync działa dokładnie tak, jak miała działać: synchronizuje klatki obrazu wyświetlane na monitorze z tym, co dzieje się na wyjściu karty graficznej.
V-Sync kontra FreeSync
Jak widać na filmach powyżej, FreeSync zgodnie z oczekiwaniami eliminuje problemy związane z rozrywaniem obrazu. Nie dopatrzy się go nawet wprawne oko, bo zjawisko to po prostu nie występuje. Manipulowanie parametrem VBLANK zdaje egzamin tak samo dobrze jak w konkurencyjnym układzie G-Sync: karta graficzna poprawnie steruje monitorem i decyduje ostatecznie o tym, kiedy obraz zostanie odświeżony. Zresztą nie należało się spodziewać niczego innego. Gdyby po tak ogromnym opóźnieniu względem Nvidii technika FreeSync działała inaczej, byłby to niesamowity zawód, a na to AMD nie mogło sobie pozwolić. Jest jednak pewne ale...
AMD FreeSync kontra Nvidia G-Sync
Na poprzedniej stronie widać, że technika AMD FreeSync (VESA Adaptive-Sync) zdaje egzamin – eliminuje rozrywanie obrazu (tearing). Jednak ocena, czy działa, to nie wszystko, bo choć oba rozwiązania opierają się na manipulowaniu parametrem VBLANK, implementacja nieco się różni. Jak to sprawdzić? Najlepiej byłoby, gdyby istniał monitor dostępny w dwóch wariantach: z obsługą G-Sync i FreeSync, ale na taki sprzęt jeszcze musimy poczekać, więc w testach musieliśmy użyć dwóch różnych. Na przedstawiciela FreeSync wybraliśmy chyba najbardziej zachęcający model, czyli 27-calowy Benq XL2730Z z ekranem typu TN o rozdzielczości 2560 × 1440, odświeżanym z częstotliwością do 144 Hz. Wybór modelu z modułem G-Sync był prosty: Asus ROG Swift PG278Q, sprzęt o zbliżonych pozostałych parametrach.
Ponieważ FreeSync nie działa na przykład w 35 kl./s (wszystkie dostępne monitory obsługujące tę technikę mogą odświeżać obraz z częstotliwością nie mniejszą niż 40–48 Hz), porównanie postanowiliśmy przeprowadzić w nieco większej liczbie klatek na sekundę. Wiadomo, że największa różnica między G-Sync a FreeSync ujawnia się przy stosunkowo małej ich liczbie, a przecież idealnie działająca technika zmiennego odświeżania w monitorze LCD najbardziej wpływa na komfort rozgrywki właśnie wtedy, w przedziale 30–60 kl./s. Oba rozwiązania postanowiliśmy przetestować, kompromisowo, w 45 kl./s.
Czy na powyższym filmie widać coś niepokojącego? Pewien problem jest widoczny już na pierwszy rzut oka, a najlepiej świadczy o tym liczba osób, która pozytywnie zaliczyła ślepy test w naszej redakcji, przeprowadzony z użyciem dwóch monitorów ustawionych obok siebie. Na ekranie z modułem FreeSync kolejne klatki obrazu są zsynchronizowane, ale występuje efekt ghostingu.
Ghosting to po prostu efekt powidoku, ducha – pozostałość po ostatniej wyświetlonej klatce. Efekt ten według naszej wiedzy występuje na każdym ekranie obsługującym FreeSync, niezależnie od modelu matrycy, i nie tylko my to zauważyliśmy. Uwieczniły go m.in. dwie konkurencyjne redakcje: benchmark.pl (Acer XG270HU) oraz pcper.com (Benq XL2730Z i LG 34UM67). W dodatku ghosting z ekranu znika od razu po tym, jak funkcja FreeSync zostanie zablokowana i monitor będzie mógł działać ze stałą częstotliwością odświeżania. Więc w czym tkwi przyczyna?
Co z tym ghostingiem?
Paradoksalnie na to pytanie odpowiada nie AMD, a Nvidia. Od początku inżynierowie „zielonych” twierdzili, że wcześniej próbowali oprzeć G-Sync wyłącznie na zmianie parametru VBLANK w uniwersalny sposób (np. z użyciem nieistniejącego jeszcze wtedy standardu VESA Adaptive-Sync), ale... „nie byli zadowoleni z rezultatu”. O tym ostatnim opowiedział „wybitny inżynier” firmy Tom Petersen, który pierwszy prezentował technikę G-Sync (w październiku 2013 roku). Nvidia w początkowej fazie, wtedy kiedy istnienie G-Sync było jeszcze utrzymywane w tajemnicy, też napotkała problemy z ghostingiem i właśnie wtedy postanowiła, że musi kontrolować swoją technikę na całej długości toru: od karty graficznej po monitor.
Potężny układ FPGA z 768 MB pamięci nie jest montowany w monitorach z obsługą G-Sync bez powodu, pełni bowiem różne funkcje. Dopiero teraz Nvidia zaczyna uchylać rąbka tajemnicy o tym, co jej moduł faktycznie robi. Wiemy na pewno, że w pamięci układu zastępującego skaler znajduje się ostatnia klatka obrazu, ale inżynier Nvidii zdradza, że jest on montowany również między innymi po to, aby wyeliminować efekt ghostingu. Każdy producent monitorów, który zechce mieć w swojej ofercie model z obsługą G-Sync, musi wysłać do Nvidii gotowy produkt, aby inżynierowie mogli dopasować działanie modułu do konkretnych podzespołów.
Skaler w monitorze, aby pozbyć się ghostingu, nie może wykorzystywać z góry ustalonego schematu do szybszego/wolniejszego wygaszania i zapalania pikseli w całym zakresie obsługiwanych częstotliwości – wszystkie parametry muszą być dobrane pod konkretny model monitora i konkretną częstotliwość odświeżania. Dopiero wtedy producent monitorów, na przykład Asus, kupuje gotowe moduły G-Sync z zaprogramowanym w odpowiedni sposób układem FPGA. Nvidia w ten sposób zapewnia graczowi najlepszą możliwą jakość zabawy, w tym brak takich zjawisk jak ghosting.
A ghosting jest naprawdę dużym problemem, który w praktyce bardzo obniża jakość gry na monitorze z modułem AMD FreeSync. Wiadomość jest tym gorsza, że jak pisaliśmy, ghosting występuje obecnie na ekranach wszystkich dostępnych monitorów z FreeSync. AMD na pewno będzie próbowało rozwiązać ten problem w samych sterownikach, ale ostatecznie może się okazać, że firma nie będzie miała dostępu do takich rzeczy jak tablica napięć w skalerze, a wtedy jedyną możliwością zlikwidowania ghostingu może być aktualizacja oprogramowania samego monitora, co dla użytkownika końcowego może być bardzo trudne.
Dodatkowe filmy przedstawiające działanie FreeSync i G-Sync
Poniżej zamieszczamy jeszcze odnośniki do dodatkowych filmów przedstawiających działanie FreeSync i G-Sync przy różnej liczbie klatek na sekundę.
FreeSync kontra G-Sync w 27 kl./s. Ogólnie uważamy, że jeśli sprzęt osiąga tylko 27 kl./s, należy obniżyć ustawienia graficzne, ale wybraliśmy taką liczbę klatek, ponieważ jest to wartość poniżej zakresu działania obu ocenianych technik.
FreeSync kontra G-Sync w 35 kl./s. G-Sync będzie już działać, natomiast obecnie dostępne monitory z techniką FreeSync nie pozwolą jej zastosować.
FreeSync kontra G-Sync w 45 kl./s. Płynność jest taka sobie, ale 45 kl./s mieści się w zakresie działania obu technik.
FreeSync kontra G-Sync w 75 kl./s. Taka płynność animacji zapewni już przyjemną zabawę w każdej grze.
FreeSync kontra G-Sync w 144 kl./s. Możliwość wyświetlania animacji ze stałą szybkością 144 kl./s jest pożądana z punktu widzenia każdego wyznawcy ideologii #pcmasterrace ;))
Podsumowanie
AMD znacznie spóźniło się względem Nvidii w udostępnieniu Adaptive-Sync. Firma tak naprawdę zaprezentowała tylko koncepcję synchronizacji obrazu na laptopach, a takie marki, jak: MStar, Realtek, Novatek, musiały zaprojektować i wykonać nowe skalery zgodnie ze specyfikacją standardu DisplayPort 1.2a, a ponadto dodać do nich obsługę techniki VESA Adaptive-Sync, która przecież jest tylko opcjonalnym składnikiem. W najgorszym możliwym dla AMD przypadku użytkownik karty graficznej Nvidii mógł się cieszyć możliwościami G-Sync już na początku 2014 roku, musiał tylko zmodyfikować monitor Asus VG248QE lub kupić go w już zmodyfikowanej wersji. W bardziej realistycznym scenariuszu w sierpniu zeszłego roku posiadacz GeForce'a mógł kupić monitor Asus ROG Swift PG278Q z fabrycznie zamontowanym układem G-Sync. Oznacza to, że AMD zaprezentowało konkurencyjne rozwiązanie z rocznym poślizgiem i dopiero teraz użytkownicy kart graficznych AMD mogą oglądać równie płynny obraz.
Czy FreeSync zrobiono jak należy?
Częściowo tak, częściowo nie. Na pewno AMD oddało użytkownikowi Radeona więcej kontroli nad swoją techniką niż Nvidia: może sam zdecydować na przykład o tym, co się dzieje z obrazem po przekroczeniu zakresu częstotliwości odświeżania monitora (całkowite wyłączenie synchronizacji czy też ograniczenie liczby klatek na sekundę zgodnie z możliwościami ekranu). Tak się to spodobało dziennikarzom, że Nvidia sama rozważa, czyby nie wprowadzić podobnej opcji w swoich sterownikach.
Monitory FreeSync mają też większe możliwości od konstrukcji z modułem G-Sync: pozwalają przesyłać audio po kablu DisplayPort, wykorzystać skalowanie w wyświetlaczu, zapewniają OSD czy wreszcie większą liczbę wejść. To ostatnie zagadnienie jest na ustach wszystkich: obecnie monitory z obsługą G-Sync mają tylko pojedyncze wejście DisplayPort, co w pewnych sytuacjach może być uciążliwe. Monitory FreeSync mogą mieć (i mają) pełne spektrum wejść (także HDMI oraz DVI) i mogą korzystać ze wszystkich jednocześnie, choć synchronizacja FreeSync działa, oczywiście, tylko po użyciu kabla DisplayPort.
Problemem jest nie do końca jasna kwestia obsługiwanych częstotliwości odświeżania. AMD słabo kontroluje tę dziedzinę i choć każdy monitor, by mógł oficjalnie obsługiwać FreeSync (dostać znaczek „AMD FreeSync”), musi zostać zatwierdzony w siedzibie firmy, dopuszczane są, niestety, konstrukcje o wysoko ustawionym początku tego zakresu. Jeśli monitor udostępnia FreeSync dopiero od 40 Hz, to przy 38 kl./s nie jest stosowana żadna synchronizacja obrazu i trzeba się pogodzić z jego rozrywaniem i/lub zacięciami. Dodatkowo testy przechodzą monitory, które obsługują FreeSync na przykład tylko w zakresie 48–75 Hz, co naszym zdaniem dyskwalifikuje sprzęt w oczach gracza. AMD nie gwarantuje po prostu zakresu częstotliwości działania FreeSync i wszystko pozostawia producentom monitorów, natomiast kupując model z modułem G-Sync, mamy pewność, że synchronizacja obrazu będzie działała już przy 30 kl./s.
Sama synchronizacja karty graficznej z monitorem działa jak należy. Dzięki technice AMD FreeSync (VESA Adaptive-Sync) osiągamy płynność obrazu zbliżoną do tej, którą zapewni podobny monitor wyposażony w układ Nvidia G-Sync. Zbliżoną, bo przynajmniej na razie występują problemy z ghostingiem i dotyczy to wszystkich dostępnych obecnie monitorów. Zjawisko to przedstawiliśmy obszerniej na poprzedniej stronie i naszym zdaniem na razie jakość obrazu, którą zapewnia FreeSync, nie dorównuje możliwościom G-Sync. Pocieszeniem jest to, że ten ghosting producent monitora może wyeliminować, ale na ostateczne rozwiązanie tego problemu użytkownicy Radeonów mogą jeszcze trochę poczekać i nie wiadomo, jak długo to zajmie i czy w ogóle nastąpi.
Niezmiernie ważną kwestią jest też obsługa kart graficznych. Zastosowanie modułu G-Sync z układem FPGA pozwoliło Nvidii sprawić, że G-Sync współpracuje nawet z kartami, które były projektowane kilkanaście miesięcy wcześniej i nie mają złącza DisplayPort 1.2a. Ogółem monitory z modułem G-Sync będą działać w tandemie z każdą kartą Nvidii, od GTX-a 650 Ti Boost w górę, zatem mówimy aż o dwóch generacjach wstecz. FreeSync natomiast obsługują wyłącznie nowe karty graficzne AMD zbudowane w usprawnionej architekturze GCN: Radeon R7 260, R7 260X, R9 285, R9 290, R9 290X oraz R9 295X2, a więc sześć modeli (FreeSync jest też dostępna dla jednostek APU z rodziny Kaveri). Użytkownicy starszych – choć wciąż całkiem wydajnych – Radeonów, takich jak HD 7970/R9 280X, mogą o FreeSync zapomnieć.
FreeSync za „free”, czyli tanio?
Tak jak wspominaliśmy, nazwa FreeSync jest bezpośrednio wymierzona w strategię Nvidii, która sprzedaje gotowe moduły G-Sync producentom monitorów. AMD podkreśla, że technika FreeSync jest darmowa. I faktycznie tak jest, ale z zastrzeżeniem, że nieodpłatnie jest udostępniana producentom monitorów. Niestety, nie znaczy to, że jest darmowa dla użytkownika końcowego. Scenariusz był stosunkowo łatwy do przewidzenia: funkcja przeznaczona dla graczy nie mogła nie zwiększyć ceny sprzętu i tak naprawdę użytkownik pokrywa z nawiązką koszty, które producent poniósł w celu wprowadzenia na rynek monitora z obsługą FreeSync. Mamy na myśli nowy skaler (prawdopodobnie droższy od wersji nieobsługującej FreeSync), a także implementację rozwiązania. Aby to pokazać, postanowiliśmy przetestować obie konkurencyjne techniki na przykładzie dwóch możliwie zbliżonych do siebie urządzeń.
Monitor z ekranem o przekątnej 27 cali, rozdzielczości 2560 × 1440 i częstotliwości odświeżania sięgającej 144 Hz – takie parametry mają obecnie dwa modele: Benq XL2730Z, który udostępnia technikę AMD FreeSync (VESA Adaptive-Sync), i Asus ROG Swift PG278Q, który zawiera moduł Nvidia G-Sync. Kosztują, odpowiednio, 2800 zł oraz 2900 zł. Monitor z obsługą FreeSync jest więc tańszy od monitora z modułem G-Sync o 100 zł w skali blisko 3 tys. zł. Jesteśmy przekonani, że taka różnica w cenie w tym przypadku nie ma większego znaczenia. W miarę jak na rynku będą się pojawiać coraz to nowsze wyświetlacze zgodne z FreeSync oraz G-Sync, będziemy monitorowali ceny i pisali, jak wygląda sytuacja, ale obecnie nie można mówić o ogromnej przewadze cenowej FreeSync nad G-Sync.
Chcesz mieć synchronizację? Nie masz większego wyboru
AMD chwali się otwartością FreeSync (VESA Adaptive-Sync), jednocześnie zwracając uwagę na to, że technika Nvidii, G-Sync, jest niedostępna dla innych graczy na rynku. A jak jest w praktyce? Oba rozwiązania są dla użytkownika końcowego zamknięte. Masz GeForce'a i chcesz mieć synchronizację obrazu? Musisz wybierać spośród monitorów z modułem G-Sync. Masz Radeona i chcesz się cieszyć superpłynną animacją? Musisz kupić monitor z obsługą FreeSync. Ci, którzy nie zamierzają zmieniać swojej karty graficznej, i tak mają ograniczony wybór. Dla nich porównanie monitorów FreeSync i G-Sync to wyłącznie ciekawostka.
Jedyną sytuacją, w której ktoś faktycznie może stanąć przed wyborem: G-Sync czy FreeSync, jest równoczesna (ewentualnie w krótkim odstępie) zmiana karty graficznej i monitora. Dopiero wtedy, na podstawie łącznej ceny karty graficznej i monitora oraz ich cech (wydajności, głośności, działania FreeSync/G-Sync), będzie można sensownie wybrać jeden z zestawów: GeForce + G-Sync lub Radeon + FreeSync.