Czy jesteśmy gotowi na granie w 4K?

Gracze stawiający komputery PC na pierwszym miejscu nie mieli w ostatnich latach łatwego życia, głównie za sprawą odchodzącej na emeryturę generacji konsol, która zadomowiła się na rynku na zdecydowanie zbyt długo, co sprawiało, że producenci przygotowujący wieloplatformowe tytuły zmuszeni byli trzymać pewien „poziom”...

Gracze stawiający komputery PC na pierwszym miejscu nie mieli w ostatnich latach łatwego życia, głównie za sprawą odchodzącej na emeryturę generacji konsol, która zadomowiła się na rynku na zdecydowanie zbyt długo, co sprawiało, że producenci przygotowujący wieloplatformowe tytuły zmuszeni byli trzymać pewien „poziom”...

Gracze stawiający komputery PC na pierwszym miejscu nie mieli w ostatnich latach łatwego życia, głównie za sprawą odchodzącej na emeryturę generacji konsol, która zadomowiła się na rynku na zdecydowanie zbyt długo, co sprawiało, że producenci przygotowujący wieloplatformowe tytuły zmuszeni byli trzymać pewien „poziom”.

Wydawać by się więc mogło, że premiera nowych sprzętów tchnie w branżę długo wyczekiwany powiew świeżości, jednak po raz pierwszy w historii next-geny w kwestii wydajności już na starcie przegrywają rywalizację z hi-endowymi blaszakami.

Reklama

Jeszcze przed premierą PlayStation 4 i Xbox One pojawiały się plotki o wsparciu dla 4K, ale szybko okazało się, że dotyczy to zaledwie filmów i zdjęć w tym formacie – o graniu można zapomnieć. A jak sprawa wygląda w przypadku pecetów? Postanowiliśmy więc sprawdzić, co tak naprawdę stoi na przeszkodzie do naszego szczęścia, czyli grania w 4K i nie mówimy tu wcale o wysokich kosztach produkcji tego typu paneli oraz ich cenach sklepowych, ponieważ te systematycznie spadają (w zeszłym roku było to jakieś 3500 USD, a teraz wystarczy nam nawet 650 USD).

Na wstępie warto zaznaczyć, że termin 4k jest nieco mylący, ponieważ tym razem odnosi się do zaokrąglonej horyzontalnej wartości i przeważnie oznacza rozdzielczość 3840x2160 pikseli. Gdybyśmy zachowali poprzednie nazewnictwo i trzymali się wartości wertykalnej, to musielibyśmy mówić o 2160p lub 2k, ale jak wiadomo 4K brzmi lepiej i zapewne lepiej się sprzeda – przy okazji dodam, że zachowuje ona dobrze sprawdzone proporcje 16:9.

Wydajność

Karty graficzne z wyższej półki już od kilku generacji bez większych problemów radzą sobie z rozdzielczością 1080p, głównie za sprawą stagnacji w branży gier wywołanej wspomnianymi już konsolami PS3 i Xbox 360, a konkretniej ich długą żywotnością. Porty, jakimi raczyli nas twórcy gier, raczej nie potrafiły wycisnąć z naszych komputerów ostatnich soków, a AMD w międzyczasie pokusiło się nawet o wprowadzenie technologii Eyefinity, która zadebiutowała wraz z kartą Radeon HD 5870 (w momencie swojego debiutu dostarczała ona duży zapas mocy) i umożliwiała zabawę na wielkoekranowych zestawach. Niestety kluczowi producenci, czyli AMD i Nvidia, nie wykorzystali tego „nadmiaru” czasu, żeby należycie przygotować się na nadejście 4K i ich flagowe karty, czyli Radeon R9 290X oraz GeForce GTX 780 Ti, przy wysokich i maksymalnych ustawieniach nie do końca radzą sobie z wyciąganiem 60 klatek - czasami zdarzają się przypadki zejścia poniżej absolutnego minimum, jakim jest 30 fpsów.

Poratować możemy się zastosowaniem drugiej karty w konfiguracji SLI lub CrossFire, ale taki zabieg ostro uderzy nas po kieszeni – jedna karta to już wydatek rzędu ok. 2000 PLN (przy Nvidii jakieś 400 PLN więcej), a co dopiero dwie – więc to opcja tylko dla prawdziwych entuzjastów. Jeśli zaś zdecydujemy się na dwuprocesorowe rozwiązania od tych samych producentów, to musimy przygotować się na jeszcze wyższą kwotę, tj. ok. 5600 PLN w przypadku Radeona R9 295X i 3000 USD  przy rozwiązaniu Titan Z, co w naszym kraju może przełożyć się na nawet 10000-12000 PLN. Żeby było zabawniej, nawet i to nie zawsze gwarantuje nam płynne 60 klatek – i chyba nie muszę wspominać, jak absurdalne wydaje się SLI w przypadku tych „potworów”? Na szczęście w oddali widać już światełko nadziei, bo w przyszłym roku na rynku powinny zagościć karty produkowane w 20 nm, ale i tak konkretnego przełomu nie spodziewałbym się wcześniej niż w 2017 roku.

Interfejs

Zakładając, że mamy już odpowiednią kartę graficzną, która jest w stanie udźwignąć rozdzielczość 4K w satysfakcjonującej nas ilości klatek, kolejną przeszkodą na drodze do naszego szczęścia okazać się może interfejs. Na chwilę obecną możemy zapomnieć o graniu w UHD przy odświeżaniu wyższym niż 60Hz, ponieważ wsparcie 4k@120Hz pojawić ma się dopiero wraz z DisplayPort 1.3, którego zapowiedzi doczekać mamy się już niebawem, a pierwsze urządzenia z jego obsługą pojawią się zapewne najwcześniej w przyszłym roku. Co więcej, większość monitorów 4K dostępnych obecnie na rynku wykorzystuje HDMI 1.4 lub DisplayPort 1.1, za pomocą których osiągnąć można maksymalnie 30Hz. Biorąc jednak pod uwagę, że dla większości komputerowych graczy 30 fpsów to zdecydowanie zbyt mało, skazani jesteśmy na droższe konstrukcje wyposażone w HDMI 2.0 (które wciąż jest niezwykle rzadko spotykane) lub DisplayPort 1.2, ale i w tym wypadku nie obejdzie się bez pewnych komplikacji.

 

Monitory 4K przeważnie wykorzystują bowiem technologię multi-stream transport, gdzie ekran dzielony jest na dwa obrazy o rozdzielczości 1920x2160 pikseli każdy, a następnie łączony za pomocą oprogramowania i niestety okazuje się, że nie wszystkie gry chcą z tym systemem współpracować. O ile sam gameplay nie stwarza większych problemów, tak w przypadku niektórych tytułów problematyczne jest menu czy filmiki, które często wyświetlają się tylko na jednej połówce wyświetlacza (np. Total War: Rome 2 czy Shogun 2). Jeżeli chodzi o konkretne przykłady, to w Batman: Arkham City niemożliwa jest m.in. nawigacja myszką w lewej części obrazu i gdyby nie możliwość korzystania z klawiatury, produkcja byłaby w ogóle nie do odpalenia. Na szczęście do sprzedaży zaczęły już trafiać monitory typu single-tile (np. Samsung U28D590D lub Asus PB287Q), które nie muszą dzielić obrazu, bo wykorzystują technologię single-stream transport (po podpięciu przez DisplayPort sprzęt wykrywany jest jako pojedynczy panel), ale wciąż są to „rodzynki”.

Software

Na koniec został jeszcze jeden poważny problem, czyli oprogramowanie, bo o ile z kwestią kart graficznych i monitorów możemy się jakoś samodzielnie uporać – rozwiązanie bardzo drogie i pochłaniające ogromne pokłady energii, ale wykonalne - tak w przypadku software’u jesteśmy kompletnie zależni od jego dostawców. I nie mamy tu dobrych wieści, bo nawet najpopularniejszy z systemów operacyjnych, czyli Windows, ma ogromne trudności z obsługą rozdzielczości Ultra HD i wyświetlaczy o wysokim zagęszczeniu pikseli – wprawdzie sam Microsoft zrobił, co tylko mógł, żeby poprawić skalowanie dla tego typu paneli, ale inni producenci oprogramowania niestety nie poszli w jego ślady.

Mamy więc swoje upragnione monitory 4K, które za sprawą nieprzyjaznego ekosystemu nie mogą rozwinąć skrzydeł – dużo winy ponoszą tu tak znani dostawcy, jak np. Adobe, które nie wprowadziło skalowania w żadnym ze swoich produktów, co skutkuje m.in. ekstremalnie małymi obrazkami czy Valve i Electronic Arts, których Steam i Origin zostały przecież stworzone do grania, a borykają się z tymi samymi kłopotami.  Wracając jeszcze do samego systemu operacyjnego, warto nadmienić, że jeśli z jakiegoś powodu unikamy Windowsa 8.1, to trzeba się będzie do niego przekonać, bo to właśnie tu wprowadzono nowy mechanizm skalowania, który z 4k radzi sobie najlepiej. W innym wypadku musicie przygotować się na mikroskopijne ikony – żeby sobie to lepiej uzmysłowić, wystarczy czterokrotnie pomniejszyć obraz pulpitu w 1080p.

W grach także napotkać możemy spore trudności z czytelnością i na przykład w Battlefield 4 funkcja Commo Rose jest praktycznie bezużyteczna, bo jej interfejs jest niemożliwy do rozszyfrowania. Bez wciskania nosa w monitor nie przeczytamy też tekstu czy opisu przedmiotów w Bioshock Infinite, więc jak widać problem ten nie jest jednostkowy.

Miejmy nadzieję, że wkrótce coś się w tym temacie zmieni – tym bardziej, że odpowiednie technologie przeważnie są już na rynku, bo wysokie rozdzielczości to przecież kierunek, w którym zmierzamy i twórcy będą musieli dostosować się do panujących trendów. Nie da się jednak ukryć, że do tego czasu większość z nas skazana będzie na wysłużone już nieco Full HD albo rozwiązania kompromisowe typu WQHD.

Geekweek
Reklama
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy