Postęp, ale pozorny - nie daj się nabrać

"Postęp" to w komputerowym świecie pojęcie bardzo rozległe. Może to być wzrost wydajności, obniżenie kosztów, zwiększenie efektywności, zmniejszenie poboru mocy itd., itp. Jeśli porównamy sytuację na rynku z podanym wyżej opisem, możemy łatwiej uzmysłowić sobie, jak bardzo bywamy oszukiwani...

Notebooki sprzed paru lat były toporniejsze i mniej bajeranckie niż obecne. Ale też były bardziej ?d
Notebooki sprzed paru lat były toporniejsze i mniej bajeranckie niż obecne. Ale też były bardziej ?dCD Action
Dzisiejsze monitory LCD nadal pod względem odwzorowania barw ustępują CRT
AFP

Karciane rozgrywki

O przekrętach marketingowych, jakie towarzyszyły wprowadzaniu wielu modeli kart graficznych, też pisałem wielokrotnie. Jakże często zdarzało się, że jeden model zastępowano drugim, droższym, o wyższym oznaczeniu i jednocześnie niewiele różniącym się od poprzednika. Równie popularny jest postęp polegający tak naprawdę jedynie na zmianie oznaczenia urządzenia i odtrąbieniu pojawienia się nowości w mediach. Tutaj jednak wciąż mamy do czynienia z rywalizacją pomiędzy AMD a Nvidią, w związku z czym tego typu zagrywki są dość szybko ujawniane, jeśli nie przez dziennikarzy, to przez konkurencję.

Załamanie rynku pozwoliło na znaczące obniżenie cen kart graficznych. O ile przed dwoma laty za najwydajniejsze modele trzeba było zapłacić około 2500 zł, dziś aktualnie najlepsze karty możemy mieć za około 1300 zł. Co więcej, nieco mniej wydajne rozwiązania są dostępne za niemal połowę tej kwoty. Użytkownicy są już tak rozpuszczeni "taniochą", że 800 zł wydaje im się sumą wygórowaną, nawet jeśli w zamian dostają prawdziwego demona wydajności.

Nie oznacza to oczywiście, że w tym sektorze rynku wszystko jest uczciwe. Wciąż pojawiają się próby zdezorientowania potencjalnych nabywców. Obecnie modne jest zwiększenie ponad rzeczywiste potrzeby pojemności pamięci kart, a także wprowadzanie "ulepszonych modeli". Ot, choćby nowy GeForce GTX 260 z oznaczeniem Core 216 o nieznacznie w stosunku do poprzednika zwiększonej liczbie jednostek cieniujących. W efekcie jest o około 5 procent szybszy. Karta pojawiła się w sklepach, ale jej cenę sprzedawcy ustalili gdzieś pomiędzy zwykłym GTX 260 a GTX 280. Dopóki w magazynach zalegają zapasy starej "260", nie mamy co liczyć na zbicie ceny Core 216 do jej prawdopodobnego poziomu.

Jeśli już piszemy o kartach, warto wspomnieć o okazji wyciągnięcia z klientów pieniędzy, którą producenci niejako roztrwonili (czyżby jakiś odruch przyzwoitości?). W tym samym czasie płyty główne przestawiono na standard PCI Express 2.0. Zabrakło jednak kampanii zachwalających nowe karty jako dostosowane do "nowego, szybszego złącza", nie mówiąc już o prezentowaniu starych w wersji dla PCIe 2.0. Zdumiewające, jeśli przypomnieć sobie zamieszanie w czasie przejścia z AGP x4 na AGP x8, gdy właściwie te same karty na x8 sprzedawano za dwukrotnie wyższą cenę. Widać, zdano sobie sprawę z tego, że obecnie taki numer może już nie przejść.

Udziwnianie płytoteki

Czasem dobry model zastępowany jest przez inny, droższy, ale... mniej wydajny.
AFP

Zaczęto od P965, aby zamienić go na P35, a następnie P45, przy czym około rok temu na rynek wprowadzono jeszcze X38 zamieniony później na X48. Konia z rzędem temu, kto w czasie pracy w systemie z pojedynczą kartą graficzną był w stanie wyczuć jakiekolwiek różnice pomiędzy płytami z różnymi chipsetami. Padło nawet uzasadnienie wprowadzenia nowych wersji wyższymi możliwościami podkręcania - dobre płyty z P965 w niczym pod tym względem nie ustępują tym z P45 czy X48, charakteryzując się jednocześnie prostszą konstrukcją, większą niezawodnością, łatwiejszym do ogarnięcia BIOS em, a do tego pozbawione góry miedzi używanej dziś do budowy systemów chłodzenia chipsetu.

Niestety w tym przypadku szybka zmiana chipsetów i chęć zdobywania klientów nowymi modelami odbiła się fatalnie na jakości. Nowe płyty są często zaprojektowane znacznie gorzej od poprzedników, pełne dziecinnych niemal wpadek, wyposażane w niedopracowane BIOS-y i szereg zupełnie zbędnych, często przeszkadzających użytkownikowi funkcji. Zazwyczaj nie ma czasu na projektowanie i produkcję dobrych urządzeń - przecież dopracowanie czegoś musi potrwać, a w tym czasie konkurencja wypuści kolejny model. Nic to, że niedopracowany, zawodny i gorszy od poprzednika. Ważne jest tylko jedno - nowy!

RAM - skok na kasę

Z płytami wiąże się kolejny temat - RAM. Takiego bałaganu jak obecnie nie było w tym temacie chyba nigdy, nawet podczas przejścia z DDR na DDR2. Od ponad roku na rynku występują dwa standardy - DDR2 i DDR3. Ten drugi miał szybko zastąpić starszy model, ale tak się nie stało. Wprowadzenie DDR3 nie przyniosło spodziewanych korzyści - wydajność właściwie się nie zmieniła, za to ceny nowych modułów z początkowo astronomicznych dziś, spadły do "zaledwie" dwukrotnie wyższych niż DDR2.

Czego nie dało się zrobić po dobroci, producenci próbują wymusić siłą. Wprowadzanie nowych procesorów i płyt dla nich jest do tego znakomitą okazją. Intel Nehalem będzie więc występował już wyłącznie w wersji dla DDR3! O ile jednak można zrozumieć Intela (choć to dopiero okaże się po pierwszych testach, wszak Nehalem ma kontroler pamięci zintegrowany w rdzeniu procesora), trudno pojąć decyzję AMD o przejściu na ten standard. Przeskok z DDR na DDR2 okazał się dla tej firmy tragedią. Miejmy nadzieję, że obecnie jest to bardziej przemyślana decyzja.

Wracając do motywu przewodniego artykułu - ponownie trudno by było pisać o postępie, bo o zmianie decyduje marketing. Oby tylko rynek nie spłatał producentom procesorów psikusa - sporo się ostatnio mówi o nieuniknionym, dużym wzroście cen modułów RAM.

W sumie i tak można napisać, że na pecetowym rynku jakoś ostatnio spokojnie. Producenci na tyle przegięli, że obecnie zamiast wymyślać kolejne zagrywki, muszą choć troszkę pomyśleć o kliencie. Obniżają ceny, wprowadzają nowości, ale niestety, jak wspomniałem wyżej, kosztem jakości wykonania. Wojna zatem przeniosła się częściowo tam, gdzie perspektywy zysku są obecnie bardziej obiecujące - na komputery przenośne, czyli notebooki. Z całym złym skutkiem dla tych ostatnich.

No to mamy tandetę

Dwunastoletnie dziecko znajomego poznaje komputerowy świat, głównie internet, za pośrednictwem chyba ośmioletniego notebooka Toshiby z procesorem Pentium III 500 MHz. Demonem wydajności z pewnością ten sprzęt nie jest, ale z podstawowymi zadaniami radzi sobie dobrze. O dziwo, nawet wyświetlacz, w który go wyposażono, nadal wystarcza, nie widać na nim żadnych martwych pikseli.

Intelowski Nehalem zmieni wkrótce także oblicze notebooków, ale póki co od czasu wprowadzenia do nich Core 2 Duo, czyli dwóch lat, nie ma tutaj tak naprawdę nic nowego. Niby pojawiają się odmiany tego procesora, ale niekoniecznie górują nad poprzednimi. Nieco świeżości powinna wnieść mobilna platforma AMD - Puma, ale dość trudno się jej przebić na rynku.

W tej sytuacji zastosowano manewr wielokrotnie przećwiczony na użytkownikach tradycyjnych blaszaków - postęp pozorowany. Pojawiają się wspomniane "nowe" procesory o obowiązkowo wyższych oznaczeniach, zwiększa się pojemność dysków twardych i niestety zastępuje Windows XP nieudaną Vistą. Jeśli popatrzy się na półki, zupełnie nie widać marazmu - wciąż widzimy na nich nowe, "lepsze" modele o możliwościach, według producentów, daleko udoskonalonych i wprowadzających nas w inny wymiar wirtualny. Nowinki wprowadza się tak szybko, że urządzenie, które właśnie ląduje na półce, jest już przestarzałe, gdyż zewsząd możemy usłyszeć, przeczytać i poczuć informacje o jego rewolucyjnym następcy.

Zrobienie dobrego notebooka to wbrew pozorom bardzo trudne zadanie. Przekonało się o tym wiele firm niemogących kiedyś, mimo ogromnego potencjału, przebić się na wymagającym rynku. Szybkość zmian pociąga za sobą katastrofalne w skutkach skrócenie czasu opracowania urządzeń. Efekt - notebooki są coraz gorsze, bardziej tandetne, zawodne, irytujące. Coś, co powinno być symbolem niezawodności, stało się niemal synonimem niedopracowania i awaryjności. Nikt nie zastanawia się nad tym, że to przecież narzędzie pracy, a jego awaria może mieć dla użytkownika tragiczne finansowo skutki. Współczesne wersje tych urządzeń to mariaż efekciarskiej obudowy, udziwnionego oznaczenia i tandetnego wnętrza. Strach na tym pracować, a archiwizowanie czegokolwiek jedynie w notebooku to już głupota podparta brakiem wyobraźni.

Wspomniałem o Toshibie używanej (warto dodać, że niedelikatnie) przez dziecko - dziś kupiony model nie wytrzymałby nawet ćwiartki historii tamtego, a bezawaryjne przepracowanie roku można by uznać za ogromny sukces.

Rozwiązanie systemowe

Temat pseudopostępu nie byłby wyczerpany, gdyby nie napisać paru zdań o systemie Windows Vista. Miał on zastąpić kilkuletniego XP. Oczywiście jak zawsze w takich sytuacjach zapowiadano rewolucję, bajkowe możliwości, obniżenie wymagań, dostosowanie do użytkownika i wiele innych cudów. Vista okazała się na tyle nieudana, że wielu użytkowników było gotowych zapłacić, byleby tylko móc nadal korzystać z XP. Zawrzało solidnie, gdyż przyzwyczajony do monopolistycznych manier Microsoft nie zamierzał liczyć się z ich zdaniem, siłowo forsując wprowadzanie nowego dziecka. Tym razem jednak firma musiała, chociaż częściowo, ustąpić i wbrew zapowiedziom nadal kupimy nowe komputery ze starszym systemem.

Niegdyś narzekaliśmy na XP, ale po wprowadzeniu do niego kolejnych poprawek stał się najlepszym z dotychczasowych OS-ów Microsoftu. Nic zatem dziwnego, że wielu użytkowników nie chce się z nim rozstawać, a już na pewno nie na rzecz Visty.

Niespodziewany triumf pokonanych

Czas na kolejną rewolucję - nośniki danych. Zacznijmy od zastępowania poczciwego DVD przez Blu-ray i HD DVD. Pojemność jest w przypadku nowych formatów około pięciokrotnie większa. Dla oprogramowania to za dużo, natomiast zmieszczenie na jednym nośniku filmu w pełnym HD to duża zaleta. Cóż to jednak za postęp, jeśli nagrywarka DVD kosztuje obecnie około 90 zł, zaś Blu-ray prawie dziesięć razy więcej?

Ceny są jeszcze bardziej niekorzystne dla nowego standardu. Wojny pomiędzy Blu-ray a HD DVD teoretycznie wygra. ten pierwszy. Nazajutrz po ogłoszeniu informacji o zaprzestaniu produkcji HD DVD ceny odtwarzaczy i nagrywarek Blu-ray oraz nośnikow danych tego formatu... wzrosły o około 30 procent, zaś przegranego HD DVD spadły o kilkadziesiąt. Ponieważ użyteczność Blu-raya i HD DVD jest właściwie identyczna, następstwem tego było rzucenie się klientów na... HD DVD, w efekcie czego standard ten, już po informacji o przegranej, pobił rekordy sprzedaży, spychając (zapewne na czas jaki.) wygranego Blu-raya na margines.

Można było z satysfakcją patrzeć na to, jak rynek daje klapsa zachłannym producentom. Niemniej najpopularniejsze nadal pozostaje DVD - niezwykle użyteczny staruszek za śmieszną kwotę. Wystarczy choćby wejść do sklepu i spojrzeć na ceny tego samego filmu w standardzie DVD i Blu-ray - ten pierwszy będzie z reguły kilkakrotnie tańszy.

Duży to więcej niż szybki

Nie powiodło się także zastępowanie tradycyjnych dysków twardych urządzeniami SSD. Niedawno wmawiano nam, że nic nie zastąpi jak największej pojemności dysku. Rynek zalewały coraz większe twardziele. Można by się zastanowić, do czego ich używać, ale przyzwyczailiśmy się do pojemności liczonej w wielu setkach gigabajtów.

W ten sposób producenci sami ukręcili bat na swoje tyłki. Kiedy HDD próbowano zastąpić SSD, okazało się, że tak naprawdę nikt nie ma ochoty na nowy nośnik. Nie dość, że ceny rozpoczynały się od około 2000 zł (obecnie nieco mniej), to pojemność rzędu 30 czy nawet 80 GB może dziś wzbudzać tylko śmiech. SSD to dziś, mimo niewątpliwych zalet tego rozwiązania, co najmniej dziesięć razy za mało za dwukrotnie zbyt wysoką cenę.

Jak widzicie, na złość producentom rynek konsumenta wypracował pewne mechanizmy chroniące klientów przed zbyt bezczelnymi zagrywkami. Tam, gdzie mają oni możliwość wyboru, zazwyczaj wybierają rozsądnie (przynajmniej jako zbiorowość).

Z tego typu zachowaniami producenci walczą na dwa sposoby: pierwszy to bardzo agresywna kampania reklamowa skrywana pod pozorem rzetelnie dostarczanych informacji. Można się też starać wykreować modę, na którą ludzie są zazwyczaj podatni. Tak właśnie było z zamianą CRT na LCD. Sposób drugi to całkowite zablokowanie dostępu do jednego rozwiązania i wmuszenie w jego miejsce innego. Teoretycznie może być skuteczniejszy, ale też rodzi większy opór. Vista i XP są tutaj chyba najlepszym przykładem.

Na szczęście w wielu przypadkach pozostaje ciągle możliwość wyboru. Tak jest na razie z nośnikami danych czy płytami głównymi, w których przypadku - obok modeli maksymalnie udziwnionych - oferuje się też bardziej tradycyjne. W najgorszej sytuacji są chyba obecnie użytkownicy notebooków - tutaj firm i modeli jest bez liku, ale łączy je jedno - niemal bez względu na cenę zawodność i kiepskie wykonanie. Dla tradycyjnego blaszaka to jednak doskonała wiadomość - wkrótce osoby szukające niezawodności i bezpieczeństwa zaczną do niego wracać...

Autor: Khedron

Zawarte tu treści i opinie są prywatnymi poglądami autora tekstu i nie stanowią oficjalnego stanowiska CD-Action w żadnej sprawie.

CD Action
Masz sugestie, uwagi albo widzisz błąd?
Dołącz do nas