Mógł być wyszukiwarką, ale pomaga pozycjonerom

Specjalne roboty wyszukiwarek przeszukują internet indeksując strony, tak abyśmy mogli je w przyszłości łatwo wyszukiwać. Jednak część z tych robotów ma zupełnie inne zadanie - zbiera dane, aby pomagać w pozycjonowaniu. I idzie im to całkiem nieźle!

Specjalne boty nieustannie przeszukują internet
Specjalne boty nieustannie przeszukują internet123RF/PICSEL

Brytyjska firma MajesticSEO ma nietypową historię. Specjalny robot, którego używa ta firma, miał niegdyś indeksować internet i mógł stworzyć bazę do kolejnej wyszukiwarki, konkurencji m.in. dla Google. Firma jednak zauważyła sporą niszę - Google, a potem inne wyszukiwarki zaczęły ukrywać przez użytkownikami wiedzę o linkach jakie prowadziły do konkretnych stron w ich indeksach.

Polecenie "link:" w Google zwraca obecnie losowe, "zaśmiecone" dane, tak aby nikt nie był w stanie zdobyć pełnej wiedzy o linkach konkurencji, a tym samym zrozumieć jak te dane mają wpływ na obliczenia algorytmu ustawiającego pozycje w wyszukiwarce. Podobne dane najdłużej udostępniało Yahoo, jednak ostatecznie również zamknęło tę funkcje. Baza MajesticSEO miała te dane, zbierane od 2006 roku, pozostało je jedynie udostępnić.

Webmasterzy i pozycjonerzy mogą obecnie analizować 372 miliardy zaindeksowanych stron w systemie (co przekłada się na ponad 3 biliony adresów URL!) oraz 24 miliardy stron w tzw świeżym indeksie, czyli z ostatnich 30 dni. Ilość danych w systemie jest więc imponująca, przy czym stale rośnie.

Jak można wykorzystać te dane?

Głównie, do tego przed czym broniło się Google - do analizy algorytmów, sprawdzenia jak dana ilość czy jakość linków wpływają na pozycje. Analizując linki swojej konkurencji możemy je powielać, dodawać swoją stronę w te same miejsca czy duplikować same pomysły na zdobywanie linków. Dobrzy pozycjonerzy właśnie takimi narzędziami określają trudność zdobywania danego słowa kluczowego w Google, poprzez analizę linków stron, które pojawiają się wysoko w wynikach.

MajesticSEO udostępnia też bardziej zaawansowane narzędzie - Clique Hunter, które w bardzo prosty sposób potrafią odkrywać całe zaplecza pozycjonerskie, czyli strony tworzone specjalnie do podnoszenia pozycji innych. Narzędzie to analizuje kilka stron i pokazuje użytkownikowi wszelkie wspólne linki prowadzące do tej grupy. Specjalny Raport MajesticMilion zawiera strony, które mają najwięcej linków przychodzących. Można wygenerować bardzo ciekawy raport konkretnie dla Polskich stron i porównać popularność linków największych graczy na rynku.

Największą nowością i funkcją, która cieszy się dużym powodzeniem jest raport pokazujący profil linków prowadzących do witryny. Branża SEO (z ang. Search Engine Optimization) donosi, że ostatnim czasie bardzo dużo zmian w algorytmie Google było nakierowanych na eliminacje spamu z wyników wyszukiwania. Czy Google się udało czy nie pozostaje kontrowersją, gdyż wiele wartościowych stron zostało ukaranych a spam dosłownie zajął ich miejsce w wynikach. Skłoniło to jednak pozycjonerów do analizy jaki typ linków - jaki ich profil - filtruje Google. Tu doskonale wpasowuje się Flow Metrics wprowadzony przez MajesticSEO. Dwie ważne wartości 'Trust flow' i 'Citation flow' pokazują na wykresie jak wygląda nasz i konkurencji profil linków.

W wielkim uproszczeniu oznacza to czy mamy dużo śmieciowych linków a mało wartościowych. Jeśli dodamy fakt, że raporty mogą korzystać z ponad 150 bilionów zaindeksownaych w ciągu samego ostatniego miesiąca adresów URL, to możemy spodziewać się dosyć dokładnych danych.

Inne narzędzia

Pozycjonowanie stało się dużą gałęzią internetowego biznesu reklamowego, a sam fakt że tak ogromna baza jest utrzymywana i napędzana aby służyć właśnie pozycjonerom tylko to potwierdza. Zagłębiając się dalej w temat trafimy na kolejne narzędzia takie jak SEOMoz, bardzo podobne do opisanego MajesticSEO, ale informujące nas dodatkowo o linkach z portali społecznościowych takich jak Facebook czy Twitter oraz równie ciekawe - Ahrefs. Również na naszym rodzimym rynku startują lub działają podobne narzędzia. Czy których z tych agregatorów danych, posiadających potężne bazy i własne roboty ma szanse na przekształcenie się kiedykolwiek w prawdziwą wyszukiwarkę? Wątpimy, znalazły bowiem swoje miejsce w tym nowym nietypowym ekosystemie, a postępująca specjalizacja sugeruje, że jeszcze wiele mogą nam pokazać.

INTERIA.PL/informacje prasowe
Masz sugestie, uwagi albo widzisz błąd?
Dołącz do nas