05 kwi / Ireny, Wincentego

Pozycjonujesz swoją stronę, a zamiast poprawy odnotowujesz spadek? Sprawdź, za co Google nakłada filtry obniżające

Autor: Materiały Partnera 03 mar 11:34

O tym, które adresy internetowe ostatecznie odwiedzą użytkownicy, decyduje kolejność w wynikach wyszukiwania. Dlatego właściciele stron dokładają wszelkich starań, aby w tych rankingach umieścić swoje witryny jak najwyżej – realna perspektywa przyszłych zysków zmusza do działania. Niestety niektóre techniki pozycjonowania przynoszą efekty przeciwne do zamierzonych. Google karze przesunięciem witryny w dół lub całkowitym wyrzuceniem z listy, jeżeli strona narusza wytyczne i standardy narzucane przez internetowego giganta z Mountain View.

 

Twórcy wyszukiwarki tworzą precyzyjne wymogi jakościowe. Kto ich nie przestrzega, ten cierpi

Podstawowe założenia stworzonego w Kalifornii serwisu można streścić następująco: w pierwszej kolejności prezentować użytkownikom te witryny, które mają dla nich największą wartość. Algorytmy decydujące o tym, które strony zasługują na takie miano, biorą pod uwagę mnóstwo zmiennych. Specjaliści z agencji AFTERWEB wskazują, że ponad 250 czynników rankingowych z oficjalnego przewodnika Google dla webmasterów to tak naprawdę niewielka część całości. Liczy się nie tylko poprawność technicznego wykonania strony internetowej, ale też zbieżność contentu z zapytaniem czy reputacja witryny wśród internautów. O tej ostatniej świadczy m.in. liczba odnośników prowadzących pod dany adres, jakie umieścili użytkownicy na łamach zewnętrznych serwisów. Swego czasu niezwykle efektywną strategią SEO (https://afterweb.pl/pozycjonowanie-stron/seo/) było masowe wklejanie linków gdzie popadnie, bez oglądania się na kontekst. Dziś wyszukiwarka potrafi wychwycić nagły, niewytłumaczalny aktywnością użytkowników przypływ odnośników. I z automatu nałożyć filtr obniżający pozycje w wynikach wyszukiwania.

Nic nie jest czarno-białe. Najskuteczniejsze działania SEO zahaczają o metody zabronione przez Google

Podobnie niepożądaną strategią pozycjonowania będzie tzw. keyword stuffing. Polega on na przesycaniu treści witryny frazami kluczowymi. Zbyt wysoka częstotliwość występowania pewnych słów oznacza, że content ewidentnie tworzono z myślą o robotach sieciowych Google, a nie użytkownikach i ich potrzebach. Metody zwiększenia widoczności w wyszukiwarce, które grożą negatywnymi konsekwencjami, branżowi eksperci określają zbiorczym terminem Black Hat SEO. Jego przeciwieństwem jest White Hat SEO – skoncentrowane na przydatnych treściach, zwiększaniu szybkości działania strony, responsywności, dostosowywaniu jej do najlepszych standardów oraz tworzenia wokół niej aktywnej społeczności. W rzeczywistości pozycjonowanie, de facto zakazane przez Google, polega na umiejętnym stosowaniu technik z obu powyższych kategorii. Swego rodzaju Grey Hat SEO wymaga zachowania odpowiedniego balansu, ogromnego doświadczenia, świeżej wiedzy i gruntownego testowania. To, co umknie algorytmom, może zostać wykryte w dziale Search Quality Team: a wtedy należy spodziewać się ręcznego nałożenia filtra.

Ostatnie komentarze