20 warunków skutecznego pozycjonowania sklepu internetowego

Sugerowane tu wyznaczniki pochodzą ze wskazówek dla webmasterów, SEO przewodnika od Google oraz innych materiałów z Centrum wyszukiwarki Google. W napisaniu niniejszego wpisu pomogła również lektura Ogólnych wytycznych Google z 19 października 2021 (.pdf) oraz książka SEO Biblia. Wiedza Obiecana.

Niniejszy wpis ma charakter popularnonaukowy i promocyjny. Zawarte w nim informacje mają służyć w głównej mierze lepszemu pozycjonowaniu niniejszego serwisu (chociażby jako egida dla linków wewnętrznych, ale nade wszystko jako przekładnia na konwersję zakupową… bo to jest prawdziwy cel wszystkich wysiłków optymalizacyjnych). Pośrednio wpis ten promuje również wiedzę, jak i usługi autora. Z uwagi na ograniczone możliwości czasowe, artykuł ten może być płytki i odstający od norm jakościowych, do których przyzwyczajeni są ludzie dążący do mądrości. Za co proszę o wybaczenie. Mam jednak nadzieję, że materiał ten posłuży co poniektórym sprzedawcom jako wstęp do analizy biurkowej i dalszego pogłębiania tematu. Jeśli chcą Państwo od razu przejść do czytania opracowań rzetelnych, zachęcam do zapoznania się ze spisem literatury u dołu tej strony.

„SEO to nauka konfigurowania elementów strony internetowej w celu osiągnięcia najlepszych możliwych rezultatów w rankingu wyszukiwarek” (Źródło: Jerri L. Ledford SEO. Biblia Wiedza obiecana). 

Zarówno jeżeli chodzi o SEO, jak i wszelkie prawa rządzące światem, zachodzące w nim zjawiska cechuje zaczarowane koło psychologii społecznej. Czytając na temat pozycjonowania ma się nieodparte wrażenie, że to już było…, że to co piszą w tych wszystkich książkach i artykułach jest odwróceniem rzeczywistości. Takie wrażenie można odnieść zwłaszcza w kontekście słów kluczowych… Piszą wszędzie o tym, że mają one znaczenie, że trzeba ich używać, czy np. że warto mówić językiem swoich klientów. No ale przecież to wszystko przychodzi pisarzowi, usługodawcy i każdemu innemu sprawnemu sprzedawcy w sposób naturalny. Chyba, że? No właśnie, chyba że ktoś nie jest sprawnym sprzedawcą, ale chce być lepszym.

Materiały marketingowe są po to, aby je czytać i czerpać z nich wiedzę. Jasne, że może w nich dominować truizm, zwłaszcza jeżeli do lektury przystępuje profesjonalista, ale właśnie na tym polega przeskok jakościowy… dokonujemy go wykonując skok ilościowy. Zacznijmy więc od tego, że pomimo iż pozycjonowanie to w pewnej mierze “wróżenie z fusów” i siłowanie się z tajnymi algorytmami wyszukiwarek, to jednak część z tej góry lodowej pływa po tafli oceanu zwanego Internetem i pozycjach naukowych. Przypomnijmy w tym miejscu pierwszy człon definicji SEO: „SEO to nauka…”, a doświadczenie czyni mistrza sieci, czyli webmastera.


1. Google promuje poprzednio zindeksowane adresy internetowe

Jeśli chcemy wspinać się na wyżyny Internetu musimy zadbać o to, aby nasz sklep został zaindeksowany. Więcej punktów rankingowych otrzymują te domeny, które zostały zaindeksowane wcześniej. Starsze strony mają przewagę nad młodszymi. W 2020 roku na świecie było prawie 650 milionów stron WWW. Algortym Google kładzie większy nacisk na analizę starszych i wyżej ocenianych stron, a dopiero w następnej kolejności zajmie się indeksowaniem nowych stron o niższym PageRank.

PageRank to ocena wartości domeny na podstawie kilku podstawowych czynników, takich jak:

  • Domain Authority – prawdopodobieństwo podniesienia rankingu domeny (1-100)
  • Page Authority – prawdopodobieństwo podniesienia rankingu strony (1-100)
  • Trust Flow poziom wiarygodności domeny (zależy od jakości linków)
  • Trust Metric – miara zaufania społecznego (zależy od ilości linków)
  • Citation Flow – ilość linków przychodzących
  • Domain Validity – autentyczność domeny (prawo do domeny)
  • Global Rank – pozycja strony WWW w rankingu popularności
  • Alexa USA Rank – pozycja serwisu w rankingu organizacji amerykańskiej
  • Alexa Reach Rank – j.w.
  • Spam Score – wskaźnik spamu (potencjalnego ryzyka otrzymania kary)
  • External Backlinks – linki zewnętrzne
  • Referring Domains – witryny odsyłające do naszej strony
  • Core Web Vitals*

* Nowy czynnik rankingowy (od sierpnia 2021 r.) – ocena szybkości i wydajności stron pod kątem Page Experience Signals. Na CWV składają się:

  • Loading (Largest Contentful Paint [LCP])
  • Intereactivity (First Input Delay [FID])
  • Visual Stability (Cumulative Layout Shift [CLS])

CWV możemy mierzyć przy pomocy takich narzędzi, jak PSI (Page Speed Insights), Lighthouse Google Dev Tools czy Web Dev. Do pomiaru używamy wskaźników: FCP, SI, LCP, TTI, TBT i CLS. Warto też zaglądnąć do Chrome User Experience Raport (CrUX). Najważniejszy z tych wszystkich wskaźnik LCP. Im wyższy poziom tego wskaźnika, tym lepiej. ma on związek z potrzebą ograniczenia nieużywanego JavaScript, nieużywanego kodu CSS oraz wyeliminowanie zasobów blokujących rendowanie (patrz: pagespeed.web.dev). Core Web Vitals Largest Contentful Paint nie ma bezpośredniego wpływu na wydajność, ale na szybkość ładowania serwisu (above the fold).

Core Web Vitals Largest Contentful Paint
Core Web Vitals Largest Contentful Paint

2. Mapa witryny ułatwia robotom odnajdywanie i przeszukiwanie podstron

Wyróżnia się dwa rodzaje map witryny. Pierwsza z nich, to plik XML z zapisem podstron internetowych na naszej witrynie. Mapę taką można wygenerować automatycznie lub samodzielnie o-kodować adres każdej podstrony. Różnica pomiędzy tymi dwoma metodami jest taka, że automatycznie wygenerowana mapa witryny może nie zawierać wszystkich podstron, gdyż nie wszystkie strony w serwisie mogą być powiązane z innymi (przez co robot do nich nie trafi). Mapę witryny w pliku XML zazwyczaj generuje się automatycznie i należy to robić cyklicznie, tak aby wprowadzane przez nas zmiany były szybciej i łatwiej indeksowane przez Google.

Innym rodzaje map witryny są wykazy podstron widoczne dla użytkowników. W tym sensie jest to jedna z podstron, którą umieszcza się np. w stopce serwisu. Na stronie z mapą umieszcza się drzewo linków z gałęziami do 2 – 3 poziomu. Może to pomóc użytkownikowi w odnalezieniu potrzebnych informacji na rozbudowanym serwisie. Taka strona spaja też wiele podstron i pomaga robotom wyszukiwarek odnajdywać podstrony.

Nie można popełnić gorszego błędu w SEO, aniżeli ten polegający na napisaniu artykułu promocyjnego na stronie WWW i nie podlinkowanie go do strony, która ma pośrednie lub bezpośrednie powiązanie ze stroną główną. Już pierwsze lekcje marketingu internetowego uczą, że wszystkie podstrony, nawet te, których celem jest pozycjonowanie innych stron, muszą być w jakiś sposób powiązane z innymi podstronami, które znowuż są pośrednio lub bezpośrednio połączone ze stroną główną (najczęściej poprzez menu).

mapa strony optymalizuje wygląd linku do sklepu w wyszukiwarce
Mapa strony optymalizuje wygląd w wyszukiwarce

Mapa strony optymalizuje wygląd linku do sklepu w wyszukiwarce. Dodanie mapy w wersji XML ułatwia robotom wyszukiwarek poruszanie się po stronie WWW i ustalenie, które podstrony są najważniejsze. Dzięki temu link do naszego serwisu w indeksie wyszukiwarki ulega poszerzeniu o kilka najistotniejszych podstron.


3. Linki wychodzące do innych stron – wzajemne dzielenie się wiedzą

Mnie również bardzo trudno jest się przełamać i oddać komuś coś za darmo, zwłaszcza jeśli taki gest mam wykonać w stosunku do osoby czy organizacji, która jest dla mnie konkurencją. Na stronach internetowych bardzo trudno jest odwzorować tego typu relacje. które polegają na polecaniu innych osób. Dobrze w tej dziedzinie sprawdzają się media społecznościowe… Ale dla wujka Google ważne jest też to, jak często linkujesz do innych ze swojej strony internetowej. Czy tylko ja dostrzegam, że w klasycznej architekturze webowej zjawisko to jest archaiczne i w praktyce nie funkcjonuje w naturalny sposób? Lub funkcjonuje w tak niszowy sposób, że jedynie nieliczne strony decydują się kogoś polecić?

A przecież Google nie oczekuje w tym miejscu, aby nasz gest był odwzajemniony. Nie oceniamy tu ilości poleceń naszej strony, ale poziom naszego zaangażowania w rozwój tego trendu. Jeśli więc w tym miejscu polecę podstronę Centrum wyszukiwarki Google, na której możemy zapoznać się z podstawami działania wyszukiwarki Google, to dobry wujek uzna ten gest za prospołeczny (czyn godny pochwały z punktu widzenia społeczności internetowej) i podniesie ranking tej strony.

Jeśli w tekście linków znajdą się słowa kluczowe, a strony wskazane przez linki okażą się tematycznie powiązane, otrzymasz wysoką ocenę rankingową. W rezultacie zajmiesz wysoką pozycję na liście rezultatów wyszukiwania.” (Źródło: J.L. Ledford, SEO. Biblia. Wiedza obiecana, Wydawnictwo Helion, Gliwice 2009, s. 119)

Ktoś mógłby zawołać: Hola! Przecież za takie linki trzeba płacić! Nikt normalny nie będzie promował konkurencji. Należy jednak pamiętać, że w Internet rządzi się prawami ekonomii podarków. Jest to ekonomia społecznościowa, która u swoich fundamentów opiera się na współdzieleniu informacjami. W Sieci walutą nie są kapitalistyczne banknoty, ale właśnie linki i kryjące się za nimi informacje. Reguły w tej gospodarce są odwrócone. Stanowią swojego rodzaju alternatywę wobec tradycyjnych metod zarządzania przepływem kapitału. Gospodarka internetowa mocno zakorzeniona jest w jednej z podstawowych reguł psychologii społecznej: regule wzajemności. Na regule tej opierają się wszystkie nowoczesne społeczeństwa, a mówi ona, że właśnie w takich społeczeństwach możemy liczyć na to iż nasz dobry uczynek zostanie odwzajemniony (choć niekoniecznie przez tą samą osobą). Innymi słowy, jeśli np. ustąpimy komuś miejsce w autobusie, to możemy liczyć na to, że ktoś kiedyś udostępni je nam. I na tym samym opiera się Sieć. Udostępniając link do domeny zewnętrznej, zwłaszcza jeśli robimy to spontanicznie (gest chwili), spełniamy tą regułę w jej technicznej formie, która jest jednocześnie wyraźnym przekazem do Google: jesteśmy tu po to, aby się dzielić i aby współtworzyć. Pamiętajmy więc, że w wirtualnym świecie ważniejsze są linki wychodzące aniżeli przychodzące.


4. Nowe strony (indekowanie nowych witryn)

Mniej więcej w tym miejscu, choć jest to kolejność mocno umowna, można uplasować nowe serwisy internetowe, które dopiero zabiegają o indeksację w Google. Wyszukiwarka w końcu odkryje świeżą stronę i umieści ją na swojej stronie. Zazwyczaj nie trwa to dłużej aniżeli 1-2 tygodnie. W praktyce nie ma żadnych warunków poza prawidłową domeną. Zabieg ten można przyspieszyć poprzez zgłoszenie witryny. Poprzestanie na dążeniu do wyświetlania naszej strony tylko w jednej wyszukiwarce może być ze szkodą dla SEO. Warto zainteresować się też innymi silnikami. Do najpopularniejszych należą: Google, Bing, Yahoo!. Poza nimi warto też zwrócić uwagę na witrynowe, regionalne i specjalistyczne silniki monitorujące. Każda wyszukiwarka rządzi się swoimi prawami. Każdy z tych silników może mieć swoje moduły produktowe, jak Google Maps (rozpoznawanie lokalizacji), Google IMG (typowanie obrazowe), itp.. Niektóre, zwłaszcza indeksy specjalistyczne mogą być płatne. Wszystkie one zawierają też płatne formy reklamy typu PPC lub CPC (Pay Per Click, Cost Per Click), które pozwalają na wyświetlenie za opłatą na pierwszych miejscach w wynikach wyszukiwania (lub na reklamach kontekstowych obok tych wyników).


5. Zmiany na istniejących stronach (aktualizacje, komentarze, treści dynamiczne)

Algorytmy wyszukiwarek pozytywnie oceniają strony internetowe, na których dokonywane są zmiany treści. Warto więc wpisać aktualizacje na checklist zadań okresowo koniecznych do wykonania. Przeglądając opublikowane artykuły, czytając treści na stronach serwisu, na pewno natkniemy się na takie, które straciły na aktualności i wymagają poprawy. Zamiast tworzyć nowy wpis i pisać kolejny artykuł, można zredagować stary artykuł i odświeżyć niegdyś zbudowaną stronę. Jeśli musimy, to usuńmy większość treści. Nie przejmujmy się stratą słów kluczowych. Jeśli uznaliśmy, że wpis należy zmienić, to znaczy, że nie miał on większej wartości dla naszych klientów i jego utrata nie spowoduje żadnej straty dla naszych działań optymalizacyjnych.

Istotny wpływ na ocenę naszej pracy przez googlebot mogę mieć komentarze. Choć nie dostarczają dużej ilości treści, tak sam fakt nowych wpisów na stronie jest pozytywnie oceniany przez algorytmy wyszukiwarek. Komentarze użytkowników pomagają też spojrzeć na naszą dotychczasową pracę w sposób krytyczny. Nie bójmy się słuchać klientów, bądźmy otwarci na wymianę poglądów, a nasze wpisy zyskają na popularności.

Niezależnie od tego, jakiej zmiany dokonasz, już sam fakt aktualizacji będzie pozytywnym znakiem dla odwiedzającego ją robota indeksującego, który zasygnalizuje konieczność podniesienia rankingu strony i wyższej pozycji w wynikach wyszukiwania. Zmiana tej pozycji nie dokona się od razu po aktualizacji, a dopiero wtedy, kiedy stronę odwiedzi googlebot, dlatego rezultatów swojej pracy można spodziewać się nie wcześniej jak po kilku do kilkunastu dni.

Do treści dynamicznych należą strony blogowe i strony z aktualnościami. Twoja strona główna może być wypełniona treściami statycznymi i dynamicznymi. Możesz umieścić na niej zajawki (wraz ze skrótem) do najnowszych wpisów blogowych, kart produktowych z najnowszymi towarami lub najlepiej sprzedającymi się produktami (gorące oferty). Wbrew pozorom dynamiczne treści na stronie głównej, a zatem ciągła, okresowa zmiana tekstów, będzie miała lepszy wpływ na pozycję serwisu w wyszukiwarce, aniżeli stale obecny od lat, ten sam artykuł z odpowiednio dobranymi słowami kluczowymi. Dobrą strategią wydaje się być taka, która ma charakter umiarkowany, dlatego zastosowanie tekstu dynamicznego w kontekście treści statycznych może dać najlepsze wyniki.

Pisząc o aktualizacji mamy też na myśli nowe podstrony, nowe karty produktowe i nowe wpisy blogowe. Nie chodzi tylko o aktualizację samej treści, ale i o dodawanie nowych struktur. Algorytmy wyszukiwarek lepiej oceniają te serwisy, które podlegają stałej rozbudowie. Dlatego warto systematycznie, np. raz w tygodniu lub raz na miesiąc aktualizować swój serwis o nowe strony. Tego typu prace warto wesprzeć jakimś systemem powiadomienia, np. subskrypcję newsletteru lub publikacją artykułu na listingu grupy w mediach społecznościowych.


6. Nieaktualne linki

Problematyka nieaktualnych linków lub zagadnień z tym powiązanych pojawia się dość często w materiałach, zarówno tych teoretycznych, jak i źródłowych dotyczących marketingu w wyszukiwarkach. Roboty indeksujące źle oceniają ślepe linki i tym samym końcowe strony internetowe, tj. takie, które prowadzą donikąd (tj. takie z które nie posiadają żadnych odnośników wewnętrznych lub zewnętrznych).

Googlebot źle też ocena nieaktualne odnośniki – linki do nieistniejących stron. Powód jest chociażby taki, że nieistniejące linki źle wpływają na doświadczenia użytkownika odwiedzającego witrynę internetową. Klient doznaje rozczarowania po kliknięciu w link, który prowadzi donikąd. W wyniku tej operacji wypada też z obiegu, a zatem i z samej wyszukiwarki.

Doświadczenia użytkownika klikającego w ślepy link mogą być nieco lepsze, aniżeli tego, który kliknie w niesprawny link. Ślepy link może prowadzić do podstrony z treścią atrakcyjną dla człowieka… ale nie posiadającą żadnego odnośnika. Natomiast niesprawny link będzie prowadził do strony, której nie ma. Tak czy inaczej użytkownik wypada z obiegu wyszukiwarki, ale drugi przypadek jest dużo bardziej drastyczny.

Poza tym dla robotów indeksujących odnośniki kierujące do błędów typu 300 i 400, zwłaszcza jeśli utrzymują się przez dłuższy czas, świadczą o braku aktualizacji, czytaj: braku odpowiedniego zainteresowania jakością treści i struktury strony przez osobę odpowiedzialną za jej administrację.

Nieaktualne linki pojawiają się zwłaszcza wtedy, kiedy dokonujemy przeglądu podstron na serwisie lub w wyszukiwarce i w wyniku pracy analitycznej usuwamy nieaktualne strony. Odciążając serwis i Google ciężarem nierentownych stron możemy jednak uśmiercić odnośniki do nich, które dodaliśmy na innych podstronach.

Jak odnaleźć nieaktualne linki? Martwe linki można odnaleźć za pomocą skanera internetowego np. brokenlinkcheck. O nieaktualnych odnośnikach i błędach w trakcie indeksacji informuje nas też Google Search Console. Pamiętaj, aby systematycznie sprawdzać aktualność linków i tworzyć przekierowania 301 w pliku .htacces dla stron, których adresy zmieniasz. Usuwaj też adresy URL z indeksu wyszukiwarki.


7. Słowa kluczowe

8. Treść zapytania (analiza zapytań, język naturalny i długi ogon)

Wpływ na pozycję Twojego sklepu mają też zapytania stawiane wyszukiwarce przez Internautów. Ktoś mógłby zauważyć, że jest to odwrócenie zagadnienia słów kluczowych, których istotność dla pozycjonowania sklepu internetowego została przedstawiona już wcześniej. Tak jednak nie jest do końca. Różnica pomiędzy zapytaniami a frazami na stronach polega na tym, że o ile słowa kluczowe są wartościami stałymi, tak zapytania to zmienne, które kształtują się pod wpływem trendów społecznych i przemian kulturowych oraz branżowych. Do tego grupy społeczne posługują się różnymi formami języka naturalnego, a zróżnicowanie to wpływa na realną popularność i trafność słów kluczowych i fraz stosowanych na stronach internetowych.

Wyszukiwarki internetowe reagują na zmiany trendów i dostosowują frazy w autouzupełnianiu. Internauci często posługują się tym mechanizmem ułatwiającym serfowanie po Sieci, zwłaszcza jeśli nie mają jeszcze sprecyzowanych celów zakupowych.

9. Trafność i popularność tematyczna stron

11. Wiarygodność źródła (SMO)

12. Lokalizacja (geolokalizacja)

13. Szybkie odpowiedzi na zadawane pytania

14. Technologia strony WWW

15. Reklama PPC i ADS

16. Brak spamu i manipulacji

17. Analityka i diagnostyka

18. Zaufanie – opłata z dołu (klient płaci za efekt)

19. Wiedza i doświadczenie

20. Kreatywność, wytrwałość i ciągła praca