Przez 23 lata istnienia wyszukiwarki google, pozycjonerzy znaleźli sposoby na odkrycie tajemnic algorytmów. Wiemy całkiem sporo o tym, jak wyszukiwarki oceniają witryny, dzięki czemu możemy umieszczać witryny swoich klientów na wyższych pozycjach.
Wyszukiwarka robi 4 rzeczy: przeszukuje witryny internetowe, tworzy z nich indeks, oblicza ranking na podstawie ich trafności dla danego zapytania, a na koniec wyświetla wyniki.
Wyobraź sobie WWW jako sieć przystanków w wielkomiejskim systemie metra.
Każdy przystanek to pojedynczy dokument (najczęściej podstrona witryny internetowej, ale czasem też PDF, JPG lub inny plik). Wyszukiwarka chce poznać całe miasto i “zaliczyć” wszystkie przystanki. Między przystankami podróżuje wzdłuż linków.
“Linki łączą wszystkie istniejące w internecie strony.” (A przynajmniej wszystkie strony, do których dotrzeć mogą wyszukiwarki.) Robot wyszukiwarki, podążając wzdłuż linków, jest w stanie odwiedzić miliardy powiązanych nimi dokumentów. Kod każdego znalezionego w ten sposób dokumentu zostaje zanalizowany, a jego wybrane elementy zapisane na przepastnych dyskach twardych wyszukiwarki. Dzięki temu możliwe będzie szybkie odszukanie dokumentu, który będzie pasował do zapytania. Aby pomieścić ogrom treści z miliardów stron i uczynić je wszystkie dostępnymi w mniej niż sekundę, wyszukiwarki zbudowały ogromne centra danych w różnych miejscach świata. Każde takie centrum to tysiące serwerów, przetwarzające niewyobrażalne ilości informacji. W końcu użytkownik oczekuje natychmiastowej odpowiedzi, nawet 3-4 sekundowe opóźnienie może spowodować jego niezadowolenie. Wyszukiwarki ciężko więc pracują, by udzielać odpowiedzi tak szybko, jak to możliwe.
Każde zapytanie wydane przez użytkownika wymaga od wyszukiwarki przeszukania składającego się z miliardów dokumentów korpusu w celu wykonania dwóch akcji: po pierwsze, zwrócić wyłącznie wyniki pasujące do zapytania i po drugie, poukładać je w kolejności od najtrafniejszego (lub najważniejszego).
Właśnie dlatego optymalizacja witryny pod wyszukiwarki (SEO) polega na uczynieniu jej “trafną” i “ważną”. Obecność na stronie słów z zapytania nie wystarczy, by wyszukiwarka uznała ją za “trafną” i wyeksponowała w wynikach. Fakt, wystarczało to pierwszym wyszukiwarkom, przez co zwracane wyniki były słabej jakości. W toku kolejnych ulepszeń wyszukiwarkowym inżynierom udało się jednak wynaleźć lepsze sposoby dostarczania szukającym wartościowych wyników.
Skomplikowane algorytmy wyszukiwarek na pierwszy rzut oka robią wrażenie nieprzeniknionych, na szczęście ich właściciele udzielają pewnych porad, jak osiągnąć lepsze pozycje i przyciągnąć więcej ruchu. Poniżej podstawowe, podawane przez właścicieli wyszukiwarek, informacje o optymalizacji i dobrych praktykach:
Dla lepszych pozycji witryny w wyszukiwarkach, Google zaleca:
Dobra agencja seo musi umieć spojrzeć na korzystanie z wyszukiwarki oczami klientów. Kiedy nauczysz się patrzeć na wyszukiwarki oczami najpierw przeciętnego internauty, później pożądanego przez ciebie klienta, z łatwością do niego dotrzesz i go zatrzymasz.
Optymalizacja dla wyszukiwarek internetowych (oryg. Search Engine Optimization, SEO) polega na uczynieniu przygotowanej przez człowieka witryny internetowej łatwo używalną zarówno dla innych ludzi, jak i dla robotów wyszukiwarek.
Z uwagi na techniczne ograniczenia, wyszukiwarki interpretują treść i układają witryny w ranking w sposób niedoskonały.
Żeby wyszukiwarka mogła umieścić witrynę w swoich przepastnych indeksach słów kluczowych, musi najpierw widzieć jej treść. Aby móc przemierzyć podstrony witryny w poszukiwaniu treści, potrzebuje też widocznych dla siebie drogowskazów, połączeń między podstronami – potrzebuje struktury linków. Wiele witryn bardzo sobie szkodzi robiąc nieczytelne dla wyszukiwarek wewnętrzne linkowanie, co z kolei negatywnie wpływa na ich pozycje na stronach wyników.
Specyfikacja HTML przewiduje dla linków wiele różnych atrybutów, ale większość z nich jest przez wyszukiwarki ignorowana. Jednym z nielicznych – i bardzo ważnych – wyjątków jest właśnie rel=”nofollow”. Dodając atrybut rel=nofollow mówimy wyszukiwarce, żeby nie traktowała danego linka jako naszego “głosu za” linkowaną witryną. Atrybut nofollow miał pierwotnie zaradzić problemowi spamerskich komentarzy na blogach czy księgach gości, ale z biegiem czasu przekształcił się w narzędzie informowania wyszukiwarek, by nie traktowały danego linka jako przekazującego jakąś wartość (która normalnie zostałaby przekazana).
Google traktuje linki nofollow jak tekst, a więc tak, jakby link wcale nie istniał. Nie są one także brane pod uwagę przy formowaniu googlowego grafu wszystkich linków w internecie.
Słowa kluczowe to w procesie wyszukiwania rzecz podstawowa – to z nich buduje się zapytania. Właściwie cała nauka o wyszukiwaniu informacji (włączając w to wyszukiwarki webowe takie jak Google) opiera się na słowach kluczowych. Słowa kluczowe są podstawą indeksów, w których zapisywane są treści witryn internetowych. Zamiast przechowywać 25 miliardów podstron w jednej bazie danych (która byłaby wówczas gigantyczna) = wyszukiwarki posługują się milionami mniejszych baz danych, z których każda stworzona jest wokół konkretnego słowa kluczowego lub frazy. Dzięki temu sięgnięcie po potrzebną informację zajmuje wyszukiwarkom mniej niż sekundę.
Jeśli chcesz, by twoją stronę widzieli internauci pytający o “pies”, dobrym posunięciem będzie oczywiście umieścić to słowo w widocznej dla wyszukiwarek części dokumentu (podstrony).
Zawsze, kiedy mówi się o “słowach kluczowych” i “wyszukiwarkach” jednocześnie, w końcu paść musi pojęcie “gęstości słów kluczowych” (oryg. “keyword density”). To zupełne nieporozumienie. Nie ma żadnych wątpliwości, że gęstość słów kluczowych nie ma w algorytmach współczesnych wyszukiwarek znaczenia. Wyszukiwarki dysponują znacznie efektywniejszymi metodami analizy słów kluczowych. Zamiast zgłębiać szczegóły tego mitu, odsyłamy więc po prostu do pracy dr. Edela Garcii (The Keyword Density of Non-Sense). Pojęcie gęstości słów kluczowych jest starsze nie tylko od dzisiejszych komercyjnych wyszukiwarek, ale i od całego internetu; w nauce o wyszukiwaniu informacji ma niewielkie znaczenie nawet jako konstrukt teoretyczny. Gęstość słów kluczowych nie ma znaczenia dla przetwarzania tekstu przez wyszukiwarki, indeksowania dokumentów, czy przypisywania wartości słowom. Dlaczego zatem tak wielu pozycjonerów wciąż wierzy w gęstość słów kluczowych Odpowiedź jest prosta: mylne informacje. Autorytet dr. Garcii jako matematyka i specjalisty wyszukiwania informacji powinien rozwiewać tu wszelkie wątpliwości. Przywołana wcześniej jego praca przynosi też niestety smutne informacje. Nie mając dostępu do globalnego indeksu całego internetu (by zmierzyć wagę poszczególnych słów) i reprezentatywnego korpusu znajdujących się w nim dokumentów (by zbudować bibliotekę semantyczną), mamy niewielkie szanse odnaleźć schematy pomocne w pozycjonowaniu.
© 2021 Seostacja – Agencja SEO