Algorytmy Google to nic innego, jak ciąg zadań dla naszej wyszukiwarki, dzięki którym może ona analizować informacje zawarte na internetowych witrynach. Jest to więc pewnego rodzaju zbiór zasad, z pomocą których wyszukiwarka może oceniać wartość stron internetowych, by potem wyświetlić je w określonej kolejności. Celem ich powstania było najprościej mówiąc uporządkowanie internetu, w którym znajdują się dosłownie miliardy przeróżnych stron i informacji (jak podaje Netcraft, we wrześniu 2018, odpowiedzi otrzymano z 222 628 534 unikalnych domen).
W dużym skrócie: dzięki algorytmom, Google jest w stanie odkryć i przeskanować zarówno istniejące, jak i nowo pojawiające się w internecie strony, następnie je zaindeksować (czyli rozpoznać ich zawartość i tematykę), aby w końcu wyświetlić je w wynikach wyszukiwania na odpowiednie słowa kluczowe.
Gdyby nie algorytmy Google, prawdopodobnie nie potrafilibyśmy samodzielnie odnaleźć się w sieci.
Pierwszy algorytm wykorzystywany przez wyszukiwarkę Google został opracowany przez jego założycieli – Larry’ego Page’a i Sergeya Brina. Ich celem było przede wszystkim to, by strony pojawiające się w wynikach wyszukiwania w jak najlepszy sposób odpowiadały na pytania użytkowników. Zadając więc sobie pytanie, co świadczy o wysokiej wartości witryn, twórcy skupili się przede wszystkim na znajdujących się na nich treściach. Jak poznać, że dana publikacja jest wartościowa? Odpowiedź jest bardzo prosta – jeśli witryna jest często odwiedzana i cytowana na wielu stronach, znaczy to, że jest popularna i cenna.
Do oceny strony właśnie pod kątem tych kryteriów powstał algorytm PageRank. Mierzony w 10-stopniowej skali, mówił o mocy i popularności witryn (gdzie 10 jest oceną najwyższą, a nowe strony zaczynały od wartości N/A).
Moc i popularność stron mierzona przez PageRank była przekazywana ze strony na stronę. Przykładowo, strona z oceną 10 przekazywała część swojej wartości na witrynę z notą 2, jeśli w swojej treści zawierała do niej link.
Po pewnym czasie okazało się, że bardzo łatwo go przechytrzyć i w dużej części PageRank został zmanipulowany poprzez nieuczciwe zdobywanie odnośników do strony z serwisów o dużej popularności.
Kilka lat temu Google zdało sobie sprawę, że PageRank jest jednym algorytmów Google, który można łatwo zmanipulować. Z tego powodu stopniowo zaczęto z niego rezygnować. Początkowo miało miejsce odcięcie nas od informacji o ocenach PageRank, następnie w 2013 roku został on po raz ostatni oficjalnie zaktualizowany. Co dzieje się z nim teraz? Wiele osób twierdzi, że dalej istnieje i jest odświeżany, jednak brak na ten temat oficjalnych informacji.
Google wykorzystuje wiele przeróżnych algorytmów. Do najbardziej znanych możemy jednak zaliczyć cztery podstawowe: Panda, Pingwin, Koliber i Gołąb.
Panda to algorytm, który przede wszystkim odpowiada za treść. Sprawdza ją i ocenia pod względem unikalności, oryginalności i wartości. Co dokładnie bada ten algorytm?
Algorytm Panda powstała po to, by w wynikach wyszukiwania wyświetlać na wysokich miejscach te strony, które tworzą merytorycznie cenne treści, które są wartościowe dla użytkowników.
Zadaniem algorytmu o wdzięcznej nazwie Pingwin jest przede wszystkim walka ze spamem i przeciwdziałanie wszelkim objawom nieetycznego działania. Powinny więc bać się go wszystkie serwisy do wymiany linków. Algorytm Pingwin ocenia przede wszystkim:
Jedną z ostatnich aktualizacji wyszukiwarki Google, która działa obecnie w czasie rzeczywistym, jest Pingwin 2.0. Wprowadzony, by skutecznie wyeliminować strony stosujące nieetyczne technik poprawienia zarówno pozycji w wyszukiwarce, jak również zwiększenia ruchu. Bezwzględnie karze wszystkie witryny, które korzystają z metod zwanych BlackHat SEO. Na tej aktualizacji skorzystały wszystkie strony zawierające wartościowe treści, naturalne profile linków (z serwisów powiązanych tematycznie), które odnośniki do swoich witryn tworzą nie tylko na najbardziej popularne słowa kluczowe. Pingwin 2.0 nie zapomina również o reklamach, które powinny posiadać atrybut “NoFollow” – nie powinny więc przenosić wcześniej wspomnianego PageRanka, co może powodować podniesienie pozycji w wynikach wyszukiwania.
Koliber, czyli jeden z ostatnich aktualizacji algorytmów Google, został wprowadzony w 2013 roku i jego zadaniem jest ułatwienie wyszukiwania informacji dla użytkowników. Ma on na celu wskazywanie poszukiwanych informacji bez konieczności wychodzenia z wyników wyszukiwania. Oto praktyczny przykład jego działania:
Oprócz pokazywania informacji bez konieczności wchodzenia na stronę ukazaną w wynikach algorytm Google Koliber ma jeszcze dwie istotne funkcje:
Koliber jest algorytmem Google mającym wyjść na przeciw użytkownikom, aby wyszukiwanie informacji odbywało się szybko i dokładnie.
Algorytm Gołąb, wprowadzony w 2014 roku, skupia się na lokalnych wynikach wyszukiwania. Jest to kolejne wyciągnięcie ręki w stronę użytkowników. Mieszkaniec Krakowa wpisując w Google frazę “fryzjer” nie poszukuje przecież usługi, która znajduje się w Gdańsku.
Gołąb połączył również odpowiedzi na zapytania w sieci Google z mapami. Poszukując zatem fryzjera w Krakowie, pojawią nam się zarówno strony poszczególnych zakładów, jak również dokładne miejsca na mapie, w których się one znajdują.
Google w swoim działaniu wykorzystuje wiele algorytmów, które wpływają na ukazujące nam się wyniki wyszukiwania. Przyjrzymy się teraz na tym mniej znanym, ale równie istotnym, na które należy zwrócić uwagę.
RankBrain to algorytm Google, który w swoim działaniu wykorzystuje sztuczną inteligencję. Jego działanie polega na interpretowaniu wpisywanych w Google fraz i objaśnianiu ich na nowe, różne sposoby. Znajdują one zastosowanie szczególnie w przypadku bardzo skomplikowanych i długich, jak również zupełnie nowych zapytań, które nie były nigdy wcześniej wyszukiwane. Ma za zadanie przetworzyć wpisaną frazę, zrozumieć ją i odnaleźć odpowiedź.
Przykładowo, działalność RankBrain możemy zauważyć po wpisaniu długiego, skomplikowanego zapytania “jak nazywa się w siatkówce zawodnik, który ma inną koszulkę”. Po wpisaniu takiej frazy otrzymamy odpowiedź: libero.
Coraz więcej osób częściej korzysta z internetu na telefonie, niż komputerze. W związku z tym trendem oraz faktem, że dla Google najważniejszy jest użytkownik, powstał algorytm MobileGeddon.
W wynikach wyszukiwania Google będzie więc chętniej pokazywać nam te strony, które posiadają wersję mobilną, czyli dostosowaną do komórek. Dzięki temu przeglądanie witryn jest dla użytkowników zdecydowanie wygodniejsze.
Dwa lata temu, małe ZOO Google zostało powiększone o kolejnego zwierzaka. Jest nim Opos, który na pozór wydaje się sympatyczny, dokonał niezłego zamieszania w lokalnych wynikach wyszukiwania. Skorzystały na nim te biznesy, których działalność odbywa się w innych lokalizacjach niż miejsce głównej siedziby.
Wyniki wyszukiwania są więc w dniu dzisiejszym jeszcze lepiej dopasowane do miejsca, w którym przebywa użytkownik. Jeśli więc chcemy, aby to nasza strona pojawiała się wysoko, musimy przykładowo na bieżąco aktualizować nasze wizytówki i profile Google Moja Firma.
Phantom zwraca szczególną uwagę jakość na witryny oraz zachowania użytkownika na stronie. Algorytm ten bada stronę pod kątem występujących na niej błędów funkcjonowania, czy wszelkich problemów technicznych. Sprawdza również optymalizację strony pod względem np. nasycenia frazami kluczowymi, jakością pojawiającej się treści, ilości reklam.
Algorytm Phantom jest często powodem nakładania na witryny bardzo bolesnych w skutkach kar. Bardzo trudno jest również rozpoznać powody upomnień, ponieważ często mogą one dotyczyć pojedynczych podstron. Jest on szczególnie wymagający wobec dużych, znanych i popularnych stron.
Kilka lat temu odbyła się konferencja, na której zapowiedziany został nowy algorytm Google, działający niezależnie. Oparty na maszynowym uczeniu, Reinforcement Learning (czyli uczenie poprzez wzmacnianie) ma doskonalić swoje działanie na bieżąco. Jak się okazuje, Wujek Google chce lepiej poznać swoich użytkowników. Po wpisaniu frazy do Google, najnowszy algorytm ma za zadanie przekształcić ją w wiele różnych, innych pytań, po wykonaniu wstępnej selekcji wyników na zasadzie prób i błędów, następnie ma przesłać je do tradycyjnych algorytmów. Wszystko po to, by użytkownicy mogli dostać jak najbardziej trafne odpowiedzi.
Dla SEO będzie oznaczać to nie tylko optymalizowanie stron pod kątem dotychczas nam znanych czynników rankingowych, ale również o zawarcie treści opartych na najważniejszych słowach kluczowych, które będą satysfakcjonujące dla użytkowników.
Na moment obecny jest to jednak tylko teoria, ale prawdopodobnie w ciągu najbliższego czasu to właśnie on będzie odpowiadał za otrzymywane wyniki wyszukiwania.
Duże zmiany w 2018 roku przyniósł nam:
W 2018 to jednak sierpień i wrzesień były na ustach wszystkich osób zajmujących się pozycjonowaniem. Powodem był tzw. Medic Update, który zrobił w SEO niemałe zamieszanie, szczególnie w branży medycznej i finansowej. Ta aktualizacja wyszukiwarki Google dotknęła szczególnie takie działalności, jak: internetowe drogerie, sklepy ze zdrową żywnością, kliniki, apteki, itd. Duża rolę odegrała wartość merytoryczna treści znajdujących się na stronie oraz autorytet ich autora. Na zmianach Google szczególnie ucierpiały serwisy, które nie udostępniały informacji dotyczących osoby publikującej artykuły. Co było dalej? Jak zmieniały się algorytmy Google w ostatnich latach?
Google Medic Update to kolejna aktualizacja algorytmu Google, która pojawiła się w 2018 roku. Co ją charakteryzowało? Przede wszystkim skupiała się na portalach medycznych, związanych ze zdrowiem, które stosowały nieetyczne metody SEO do poprawienia swoich miejsc w rankingu wyszukiwania. Medic Update ograniczył widoczność stron, które promowały niepotwierdzone przez specjalistów w dziedzinie medycyny treści lub przedstawiały kontrowersyjne, lub szkodliwe porady.
Ta aktualizacja wprowadziła również zmiany w sposobie oceny autorów tekstów medycznych. Strony, które były związane z tą tematyką, musiały wykazywać się wiedzą oraz doświadczeniem. Do tego niezbędne były autentyczne referencje medyczne. Medic Update miał przede wszystkim na celu zwiększyć bezpieczeństwo oraz wiarygodność informacji… i było to słuszne. W przypadku takiej branży jak medycyna jest to szczególnie ważne.
Więcej szczegółów na temat tej aktualizacji możesz znaleźć na innym wpisie naszego bloga: Medic Update – Aktualizacja algorytmu Google.
E-A-T, czyli Expertise, Authoritativeness, Trustworthiness kładł większy nacisk na jakość i wiarygodność treści. Aktualizacja wprowadziła zmiany w ocenie wiedzy, autorytetu oraz zaufania stron internetowych i twórców. Było to szczególnie widoczne w branżach, które powinny takie zaufanie wzbudzać – prawo, medycyna, finanse.
1 października 2018 oficjalnie została potwierdzona kolejna “niewielka” aktualizacja, bezpośrednio związana z medycznym update. Co zmienia się tym razem?
Mimo że została określona jako “small” dla wielu stron może okazać się jednak bardzo duża, choć nie wpłynie znacząco na tak mnogą liczbę witryn, jak poprzednie zmiany. Dotyczy ona przede wszystkim tematyki zdrowotnej/medycznej, e-commerce, gier, rozrywki, kuponów i innych.
BERT to model językowy opracowany przez Google. Używał on technik uczenia maszynowego oraz AI, dzięki temu był w stanie lepiej rozumieć język naturalny. BERT pojawił się w algorytmie w 2019 roku. Od tego czasu roboty były w stanie analizować zapytania w kontekście – uwzględniały zależności między słowami kluczowymi w zapytaniu.
Szczególnie istotne z punktu widzenia rozumienia zapytań były zaimki i przedimki. Wprowadzenie tej aktualizacji było spowodowane tym, że coraz więcej użytkowników wpisywało w wyszukiwarkę dłuższe frazy i oczekiwało konkretnych odpowiedzi (lub po prostu deklaracji, że na danej stronie znajdzie tę odpowiedź).
Zmiany wprowadzone przez Passage Indexing sprawiły, że użytkownik jest obecnie w stanie otrzymać dopasowany fragment treści do swojego zapytania. Dzięki temu nie muszą wchodzić bezpośrednio na daną witrynę. Na potrzeby tej aktualizacji Google analizuje poszczególne fragmenty strony, pod kątem zapytania.
Passage Indexing jest pokłosiem wprowadzenia BERTa.
Page Experience Update zostało wprowadzone w maju 2021 roku. Celem tej aktualizacji było zwiększenie znaczenia użytkowników oraz ich doświadczeń podczas korzystania ze stron internetowych. Główne elementy, które obejmowała to:
Aktualizacja algorytmu z 2022 roku promuje strony internetowe, które zawierają pomocne i użyteczne treści. Te, które nie spełniają tych wymogów, trafiają na dalsze pozycje w rankingu wyszukiwania. Google Helpful Content jest sygnałem, który mówi, czy treść na Twojej witrynie jest wartościowa. Wprowadzenie tej aktualizacji było wiadomością Google, że będzie robić wszystko, aby jak najlepiej spełnić intencję użytkownika. Treść, która jest zwracania po zapytaniu, ma być przydatna i zaspokajać jego potrzeby.
Była to kolejna zmiana algorytmu z 2022 roku, która dotyczyła produktów pod kątem jakości recenzji. Google zdecydował się promować serwisy, które zawierają fachowe oraz dokładne recenzje. Szczególnie istotne było dołączenie szczegółowych informacji, opinie od konsumentów, którzy faktycznie stosowali produkt, czy unikalne informacje np. w postaci materiałów wizualnych lub dźwiękowych czy linków do treści, które szczegółowo opisują wrażenia ze stosowania produktu.
Google Spam Update to sposób walki z treściami niskiej jakości. Jest to duży problem w kontekście szerokiego dostępu do narzędzi AI, które w łatwy i szybki sposób mogą przygotować treść. Jest ona jednak zazwyczaj bardzo niskiej jakości, nie jest użyteczna dla użytkowników, a czasem wręcz może wprowadzić w błąd.
Rok 2024 przyniósł znaczące zmiany w algorytmie Google, które mają na celu poprawę jakości wyników wyszukiwania oraz eliminację nieetycznych praktyk SEO. W ciągu roku Google wprowadził aktualizacje tzw. Core Update, które wpłynęły na sposób, w jaki treści są oceniane i klasyfikowane.
W 2024 roku miały miejsce trzy główne aktualizacje algorytmu: aktualizacja z marca, z sierpnia oraz z listopada.
W marcu 2024 roku pojawiła się kolejna odsłona aktualizacji Google Spam Update. Przyniosła ona zmiany w 3 obszarach:
Głównym celem aktualizacji algorytmu Google było poprawienie jakości wyników wyszukiwania, kładąc większy nacisk na treści, które są naprawdę przydatne dla użytkowników. Google chciał w ten sposób zwiększyć różnorodność źródeł informacji, szczególnie wspierając mniejszych twórców.
Aktualizacja ta była odpowiedzią na opinie użytkowników dotyczące wcześniejszych zmian, które wydawały się faworyzować większe strony. Google postanowił więc bardziej doceniać oryginalne, wartościowe treści tworzone przez niezależnych wydawców.
Listopadowa aktualizacja algorytmu, która rozpoczęła się 11 listopada 2024 roku, kontynuuje prace nad poprawą jakości wyników wyszukiwania. Google ogłosił, że ta aktualizacja ma na celu pokazanie bardziej wartościowego contentu oraz eliminację treści o niskiej wartości. W przeciwieństwie do wcześniejszych aktualizacji, które mogły powodować dramatyczne zmiany w rankingach, listopadowa aktualizacja wydaje się mieć bardziej stopniowy wpływ.
Google zaleca właścicielom stron internetowych monitorowanie zmian w ruchu oraz analizowanie danych z Search Console po zakończeniu aktualizacji. Zmiany mogą być subtelne, ale dla niektórych witryn mogą oznaczać znaczne przesunięcia w rankingach.
Warto być na bieżąco ze zmianami algorytmów pozycjonowania Google, które przygotowuje dla nas wyszukiwarka. Praktycznie każdego miesiąca pojawiają się mniejsze lub większe zmiany dotyczące rdzenia działania wyszukiwarki tzw. Core Update. Jak znaleźć informacje, co takiego zmienia się w algorytmach? Zmiany możesz śledzić na naszym blogu – z pewnością będziemy informować, co nowego szykuje dla nas gigant z Mountain View. Oprócz tego warto również śledzić witrynę oraz media społecznościowe Google. Rzetelne źródła informacji to m.in. profil Google na Twitterze, ich kanał na YouTube, ale również blog.
Google nieustannie aktualizuje swoje algorytmy (nawet kilkaset razy w ciągu roku!). Ma to przeciwdziałać różnego rodzaju manipulacjom, zwiększyć pozytywne doświadczenia oraz jak najlepiej dostosować odpowiedzi pod zapytania użytkowników. Co przyniesie przyszłość? Można się spodziewać, że gigant z Mountain View w najbliższym czasie zabierze się za kwestie UX. Dbaj o swoich użytkowników i ich potrzeby – bardziej niż o optymalizację pod kątem robotów Google.
Nadążanie za nieustannie ewoluującym algorytmem Google to obowiązkowa lektura dla specjalistów SEO. Każda, nawet najmniejsza zmiana w sposobie, w jaki wyszukiwarka ocenia i prezentuje strony, może znacząco wpłynąć na widoczność i ruch na naszej witrynie. Specjaliści SEO posiadają narzędzia i umiejętności, które pozwalają im śledzić najnowsze trendy, analizować dane i wyciągać wnioski na podstawie ogromnych zbiorów informacji. Dzięki temu są w stanie zidentyfikować zarówno szanse, jak i zagrożenia związane z każdą nową aktualizacją algorytmu.
Świadome porównywanie stron z różnych branż to niezwykle cenne narzędzie w arsenale agencji SEO. Specjaliści potrafią identyfikować najlepsze praktyki w danej dziedzinie, a także wychwycić błędy, których należy unikać. Na przykład, analizując strony e-commerce z różnych kategorii produktowych, można dostrzec różnice w sposobie optymalizacji kategorii produktowych, opisywania produktów czy budowania wewnętrznego linkowania. Są to elementy, które osoby niemające odpowiedniej wiedzy mogą pominąć lub zwyczajnie przeoczyć.
Jeśli chcesz, aby Twoja strona pojawiała się wysoko w wynikach wyszukiwania, regularnie śledź nowinki, o których na bieżąco informujemy na naszym blogu!