Google aktualizuje Discover, a Bing mierzy cytowania w AI – Newsy SEO – #1 – Luty 2026
d-tags
d-tags
5 lutego 2026 roku Google rozpoczęło wdrażanie szerokiej aktualizacji systemów odpowiedzialnych za rekomendacje treści w Google Discover. Zmiana ma charakter globalny (choć początkowo obejmuje użytkowników anglojęzycznych w USA) i koncentruje się na poprawie jakości oraz trafności prezentowanych materiałów.
Z przeprowadzonych testów wynika, że po aktualizacji użytkownicy oceniają Discover jako bardziej użyteczne źródło treści dopasowanych do ich zainteresowań.
Nowa wersja systemu rekomendacji wprowadza kilka istotnych usprawnień:
Google podkreśla, że algorytmy analizują zawartość całej witryny, aby ocenić jej poziom specjalizacji. Oznacza to, że zarówno serwisy niszowe, jak i większe portale publikujące w wielu kategoriach, mogą budować widoczność w Discover – pod warunkiem konsekwentnego rozwijania eksperckich treści w określonych obszarach.
Podobnie jak w przypadku innych dużych aktualizacji Google, wdrożenie może spowodować zauważalne zmiany w ruchu z Discover. Część serwisów odnotuje wzrost widoczności, inne mogą zanotować spadki, a wiele witryn nie zauważy istotnych różnic.
Microsoft uruchomił w wersji beta nowe narzędzie AI Performance w Bing Webmaster Tools. Funkcja pozwala wydawcom sprawdzić, w jaki sposób i jak często ich treści są wykorzystywane jako źródła w odpowiedziach generowanych przez sztuczną inteligencję – m.in. w Microsoft Copilot, podsumowaniach AI w Bing oraz wybranych integracjach partnerskich.
Nowy panel koncentruje się na analizie cytowań, a nie na tradycyjnych metrykach, takich jak kliknięcia czy pozycje w rankingu. Wśród dostępnych danych znajdują się:
Microsoft podkreśla, że raport nie informuje o pozycji w rankingu, wpływie na odpowiedź ani o przełożeniu na ruch czy konwersje. Dane dotyczą wyłącznie częstotliwości cytowania treści w środowiskach AI.
Choć raport nie pokazuje kliknięć ani realnego wpływu na wyniki biznesowe, daje wydawcom wgląd w to, czy ich treści są wykorzystywane jako źródło wiedzy w systemach generatywnych.
Google wprowadziło zmiany w dokumentacji technicznej dotyczącej Googlebota, doprecyzowując limity rozmiaru plików analizowanych podczas crawlowania. Aktualizacja ma charakter porządkujący – informacje o ogólnych limitach zostały przeniesione z podstrony Googlebota do dokumentacji obejmującej całą infrastrukturę crawlerów i fetcherów Google.
Powód jest prosty: z tej samej infrastruktury korzysta dziś wiele produktów Google, nie tylko wyszukiwarka. Jednocześnie dokumentacja dotycząca samego Googlebota została rozszerzona o bardziej szczegółowe dane specyficzne dla Google Search.
Nowa treść dokumentu brzmi:
Domyślnie roboty indeksujące i pobierające Google indeksują tylko pierwsze 15 MB pliku, a wszelkie treści wykraczające poza ten limit są ignorowane. Poszczególne projekty mogą jednak ustawiać inne limity dla swoich robotów indeksujących i pobierających, a także dla różnych typów plików. Na przykład robot Google, taki jak Googlebot, może mieć mniejszy limit rozmiaru (np. 2 MB) lub określać większy limit rozmiaru pliku w przypadku plików PDF niż w przypadku plików HTML.
Obecnie w dokumentacji wyraźnie rozróżniono dwa poziomy limitów:
Starsza wersja dokumentu mówiła ogólnie o limicie 15 MB i możliwości różnicowania progów w zależności od projektu lub typu pliku. Nie zawierała jednak jasnej informacji, że konkretny robot – np. Googlebot używany w wyszukiwarce – może mieć znacznie niższy limit dla HTML (np. 2 MB).
Nowa redakcja usuwa tę niejednoznaczność i potwierdza, że limity mogą różnić się nie tylko między typami plików (HTML vs. PDF), ale także w zależności od konkretnego zastosowania robota.
Google prowadzi kolejne eksperymenty w sekcji AI Overviews w wynikach wyszukiwania. Od około tygodnia widoczny jest test nowego formatu prezentacji źródeł – po najechaniu kursorem na ikonę linku pojawia się nakładka z kartą strony lub witrynami, z których pochodzi dany fragment tekstu.
Nowy element ma w bardziej przejrzysty sposób wskazywać źródło konkretnego zdania lub akapitu generowanego w podsumowaniu AI. Zamiast klasycznego, dyskretnego oznaczenia linku, użytkownik otrzymuje wizualną kartę z dodatkowymi informacjami o stronie.
Pierwsze obserwacje testu pojawiły się w serwisie X, gdzie funkcję zauważył Harpreet. Kilka dni później podobne zrzuty ekranu opublikowali również Gagan Ghotra oraz Sachin Patel, co sugeruje, że test obejmuje szerszą grupę użytkowników.
Nie jest jasne, czy zmiana stanowi rozwinięcie wcześniejszych eksperymentów z linkami kontekstowymi w AI Overviews, jednak kierunek wydaje się spójny – Google szuka sposobów na zwiększenie widoczności i atrakcyjności źródeł cytowanych w odpowiedziach generowanych przez sztuczną inteligencję.
Na Reddicie pojawiło się pytanie, czy witryna działająca zaledwie rok ma realną szansę wyprzedzić w Google konkurenta obecnego na rynku np. od czterech lat. Do dyskusji odniósł się John Mueller z Google, odpowiadając w swoim charakterystycznym stylu – „to zależy”.
Mueller podkreślił, że sam staż strony nie jest czynnikiem gwarantującym przewagę w SEO. Znaczenie ma to, co wydarzyło się w tym czasie. Cztery lata aktywnego rozwoju, budowania wartościowych treści, relacji z użytkownikami i rozpoznawalności marki to zupełnie inna sytuacja niż cztery lata „istnienia” bez wyraźnej strategii.
Z drugiej strony roczna witryna, która intensywnie pracowała nad jakością treści, doświadczeniem użytkownika i promocją, może szybciej zbudować swoją pozycję niż starszy, ale pasywny konkurent.
W pytaniu zwrócono uwagę na różnice w autorytecie domeny i liczbie linków. Mueller zaznaczył jednak, że koncentrowanie się wyłącznie na wskaźnikach SEO (np. liczbie linków czy metrykach narzędzi) może prowadzić do błędnych wniosków.
Zamiast tego warto spojrzeć szerzej i skupić się na:
Mueller zasugerował, że właściciele młodych stron powinni najpierw obiektywnie ocenić różnice w wartości obu projektów – nie tylko pod kątem SEO, lecz także z perspektywy użytkowników i rynku.
Jeśli roczna witryna opiera się na nowoczesnej architekturze i od początku była budowana zgodnie z dobrymi praktykami technicznymi, prawdopodobnie nie wymaga gruntownych poprawek SEO. W takiej sytuacji większy potencjał wzrostu może leżeć w działaniach strategicznych i marketingowych, a nie w dalszej optymalizacji technicznej.
Wniosek jest prosty: wiek domeny nie daje automatycznej przewagi. To jakość działań podejmowanych w czasie decyduje o tym, kto finalnie wygra w wynikach wyszukiwania.