.animate-view{opacity: 1 !important;}

Google aktualizuje Discover, a Bing mierzy cytowania w AI – Newsy SEO – #1 – Luty 2026

5min.

Komentarze:0

20 lutego 2026

Google aktualizuje Discover, a Bing mierzy cytowania w AI – Newsy SEO – #1 – Luty 2026d-tags
Lutowa aktualizacja Google Discover wzmacnia rolę treści eksperckich i ogranicza widoczność materiałów sensacyjnych. Równolegle Microsoft uruchamia raport AI Performance, który pokazuje, jak często treści są cytowane w odpowiedziach generowanych przez sztuczną inteligencję. Wspólny mianownik? Jakość przestaje być deklaracją - staje się mierzalnym standardem.

5min.

Komentarze:0

20 lutego 2026

Google ogłasza główną aktualizację Discover – większy nacisk na jakość i eksperckość treści

5 lutego 2026 roku Google rozpoczęło wdrażanie szerokiej aktualizacji systemów odpowiedzialnych za rekomendacje treści w Google Discover. Zmiana ma charakter globalny (choć początkowo obejmuje użytkowników anglojęzycznych w USA) i koncentruje się na poprawie jakości oraz trafności prezentowanych materiałów.

Z przeprowadzonych testów wynika, że po aktualizacji użytkownicy oceniają Discover jako bardziej użyteczne źródło treści dopasowanych do ich zainteresowań.

Co zmienia lutowa aktualizacja Discover?

Nowa wersja systemu rekomendacji wprowadza kilka istotnych usprawnień:

  • lepsze dopasowanie geograficzne – większa widoczność treści z witryn działających w kraju użytkownika,
  • ograniczenie sensacyjnych i clickbaitowych materiałów,
  • promowanie treści eksperckich, szczegółowych i aktualnych, tworzonych przez serwisy wyspecjalizowane w danej tematyce.

Google podkreśla, że algorytmy analizują zawartość całej witryny, aby ocenić jej poziom specjalizacji. Oznacza to, że zarówno serwisy niszowe, jak i większe portale publikujące w wielu kategoriach, mogą budować widoczność w Discover – pod warunkiem konsekwentnego rozwijania eksperckich treści w określonych obszarach.

Przygotuj się na możliwe wahania ruchu

Podobnie jak w przypadku innych dużych aktualizacji Google, wdrożenie może spowodować zauważalne zmiany w ruchu z Discover. Część serwisów odnotuje wzrost widoczności, inne mogą zanotować spadki, a wiele witryn nie zauważy istotnych różnic.

Google zapowiada stopniowe rozszerzanie aktualizacji na kolejne kraje i języki w nadchodzących miesiącach. Właściciele stron powinni w tym czasie przeanalizować jakość swoich treści, ich aktualność oraz spójność tematyczną, kierując się ogólnymi wytycznymi dotyczącymi głównych aktualizacji i obecności w Discover.

Bing Webmaster Tools z raportem AI Performance – nowe dane o cytowaniach w odpowiedziach AI

Microsoft uruchomił w wersji beta nowe narzędzie AI Performance w Bing Webmaster Tools. Funkcja pozwala wydawcom sprawdzić, w jaki sposób i jak często ich treści są wykorzystywane jako źródła w odpowiedziach generowanych przez sztuczną inteligencję – m.in. w Microsoft Copilot, podsumowaniach AI w Bing oraz wybranych integracjach partnerskich.

AI Performance w Bing Webmaster Tools

Co pokazuje raport AI Performance w Bing Webmaster Tools?

Nowy panel koncentruje się na analizie cytowań, a nie na tradycyjnych metrykach, takich jak kliknięcia czy pozycje w rankingu. Wśród dostępnych danych znajdują się:

  • Łączna liczba cytowań – ile razy treści z witryny zostały wskazane jako źródło w odpowiedziach AI w wybranym okresie.
  • Średnia liczba cytowanych stron dziennie – liczba unikalnych adresów URL z witryny przywoływanych przez systemy AI.
  • Zapytania bazowe (grounding queries) – przykładowe frazy, które doprowadziły do wykorzystania treści jako źródła.
  • Cytowania na poziomie URL – zestawienie stron najczęściej wykorzystywanych w odpowiedziach AI.
  • Trend widoczności w czasie – wykres pokazujący wzrosty i spadki liczby cytowań.

Microsoft podkreśla, że raport nie informuje o pozycji w rankingu, wpływie na odpowiedź ani o przełożeniu na ruch czy konwersje. Dane dotyczą wyłącznie częstotliwości cytowania treści w środowiskach AI.

Choć raport nie pokazuje kliknięć ani realnego wpływu na wyniki biznesowe, daje wydawcom wgląd w to, czy ich treści są wykorzystywane jako źródło wiedzy w systemach generatywnych.

Google aktualizuje limity rozmiaru plików dla Googlebota

Google wprowadziło zmiany w dokumentacji technicznej dotyczącej Googlebota, doprecyzowując limity rozmiaru plików analizowanych podczas crawlowania. Aktualizacja ma charakter porządkujący – informacje o ogólnych limitach zostały przeniesione z podstrony Googlebota do dokumentacji obejmującej całą infrastrukturę crawlerów i fetcherów Google.

Powód jest prosty: z tej samej infrastruktury korzysta dziś wiele produktów Google, nie tylko wyszukiwarka. Jednocześnie dokumentacja dotycząca samego Googlebota została rozszerzona o bardziej szczegółowe dane specyficzne dla Google Search.

Nowa treść dokumentu brzmi:

Domyślnie roboty indeksujące i pobierające Google indeksują tylko pierwsze 15 MB pliku, a wszelkie treści wykraczające poza ten limit są ignorowane. Poszczególne projekty mogą jednak ustawiać inne limity dla swoich robotów indeksujących i pobierających, a także dla różnych typów plików. Na przykład robot Google, taki jak Googlebot, może mieć mniejszy limit rozmiaru (np. 2 MB) lub określać większy limit rozmiaru pliku w przypadku plików PDF niż w przypadku plików HTML.

 

Co się zmieniło względem wcześniejszego zapisu?

Obecnie w dokumentacji wyraźnie rozróżniono dwa poziomy limitów:

  • 15 MB – ogólny limit dla infrastruktury crawlerów Google,
  • 2 MB – limit analizowanej treści dla plików HTML i innych obsługiwanych plików tekstowych w kontekście Google Search,
  • 64 MB – limit dla plików PDF.

Starsza wersja dokumentu mówiła ogólnie o limicie 15 MB i możliwości różnicowania progów w zależności od projektu lub typu pliku. Nie zawierała jednak jasnej informacji, że konkretny robot – np. Googlebot używany w wyszukiwarce – może mieć znacznie niższy limit dla HTML (np. 2 MB).

Nowa redakcja usuwa tę niejednoznaczność i potwierdza, że limity mogą różnić się nie tylko między typami plików (HTML vs. PDF), ale także w zależności od konkretnego zastosowania robota.

Google testuje nowe karty linków w AI Overviews

Google prowadzi kolejne eksperymenty w sekcji AI Overviews w wynikach wyszukiwania. Od około tygodnia widoczny jest test nowego formatu prezentacji źródeł – po najechaniu kursorem na ikonę linku pojawia się nakładka z kartą strony lub witrynami, z których pochodzi dany fragment tekstu.

Nowy element ma w bardziej przejrzysty sposób wskazywać źródło konkretnego zdania lub akapitu generowanego w podsumowaniu AI. Zamiast klasycznego, dyskretnego oznaczenia linku, użytkownik otrzymuje wizualną kartę z dodatkowymi informacjami o stronie.

Nowa forma prezentacji linków w AI Overviews

Pierwsze obserwacje testu pojawiły się w serwisie X, gdzie funkcję zauważył Harpreet. Kilka dni później podobne zrzuty ekranu opublikowali również Gagan Ghotra oraz Sachin Patel, co sugeruje, że test obejmuje szerszą grupę użytkowników.

Nie jest jasne, czy zmiana stanowi rozwinięcie wcześniejszych eksperymentów z linkami kontekstowymi w AI Overviews, jednak kierunek wydaje się spójny – Google szuka sposobów na zwiększenie widoczności i atrakcyjności źródeł cytowanych w odpowiedziach generowanych przez sztuczną inteligencję.

Pozostaje pytanie: czy nowe, bardziej rozbudowane karty rzeczywiście przełożą się na wyższą klikalność linków i realny ruch do serwisów? Na razie Google nie udostępniło żadnych danych potwierdzających skuteczność testowanego rozwiązania.

Czy nowa strona jest w stanie konkurować ze starszą? Odpowiada John Mueller

Na Reddicie pojawiło się pytanie, czy witryna działająca zaledwie rok ma realną szansę wyprzedzić w Google konkurenta obecnego na rynku np. od czterech lat. Do dyskusji odniósł się John Mueller z Google, odpowiadając w swoim charakterystycznym stylu – „to zależy”.

Wiek domeny to nie wszystko

Mueller podkreślił, że sam staż strony nie jest czynnikiem gwarantującym przewagę w SEO. Znaczenie ma to, co wydarzyło się w tym czasie. Cztery lata aktywnego rozwoju, budowania wartościowych treści, relacji z użytkownikami i rozpoznawalności marki to zupełnie inna sytuacja niż cztery lata „istnienia” bez wyraźnej strategii.

Z drugiej strony roczna witryna, która intensywnie pracowała nad jakością treści, doświadczeniem użytkownika i promocją, może szybciej zbudować swoją pozycję niż starszy, ale pasywny konkurent.

Co naprawdę pomaga nadrobić dystans?

W pytaniu zwrócono uwagę na różnice w autorytecie domeny i liczbie linków. Mueller zaznaczył jednak, że koncentrowanie się wyłącznie na wskaźnikach SEO (np. liczbie linków czy metrykach narzędzi) może prowadzić do błędnych wniosków.

Zamiast tego warto spojrzeć szerzej i skupić się na:

  • realnej wartości dla użytkowników,
  • jakości i unikalności treści,
  • funkcjonalności serwisu,
  • strategii marketingowej i promocji,
  • spójności biznesowej projektu.
Jak zauważył Mueller, „starzenie się witryny jest nieuniknione, ale na bycie wartościową trzeba zapracować”.

Mueller zasugerował, że właściciele młodych stron powinni najpierw obiektywnie ocenić różnice w wartości obu projektów – nie tylko pod kątem SEO, lecz także z perspektywy użytkowników i rynku.

Jeśli roczna witryna opiera się na nowoczesnej architekturze i od początku była budowana zgodnie z dobrymi praktykami technicznymi, prawdopodobnie nie wymaga gruntownych poprawek SEO. W takiej sytuacji większy potencjał wzrostu może leżeć w działaniach strategicznych i marketingowych, a nie w dalszej optymalizacji technicznej.

Wniosek jest prosty: wiek domeny nie daje automatycznej przewagi. To jakość działań podejmowanych w czasie decyduje o tym, kto finalnie wygra w wynikach wyszukiwania.

Autor
Marcin Polak - Junior SEO Specialist
Autor
Marcin Polak

SEO Specialist

SEO Specialist z doświadczeniem w copywritingu. Od 2023 roku związany z Delante, gdzie łączy kreatywność pisania z analitycznym podejściem do SEO. Absolwent Uniwersytetu Jagiellońskiego (Dziennikarstwo i Komunikacja Społeczna, Zarządzanie w Sporcie). Poza pracą aktywny fan sportu (szczególnie Premier League), kulinariów oraz filmów i seriali.