Nie przedłużajmy, bo prasówka sama się nie zrobi: co słychać w styczniu?
Masowe zwolnienia, bo… Google skupia się na AI
Google zwolniło kilkuset pracowników (inżynierów, ludzi od asystenta głosoewgo), by skupić się bardziej na AI oraz kolejnych odpowiedzialnych za hardware do Pixela, Nesta czy Fitbita. Co to dla nas oznacza? W 2024 roku AI nie przystopuje, wręcz przeciwnie.
➡️ https://nypost.com/2024/01/11/business/google-lays-off-hundreds-of-workers-as-ai-race-heats-up/
Nowe dane o SGE
Za nami chyba największe jak do tej pory badanie na temat SGE (wyników w Google generowanych przez AI). Ciekawe i do tego bardzo transparentne. Twórcy pokazują wszystkie frazy, które sprawdzali, czy jakie domeny rankowały. Najważniejsze insighty:
- Google wyświetla element generujący wyszukiwanie w przypadku 86,8% wszystkich zapytań.
- W treści SGE po kliknięciu znajduje się średnio 10 linków z 4 unikalnych domen.
- 93,8% linków generatywnych (przynajmniej w tym zbiorze danych) pochodziło ze źródeł spoza czołowych domen organicznych.
➡️ https://www.authoritas.com/blog/research-study-the-impact-of-googles-search-generative-experience-on-rankings
10 praw UX
- Pan Christoper Nguyen (możecie go kojarzyć z UX Playbooka), wrzucił na Linkedina swoją listę 10 UX Laws, które są jego subiektywnym rankingiem tego, co jest obecnie istotne w projektowaniu interfejsów.
- Subiektywne, ale bardzo ciekawe i bazujące na żywych przykładach z na co dzień użytkowanych stron/aplikacji.
- Mamy dużo o przejrzystości, feedbacku, dopaminie, zapobieganiu błędom i intuicyjności. Co z tego możemy wynieść? UX musi bazować na kontakcie z użytkownikami i sprawianiu, że ich digitalowe podróże stają się jeszcze lepsze.
➡️ https://www.linkedin.com/pulse/10-essential-ux-laws-top-designers-2023-uxplaybook-rwbnc/
Wyniki wyszukiwania coraz gorsze
Niemcy przeprowadzili badanie wyników wyszukiwania, którego głównym wnioskiem jest to, że… stają się one coraz gorsze.
- Nowe badanie przeprowadzone przez niemieckich naukowców potwierdza, że wyniki wyszukiwania, szczególnie w przypadku recenzji produktów, są coraz bardziej zdominowane przez niskiej jakości, spamerskie treści w głównych wyszukiwarkach, takich jak Google, Bing i DuckDuckGo.
- Badanie wykazało odwrotną zależność między rozpowszechnieniem marketingu afiliacyjnego a złożonością treści, wskazując, że strony z większą liczbą linków afiliacyjnych i tekstem zoptymalizowanym pod kątem SEO dostarczają treści gorszej jakości.
- Popularne wyszukiwarki mają trudności ze zwalczaniem spamu SEO, a oczekuje się, że sytuacja pogorszy się wraz z rozwojem generatywnych algorytmów sztucznej inteligencji, które mogą generować duże ilości treści niskiej jakości w celu manipulacji SEO.
➡️ https://downloads.webis.de/publications/papers/bevendorff_2024a.pdf
96,55% treści online nie generuje ruchu organicznego
Ahrefs przeprowadził badanie, z którego wynika, że 96,55% treści nie generuje ruchu organicznego. Nie powinno być to zaskoczeniem, już w 2015 roku mieliśmy badania pokazujące, że większość contentu nie działa. 3 najważniejsze wnioski?
- Nie każdy content musi być robiony pod SEO, ale jeśli nie jest robiony pod SEO, to jakimi kanałami ma generować ruch? Tworzenie contentu, dla którego nie masz pomysłu na dystrybucję to strata czasu i pieniędzy
- Wszystkie kanały dystrybucji poza SEO wymagają stałej aktywności. Tylko w przypadku ruchu z wyszukiwarek wystarczy zrobić robotę raz i biernie generować ruch. W przypadku newslettera, wpisu na FB, postu na Linkedinie czy innych reelsach jeśli nie wrzucasz regularnie info o danym contencie, po tygodniu nikt już na niego nie trafi. Ale jeśli masz dużo contentu, który wymaga aktywnej dystrybucji, to jego większość będzie się kurzyć na serwerze, bo nie jesteś w stanie wrzucić na raz postów o wszystkich swoich artykułach na blogu. Jakąś opcją są reklamy (o ile opłaca się dany content promować płatnie) – ale to też wymaga stałego angażu, tj. płacenia.
- Nie wystarczy zrobić content pod SEO, opublikować na stronie i cieszyć się że rośnie, bo jak pokazuje Ahrefs – coraz częściej nie rośnie. Tworzony content musi być więc na bieżąco monitorowany, czy spełnia swoją rolę.
➡️https://ahrefs.com/blog/search-traffic-study/
Będziemy na BrightonSEO!
Tego newsa nie mogło zabraknąć, bo to już oficjalne: Wojciech Urban, R&D Specialist, wystąpi na scenie brytyjskiej konferencji BrightonSEO. Opowie o tym, jak stworzyć własne narzędzia bazując na GSC i Looker Studio (i okazjonalnie Google Sheets, bo czemu nie!), i postara się Was przekonać, dlaczego to jedyne narzędzia, jakich potrzebujecie w pracy SEOwca. Choć, znając Wojciecha, pewnie wspomni też o Screaming Frog 🐸.
➡️ https://brightonseo.com/talks/looker-studio-gsc-the-only-seo-tools-you-need
Analiza 239 stron na podstawie ich wydajności UXowej
Instytut Baymard przygotował opracowanie 239 stron na podstawie ponad 700 poddawanych analizie elementów powiązanych z UX. To bardzo ciekawe zestawienie, gdzie znajdziemy przegląd:
- Strony głównej i kategorii/nawigacji
- Listingów/filtrowania
- Karty produktu
- Strony koszyka
Wszystko jest wspaniale opisane wraz ze screenami oraz pokazaniem dobrych/neutralnych/złych rozwiązań na poszczególnych krokach. Mamy np. oceniany wysoko za kartę produktu Louis Vuitton czy koszyk Adidasa – warto zerknąć na raport i inspirować się wartościowymi benchmarkami.
➡️ https://baymard.com/ux-benchmark/case-studies/
To na tyle w pierwszej prasówce SEO 2024! Jak widzisz, to nie tylko onsite i link building, ale też content, UX i analityka. Stay tuned i do następnej prasówki! 👋