.animate-view{opacity: 1 !important;}

Jak rozwiązaliśmy problem z automatyczną duplikacją contentu na Joomli i zwiększyliśmy ruch na stronie o niemal 20%? Poradnik krok po kroku

12min.

Komentarze:0

Jak rozwiązaliśmy problem z automatyczną duplikacją contentu na Joomli i zwiększyliśmy ruch na stronie o niemal 20%? Poradnik krok po kroku
27 lutego 2023
Nie można oczekiwać od najlepiej nawet wyglądającego samochodu, że weźmie Cię w długą trasę, jeśli zawieszenie czy układ kierowniczy są zepsute. Tak samo jest w SEO – nie należy spodziewać się tysięcy organicznych wyświetleń miesięcznie, jeśli podstawy pozycjonowania kuleją.

12min.

Komentarze:0

Spis treści:

W Delante, zanim my, specjaliści SEO, decydujemy się wkroczyć do akcji, zawsze przeprowadzamy rzetelną analizę strony klienta w formie audytu. Tylko w ten sposób jesteśmy w stanie wykryć w porę potencjalne problemy i rozwiązać je, zanim będą siały spustoszenie, wpływając negatywnie na performance strony.

W większości przypadków klienci, którzy do nas przychodzą, nie wiedzą, że z ich stroną internetową jest coś nie tak. Tak właśnie było w przypadku, o którym będę dzisiaj opowiadać.

Kiedy klient poprosił nas o optymalizację SEO strony, nie miał pojęcia, że źródłem większości problemów był CMS. Mówiąc prosto, Joomla udaremniała wszystkie starania klienta, tworząc zduplikowany content za każdym razem, kiedy URL danej podstrony był aktualizowany.

Zupełnie nieświadomy problemu klient jeszcze kładł sobie kłody pod nogi, przeprowadzając optymalizację adresów URL w taki sposób, aby uczynić je SEO friendly. Oczywiście samo działanie jest jak najbardziej godne pochwały, ale w tym kontekście narobiło więcej szkody niż pożytku.

W dalszej części artykułu opowiemy Ci o tym, jak udało nam się zidentyfikować ten problem i położyć kres szalonym pomysłom Joomli. Automatyczne duplikowanie treści po wdrożeniu podstawowych zmian w CMS-ie zniknęło, a ruch wzrósł o 20%!


Czego dowiesz się z tego artykułu?

  • Dlaczego tak ważna jest znajomość specyfiki narzędzi, z których korzystasz?
  • W jaki sposób CMS Joomla duplikuje strony, dla których ustawiasz customowe URL-e?
  • Jakie problemy powoduje duplikacja treści?
  • Co to SEO friendly URL-e?
  • Jak wykryć zduplikowany content i znaleźć źródło problemu?
  • Jak rozwiązać problem z duplikacją treści wynikający ze zduplikowania podstron z różnymi strukturami URL?
  • Jak możesz zabezpieczyć Twoją stronę przed wyzwaniem CMS Joomla – problemem z duplikacją treści?

Narzędzia, z których korzystasz każdego dnia do wykonywania podstawowych działań w pewien sposób zmuszają Cię do robienia rzeczy w konkretny sposób. Co mam przez to na myśli? Przed zdecydowaniem się na konkretne narzędzie, warto wiedzieć, jak dokładnie ono działa i do czego możesz je wykorzystać. W pełni świadomą decyzję jesteś w stanie podjąć tylko po rzetelnym zapoznaniu się ze wszystkimi funkcjonalnościami, jakie narzędzie oferuje.

Warto przy tym mieć na uwadze, że nie istnieje idealne narzędzie do wszystkiego. Niezależnie od tego, do czego będziesz go potrzebować, musisz pamiętać, że każde narzędzie ma swoje ograniczenia. Jeśli nie masz świadomości istnienia pewnych słabych punktów, może się to odbić na efektywności Twoich działań – tak jak miało to miejsce w przypadku jednego z naszych klientów.

Ze względu na specyfikę Joomli, domena klienta była pełna zduplikowanych treści. Mimo że klient działał niemal podręcznikowo i robił wszystko zgodnie z dobrymi zasadami SEO, witryna wciąż zmagała się z niską widocznością, a co za tym idzie – z niskim ruchem.

Choć klient współpracował ze świetnymi zespołami marketerów i deweloperów, którzy w większości przypadków radzili sobie ze wszystkimi wyzwaniami CMS-a, to nie udało im się rozpoznać typowego dla Joomli problemu z duplikacją treści. Nie mieli świadomości, że to właśnie CMS, który wybrali, był odpowiedzialny za niskie pozycje strony w wynikach wyszukiwania.

Chcąc poprawić wyniki strony, klient skontaktował się z nami z prośbą o wsparcie. Na szczęście dość szybko rozgryźliśmy, w czym tkwi problem, i znaleźliśmy winowajcę – Joomlę i automatyczne duplikowanie treści.

Czytaj dalej, aby dowiedzieć się, jak skutecznie poradziliśmy sobie z tym problemem i zwiększyliśmy ruch na stronie klienta o niemal 20%!

Joomla: problem z duplikacją treści

Jak to się dzieje, że Joomla automatycznie generuje duplikaty treści?

Kiedy tylko nasz klient dodawał nową podstronę, ustawiał jej URL na przyjazny SEO (czyli czytelny zarówno dla użytkowników, jak i robotów SEO). Ta strategia zdecydowanie sprzyja pozycjonowaniu, ponieważ opisuje zawartość treści, polepszając tym samym UX i SEO. Jednak klient nie wiedział, że Joomla posiada pewną funkcjonalność, która sprawiła, że takie działania przysporzyły stronie sporo problemu.

Joomla automatycznie przypisuje przypisuje nowej podstronie parametry, dlatego URL-e tworzone automatycznie wyglądają tak:

❌ http://twoja-domena.pl/index.php?Itemid=213

Kiedy administrator zmieniał URL w taki sposób, by stał się bardziej przyjazny klientom, na taki:

✔️ http://twoja-domena.pl/produkt-x

CMS duplikował stronę, tworząc w sieci nowe miejsce z dokładnie taką samą treścią. Dosłownie jedynym, co różniło obie te podstrony, był ich adres URL. W ten sposób na stronie pojawiały się kolejne duplikaty, skutkując niskimi pozycjami witryny w SERPach.

Tak naprawdę automatyczna duplikacja treści, którą stosuje Joomla, nie jest problematyczna, o ile zdajesz sobie sprawę, że ma miejsce. Ponieważ nasz klient nie miał o tym pojęcia, machina sama się nakręcała, i każdy nowy content oznaczał wyższy poziom duplikacji. Innymi słowy, nowe artykuły publikowane na stronie klienta właściwie nie spełniały swojej funkcji.

Odkryliśmy, gdzie leżał problem, wykonując audyt SEO, który jest obligatoryjnym elementem pierwszego etapu naszej współpracy z klientami – przeprowadzamy go przed stworzeniem strategii SEO dla naszych klientów. Dzięki temu możemy wykryć takie problemy jak zduplikowane treści już na początku współpracy i stworzyć solidne podwaliny pod dalsze działania.

Zanim przejdziemy dalej do analizowania tego case study, krótko przypomnijmy dwa kluczowe dla tematu terminy.

SEO-Friendly URL-e

Przyjazny adres URL powinien być:

  • krótki i prosty,
  • czytelny dla użytkownika,
  • adekwatny do treści na stronie,
  • zoptymalizowany pod odpowiednią frazę kluczową.

Proste do zrozumienia URL-e nie tylko mają pozytywny wpływ na SEO, lecz także sprzyjają wyższemu CTR. Innymi słowy, SEO-friendly URL-e wpływają pozytywnie na UX strony i zwiększają szansę na pozyskanie więcej ruchu typu referral.

Oto przykłady dobrych i złych adresów URL:

✔️http://twoja-domena.pl/kategoria/produkt

❌ http://twoja-domena.pl/index.php?Itemid=213

Duplikacja treści

Zduplikowany content to identyczne treści obecne w sieci w więcej niż jednym miejscu. Możemy wyróżnić dwa typy duplikacji:

  • zewnętrzne – ta sama treść opublikowana na różnych stronach internetowych;
  • wewnętrzne – ta sama treść opublikowana w obrębie jednej domeny.

W efekcie, kiedy użytkownik wpisuje w wyszukiwarkę jakąś frazę, Google może wyświetlić w wynikach niekoniecznie tę stronę, którą chcesz.

Co więcej, od wprowadzenia przez Google algorytmu Panda, zduplikowany content na stronie może obniżyć jej pozycję w rankingu. Niestety ma to też wpływ na te podstrony w obrębie domeny, które reprezentują unikalny, wartościowy content.

Nie ma co się oszukiwać – duplikacja treści to wyłącznie szkoda dla Twojej strony. Właśnie dlatego powinno się jej unikać za wszelką cenę, a jeśli masz z nią problem – rozwiąż go jak najszybciej dla dobra swojej witryny!

Chcesz, żebyśmy sprawdzili, czy Twoja strona nie ma żadnych duplikacji? Sprawdź naszą samodzielną usługę audytu SEO i zamów bezpłatną wycenę.

Jak wpadliśmy na problem z duplikacją treści na Joomli?

Niezależnie od tego, w jakiej branży działa nasz klient, zawsze uważnie i dokładnie badamy jego stronę. W ten sposób możemy wyeliminować od razu nawet najdrobniejsze błędy, minimalizując ryzyko przyszłych problemów. W innym wypadku wszystkie nasze próby optymalizacji SEO mogłyby się na nic nie zdać.

Chcesz, żebyśmy sprawdzili Twoją stronę? Sprawdź naszą usługę audyt SEO!

Joomla – problem z duplikacją treści. Skanowanie strony przy pomocy komendy site

Jednym z pierwszych kroków, jakie podejmujemy podczas audytu SEO, jest sprawdzenie, czy wszystkie docelowe frazy kluczowe wywołują stronę klienta w SERPach. Robimy tak, wpisując formułę site: w pasek wyszukiwarki Google.

Ta formuła pozwala nam zawęzić wyniki wyszukiwania wyłącznie do wybranej przez nas domeny (domeny klienta). Głównym celem jest określenie, jakie strony wyświetlają się w SERPie po wpisaniu słów kluczowych, z którymi chce być identyfikowany nasz klient. Czasem zdarza się też, że formuła site: pomaga nam odkryć problem, który w innym wypadku pozostałby nieodkryty – tak było z duplikacją treści, o której tu piszemy.

Chcesz wiedzieć, jak możesz to zrobić sam? Wpisz w pasek URL lub okienko wyszukiwarki następującą formułę:

site:twoja-domena.pl fraza kluczowa

Wciśnij enter, a zobaczysz wyniki wyszukiwania zawierające dokładną listę stron, na których pojawia się dana fraza.

Pokażę Ci to na przykładzie domeny Delante. W pasek wyszukiwarki wpiszę komendę mającą pomóc wyszukać frazę duplikacja.

joompla duplikacja treści w Google

Źródło: wyniki wyszukiwania Google po wpisaniu komendy site:delante.pl duplikacja

Jak widzisz, każda wyświetlona tu strona ma związek z duplikacjami. Do tego warto zauważyć, że Google dość wysoko wyświetla też obrazy dla tej frazy.

Przejdźmy teraz do sprawy klienta.

Kiedy wpisałam formułę w wyszukiwarkę wraz z keywordami klienta, oceniłam, że tytuły stron i nagłówki H1 były w porządku (brak duplikacji), jednak po przejrzeniu samych adresów URL szybko stało się jasne, że coś jest nie tak – żaden z nich nie był SEO-friendly. Wszystkie URL-e wyświetlone w odpowiedzi na moją komendę posiadały zawierały pytajnik, po którym następował ciąg nieczytelnych, przypadkowych znaków.

Po sprawdzeniu reszty fraz brandowych i biznesowych klienta, zauważyłam, że problem był dużo bardziej poważny. Musiałam szukać dalej, dlatego sięgnęłam po nasze sprawdzone narzędzie do zaawansowanych audytów SEO – Screaming Frog. To, co znalazłam, było dość szokujące.

Joomla – automatyczne duplikowanie treści. Analiza w Screaming Frog

Aby potwierdzić moje podejrzenia, otworzyłam Screaming Frog. Właściwie to chciałam zrobić dwie rzeczy:

  • sprawdzić, czy zduplikowane treści rzeczywiście były problemem
  • pozyskać listę wszystkich niezoptymalizowanych URL-i z nieprawidłowymi znakami.

Crawlery Screaming Frog pozyskują w trakcie skanowania bardzo cenne informacje – było to dla mnie istotne w czasie przygotowywania audytu dla klienta.

Jak sprawdziłam, czy na stronie występują zduplikowane treści? To krótki poradnik dla Ciebie, który pozwoli Ci upewnić się – tak jak ja w przypadku strony klienta – czy to właśnie duplikacje szkodzą witrynie.

KROK 1 – Otwórz narzędzie Screaming Frog. Wpisz swój adres URL do strony głównej u góry i kliknij na szary przycisk Start.

joomla automatyczny content screaming frog

KROK 2 – Aby zweryfikować, czy problem zduplikowanych treści dotyczy Twojej strony, przyjrzyj się zakładkom po prawej. Zwróć szczególną uwagę na wartości w kategoriach Page titles i H1, a potem sprawdź jeszcze poziom zduplikowanych treści na panelu po lewej stronie.

joomla automatyczne zarządzanie contentem in screaming frog

KROK 3 – Zakładka Page title pozwoli Ci zweryfikować nie tylko tytuły, lecz także meta opisy na Twojej stronie.

Jak widzisz na screenach, na stronie aktualnie nie ma już problemu z duplikacją treści, ponieważ udało się go nam rozwiązać. Jednak zanim to się stało, wszystkie elementy zaznaczone na grafikach wskazywały na ogromny problem z duplikacjami.

Jeśli zauważysz, że tytuły i nagłówki są zduplikowane, powinna zapalić Ci się w głowie czerwona lampka – to znak, że te same treści są opublikowane na kilku podstronach.

Screaming Frog pozwala Ci pozyskać pełną listę adresów URL strony, którą skanujesz (na drugim screenie widać tę listę po lewej stronie). Z pomocą Screaming Frog możesz określić, które adresy zostały automatycznie wygenerowane przez Joomlę, ponieważ jesteś w stanie odfiltrować z listy URL-e z niepożądanymi znakami (URLs with parameters).

Jak rozwiązać problem z duplikacją treści na Joomli?

W momencie, w którym zauważyłam pierwsze oznaki duplikacji treści (wyniki komendy site:), a potem gdy potwierdziłam je z pomocą Screaming Frog, miałam silne podejrzenia, że przyczyną problemu była Joomla.

Moja teoria była następująca.

Za każdym razem, gdy nowa strona była dodawana do witryny, Joomla automatycznie wykorzystywała parametry do stworzenia URL-u i przypisania go do konkretnej podstrony. Gdy URL był ręcznie edytowany w celu stworzenia przyjaznego adresu, Joomla zamiast nadpisać dane, duplikowała tę stronę, tworząc dwie identyczne strony w obrębie jednej domeny, różniące się wyłącznie URL-em.

Skontaktowałam się z klientem (warto dodać, że klient był osobą, z którą naprawdę dobrze mi się współpracowało – jego pewność siebie sprawiała, że cały proces przebiegał efektywnie i w harmonii), aby dowiedzieć się, czy moja teoria była prawdziwa. Okazało się, że tak, a klient poprzez dodawanie SEO-friendly adresów URL narobił sobie więcej szkody niż pożytku, i to kompletnie nieświadomie!

Wiedząc już wszystko o problemie, mogłam przejść dalej, stawiając czoła wyzwaniu, które postawiła przed nami Joomla.

Joomla – automatyczne duplikowanie treści. Zebranie wszystkich zduplikowanych URL-i

Pierwszym krokiem, jaki musiałam podjąć, było zebranie wszystkich adresów URL z niewłaściwymi znakami w jednym miejscu. Aby tego dokonać, użyłam możliwości Screaming Froga. Pozyskaną listę przeniosłam do arkusza:

joomla automatic content duplication url list

W ten prosty sposób stworzyłam arkusz, który uprościł moją pracę nad automatyczną duplikacją contentu Joomli.

Joomla – automatyczne duplikowanie treści. Usuwanie zduplikowanych treści

Istniało kilka sposobów, aby pozbyć się ze strony klienta zduplikowanego contentu stworzonego przez Joomlę.

Pierwsze rozwiązanie wydawało się najprostsze, polegało bowiem na przekierowaniu wszystkich “złych” adresów URL do strony głównej. Pozwoliłoby to wdrożyć zmianę w formie jednej prostej formuły w kodzie strony, którą deweloper klienta wprowadziłby w mgnieniu oka. Jednak nie byłoby to efektywne rozwiązanie – w końcu wszystkie niepożądane linki wciąż wyświetlałyby się w wynikach wyszukiwania i prowadziły użytkowników oraz boty do strony głównej.

Dlatego wpadłam na drugie rozwiązanie – przekierowanie stron z niewłaściwym URL-em do ich kopii z przyjaznym adresem. Miałoby to najwięcej sensu pod kątem SEO, jednak nie byłoby efektywne czasowo – dopasowywanie odpowiednich treści do ich odpowiedników mogłoby okazać się niekończącą się historią.

Okazuje się, że zaczynanie od tytułu strony niekoniecznie jest dobrym podejściem – czasami znalezienie zduplikowanej treści wymaga analizowania większej grupy stron, co nie byłoby efektywne pod kątem czasu.

baner joomla

Szukając mniej czasochłonnego rozwiązania wpadłam na kolejny pomysł – rozwiązanie numer trzy. Wydawało mi się, że będzie to całkiem prosta opcja – wykorzystanie pliku robots.txt do wykluczenia podstron z niepożądanymi adresami URL ze skanowania przez roboty.

Jednak tym razem to właśnie crawlery musiałyby przejść przez dość długi proces:

  1. Znaleźć zablokowane strony.
  2. Usunąć zablokowane strony z indeksu.
  3. Znaleźć nowe strony z przyjaznymi adresami URL.

Nie mieliśmy tyle czasu – musieliśmy przyspieszyć cały proces, ponieważ niektóre ze zduplikowanych stron były kluczowe dla biznesu klienta. Dlatego musieliśmy wymyślić jeszcze inne rozwiązanie. Czwarty pomysł musiał skrócić czas do uzyskania pożądanych efektów, jednocześnie maksymalizując korzyści z procesu.

  1. Dostarczyliśmy klientowi listę niezoptymalizowanych adresów URL, które kierowały użytkowników i boty na zduplikowane strony (to ta sama lista, którą pokazałam w punkcie Joomla – automatyczne duplikowanie treści. Zebranie wszystkich zduplikowanych URL-i).
  2. Klient wybrał z tej listy najważniejsze podstrony, oddzielając ziarno (ważne strony) od plew (mniej istotne adresy).
  3. W ten sposób mieliśmy dokładną listę priorytetowych podstron, na których należało się w pierwszej kolejności skupić. Ręcznie odnaleźliśmy ich duplikaty i poprosiliśmy nasz zespół deweloperski o wprowadzenie przekierowań między podstronami.
  4. Pozostałe, mniej istotne strony, które nie generowały dużego ruchu ani wyświetleń, zostały poddane metodzie numer trzy, czyli wykluczeniu z indeksu przy wykorzystaniu pliku robots.txt. Udało się nam je zablokować bez negatywnego wpływu na wyniki wyszukiwania.

Oto ostateczna wersja listy adresów URL:

joomla content management

Mimo że lepiej zostawić proces przekierowań deweloperowi, możesz wprowadzić zmiany w pliku robots.txt samodzielnie – w ten sposób nie tylko rozwiążesz istniejący problem, lecz także zapobiegniesz jego odnowieniu się w przyszłości.

Pokażę Ci teraz, jak to zrobić.

Joomla – automatyczne duplikowanie treści. Zmiany w pliku robots.txt jako rozwiązanie aktualnego i przyszłego problemu

Mocno doradzam wykluczenie crawlowania wszystkich stron z niezoptymalizowanymi adresami URL. W ten sposób każdy „zły” URL będzie ignorowany przez boty Google, a do indeksu trafią tylko SEO-friendly adresy. Modyfikując plik robots.txt nie tylko rozwiązujesz problem powodowany przez Joomlę, lecz także zapobiegasz jego nawrotom w przyszłości.

Oczywiście możesz pozostawić to zadanie swojemu deweloperowi, ale jeśli masz pięć minut oraz dostęp do plików na swoim FTP, warto spróbować.

Aby uzyskać dostęp do FTP, użyj  narzędzi takich jak Total Commander czy FileZilla.

KROK 1 – Otwórz Total Commander i zaloguj się do swojego FTP.

KROK 2 – Wybierz folder zawierający pliki Twojej strony.

content management joomla

Musiałam zasłonić nazwy plików, ale jestem pewna, że wiesz, w którym folderze znajdują się te pliki.

KROK 3 – Otwórz katalog public_html.

content management joomla folder

KROK 4 – Znajdź plik robots.txt. Użyj Notepada, aby go otworzyć. Wskazówka: Gdy już zaktualizujesz ten plik tekstowy nie będzie konieczności ponownego przesyłania go do katalogu, automatycznie się zaktualizuje.

joomla content management robots txt

Na screenie poniżej widzisz, jak wygląda bardzo podstawowa wersja pliku robots.txt. Zawiera wyłącznie mapę strony i sekcję disallow: /admin/, która sprawia, że boty nie mogą skanować CMS-a.

joomla content management sitemap

KROK 5 – Aby odebrać cralwerom dostęp do stron z niepożądanymi adresami URL (tych, które są odpowiedzialne za duplikacje), musisz użyć funkcji disallow:.

Aby zrobić to globalnie, znajdź wspólny element, który łączy wszystkie “złe” URL–e, ale jednocześnie nie pojawia się w “dobrych” adresach.

W sytuacji mojego klienta takich elementów było kilka, dlatego musieliśmy umieścić je wszystkie w pliku robots.txt, aby mieć pewność, że każda niepożądana podstrona zostanie wykluczona.

KROK 6 – W otwartym w Notepadzie pliku wpisz disallow: i wklej element URL-a, który wybrałeś w punkcie 5. Jeśli tych elementów jest więcej, powtórz działanie kilkakrotnie.

W naszym przypadku sekcja disallow wyglądała następująco:

joomla content management disallow

I to tyle! Właśnie udało Ci się odebrać robotom dostęp do zduplikowanych stron.

Jak widzisz, w naszym przypadku pojawiły się trzy elementy URL-i, które użyliśmy do wykluczenia niepożądanych podstron z indeksu:

  • index.php?itemid,
  • view,
  • task.

Co dało rozwiązanie problemu z duplikacjami powodowanymi przez Joomlę?

Przekierowania i komenda disallow zostały wprowadzone na stronie mojego klienta w czerwcu 2022 roku. Usunięcie zduplikowanego contentu i użycie przyjaznych adresów URL przyniosło niemal natychmiastowe efekty.

Jak widzisz na zrzucie ekranu poniżej, osiągnęliśmy znaczący wzrost ruchu w ciągu kilku tygodni. Ruch pozostał wysoki nawet w okresie letnim, który normalnie jest dla klienta trudniejszy – w lipcu odnotowaliśmy wzrost 19% rok do roku.

Co więcej, widzimy ciągły wzrost ruchu, który nie byłby możliwy bez rozwiązania problemu zduplikowanego contentu.

automatyczna duplikacja joomla efekty

Zielona linia na screenie oznacza moment, w którym zaczęliśmy pracować ze stroną klienta.

Podsumowanie

Nawet jeśli jesteś doskonały kierowcą, możesz nie zdawać sobie sprawy z wielu funkcji czy pewnych problemów Twojego samochodu, które mogą nagle odezwać się w trasie i uniemożliwić Ci nagle dalszą drogę. Analogicznie – nawet jeśli jesteś świetnym właścicielem biznesu e-commerce, Twój CMS może posiadać właściwości, o których nie masz pojęcia, a które mogą przysporzyć Ci sporo problemów.

Możesz robić wszystko naprawdę podręcznikowo: publikować unikalne i wartościowe treści na swojej stronie, upewniać się, że każdy URL jest SEO-friendly i optymalizować każdy nagłówek, jaki tylko uda Ci się znaleźć na stronie, pod frazę kluczową (no, bez przesady, nie lubimy keyword stuffingu 😉 ). A nawet mimo to możesz trafić na problemy z CMS-em, które przekreślą całą Twoją ciężką pracę.

Dlatego jeśli chcesz upewnić się, że Twoja strategia biznesowa ma przyszłość, musisz pozwolić specjalistom SEO zerknąć na Twoją stronę. Wyobraź sobie, że to jakby zajechać do mechanika przed długą podróżą, upewniając się, że wszystko pod maską gra.

Możesz oczywiście spróbować samodzielnie się tym zająć – po tym poradniku wiesz już, co robić: znasz narzędzia i poszczególne kroki całego procesu.

Autor
Kinga Ochojska Delante
Autor
Kinga Ochojska

SEO Specialist

W Delante od października 2018 roku. Kiedyś zapalona studentka edytorstwa, teraz – szczęśliwa absolwentka. Dobrze wie, gdzie wstawić przecinek i gdzie smacznie zjeść w Krakowie (i w Warszawie!). Frela ze Ślonska na emigracji w stolicy, miłośniczka snu, kotletów z szałotym i Friendsów. Wychodzi na dwór, nie na pole.

Autor
Kinga Ochojska Delante
Autor
Kinga Ochojska

SEO Specialist

W Delante od października 2018 roku. Kiedyś zapalona studentka edytorstwa, teraz – szczęśliwa absolwentka. Dobrze wie, gdzie wstawić przecinek i gdzie smacznie zjeść w Krakowie (i w Warszawie!). Frela ze Ślonska na emigracji w stolicy, miłośniczka snu, kotletów z szałotym i Friendsów. Wychodzi na dwór, nie na pole.

Zostaw komentarz

FAQ

Jak rozwiązać problem z automatyczną duplikacją contentu w Joomli?

  1. Stwórz listę wszystkich niezoptymalizowanych adresów URL zawierających nieprawidłowe znaki. Aby to zrobić, użyj narzędzia Screaming Frog.
  2. Użyj tej listy aby dopasować do siebie niezoptymalizowane URL-e z ich duplikatami mającymi SEO-friendly adresy.
  3. Ustaw przekierowania 301 lub zablokuj crawlerom dostęp do stron z niezoptymalizowanymi URL-ami, wprowadzając komendę disallow: w pliku robots.txt.

Co to SEO-friendly URL?

SEO-friendly URL to taki adres strony, który jest:

  • krótki i prosty,
  • czytelny dla użytkownika,
  • adekwatny do treści na stronie,
  • zoptymalizowany pod odpowiednią frazę kluczową.

Przyjazne adresy URL poprawiają CTR i UX strony, a także zwiększają szansę na pozyskanie ruchu referral.

Przykłady dobrych i złych adresów URL:

✔️http://twoja-domena.pl/kategoria/produkt

❌ http://twoja-domena.pl/index.php?Itemid=213

Uzyskaj bezpłatną wycenę

Nagrody

Nagroda - Deloitte 2021 Nagroda - IPMA Nagroda - US Search Awards 2021 Nagroda - European eCommerce Awards 2022 Nagroda - Global Agency Awards 2022 Nagroda - European Search Awards 2022

Porozmawiajmy o Twoim SEO i SEM