Kiedy i w jaki sposób zaleca się stosowanie wtyczki "SEO Meta Robots"?
Jeśli rozpoczynasz nowy projekt:
Kup wtyczkę i skonfiguruj metatagi "robots", postępując zgodnie ze standardowymi instrukcjami
JW tym samym czasie skonfiguruj plik " robots.txt", stosując się do standardowych zaleceń
Jeśli masz już dużą liczbę zaindeksowanych stron produktów i/lub stron paginacji i/lub stron-śmieci (stron GET) i musisz się ich pozbyć, przypisując wagę odpowiednim stronam witryny:
Kup wtyczkę i ustaw metatagi "robots" na odpowiednich stronach witryny.
Skonfiguruj tag "Link Canonical" za pomocą wtyczki "SEO Link Canonical".
Poczekaj, aż wyszukiwarki przeindeksują wcześniej zaindeksowane strony, i dopiero wtedy zablokuj indeksowanie stron-śmieci i strony artykulacyjne za pomocą pliku "robots.txt", aby nie marnować budżetu przeznaczonego na indeksowanie witryny w przyszłości. Ale uważaj! Nie należy zamykać stron z paginacją za pomocą pliku "robots.txt"!
Jeśli masz już sklep internetowy z ukrytymi kategoriami i/lub ukrytymi produktami, które chcesz, aby nie były indeksowane, które trzeba zamknąć z indeksowania:
Kup wtyczkę i skonfiguruj metatagi "robots" na odpowiednich stronach swojej witryny.
Gotowe! Nie jest konieczne zamykanie stron z ukrytymi produktami w pliku "robots.txt". Jeśli to możliwe, zaleca się, aby po ponownym indeksowaniu ukryte strony kategorii nie były indeksowane w pliku robots.txt, ale nie jest to obowiązkowe.
Jeśli masz już sklep internetowy, ale w katalogu znajduje się duża liczba "uszkodzonych" artykułów o statusie "Opublikowane na stronie", które mają negatywny wpływ na zachowanie i/lub czynniki komercyjne przy zmianie strony (np. produkty bez cen, bez zdjęć, bez opisów itp.):
Ustaw produkty "uszkodzone" w statusie "ukryte w witrynie".
Kup wtyczkę i ustaw metatagi "robots" dla ukrytych produktów
Skonfiguruj tag "Link Canonical" za pomocą wtyczki "SEO Link Canonical".
Gotowe! Nie trzeba zamykać ukrytych stron produktów w pliku "robots.txt".