Przewodnik po zarządzaniu budżetem indeksowania przeznaczony dla właścicieli dużych witryn

Omówienie

Z tego przewodnika dowiesz się, jak zoptymalizować indeksowanie przez Google bardzo dużych i często aktualizowanych witryn.

Jeśli w Twojej witrynie nie ma wielu stron, które zmieniają się szybko, albo uważasz, że Twoje strony są indeksowane w dniu publikacji, nie musisz czytać tego przewodnika. Wystarczy, że będziesz aktualizować mapę witrynysprawdzać stan w indeksie.

Jeśli Twoje treści są dostępne od jakiegoś czasu, ale nigdy nie zostały zindeksowane, to zupełnie inny problem. W takim przypadku użyj narzędzia do sprawdzania adresów URL, by dowiedzieć się, dlaczego określona strona nie jest indeksowana.

Komu przyda się ten przewodnik

To jest zaawansowany przewodnik napisany z myślą o:

  • dużych witrynach (ponad milion unikalnych stron) z treścią, która zmienia się z umiarkowaną częstotliwością (raz w tygodniu);
  • średnich lub większych witrynach (ponad 10 tys. unikalnych stron), których treść zmienia się bardzo szybko (codziennie).

Podane tu liczby to wartości szacunkowe, które pomogą Ci sklasyfikować witrynę. Nie są to sztywne progi.

Ogólne informacje o indeksowaniu

Internet to przestrzeń niemal nieograniczona, dlatego zbadanie i zindeksowanie wszystkich dostępnych adresów URL przekracza możliwości Google. W związku z tym Googlebot nie może indeksować pojedynczych witryn zbyt długo. Czas i zasoby, które Google poświęca na indeksowanie określonej witryny, są zwykle nazywane budżetem indeksowania witryny. Pamiętaj, że nie cała indeksowana zawartość Twojej witryny potrzebuje indeksowania. Każda strona wymaga rozpatrzenia, konsolidacji i oceny, czy po skanowaniu zostanie zindeksowana.

Budżet indeksowania zależy od dwóch głównych czynników: limitu wydajności indeksowaniazapotrzebowania na indeksowanie.

Limit wydajności indeksowania

Googlebot stara się indeksować witryny bez obciążania serwerów. W tym celu oblicza limit wydajności indeksowania, czyli maksymalną liczbę jednoczesnych połączeń równoległych, których może użyć do zindeksowania witryny, a także opóźnienie między pobraniami. Dzięki tym obliczeniom indeksowanie obejmie wszystkie ważne treści bez nadmiernego obciążenia serwerów.

Zwiększenie lub zmniejszenie limitu wydajności indeksowania zależy od kilku czynników:

  • Stan indeksowania: jeśli przez jakiś czas witryna reaguje szybko, limit się zwiększa, czyli do indeksowania można wykorzystać więcej połączeń. Jeśli czas reakcji witryny ulegnie wydłużeniu lub wystąpią błędy serwera, limit zostanie zmniejszony, a Googlebot będzie indeksować mniej.
  • Limit ustawiony przez właściciela witryny w Search Console: właściciele witryn mogą opcjonalnie ograniczyć ich indeksowanie przez Googlebota. Pamiętaj, że ustawienie wyższych limitów nie zwiększa automatycznie wydajności indeksowania.
  • Limity indeksowania Google: liczba komputerów, którymi dysponuje Google, jest ogromna, ale nie jest nieskończona. Biorąc pod uwagę dostępne zasoby, nadal musimy podejmować określone decyzje.

Zapotrzebowanie na indeksowanie

Google zazwyczaj poświęca dostateczną ilość czasu na indeksowanie witryny, biorąc pod uwagę jej rozmiar, częstotliwość aktualizacji, jakość stron i trafność w porównaniu z innymi witrynami.

Czynniki, które odgrywają istotną rolę w określaniu zapotrzebowania na indeksowanie, to:

  • Domniemane zasoby reklamowe: bez Twoich wskazówek Googlebot będzie próbował indeksować wszystkie adresy URL, które znajdzie w Twojej witrynie, lub ich większość. Jeśli wiele z tych adresów URL to duplikaty lub adresy, których nie należy indeksować z innego powodu (zostały usunięte, są nieistotne itd.), niepotrzebnie pochłania to czas, jaki Google przeznacza na indeksowanie treści w Twojej witrynie. Jest to czynnik, nad którym masz największą kontrolę.
  • Popularność: adresy URL, które cieszą się większą popularnością w internecie, są indeksowane częściej, by ich stan w naszym indeksie był aktualny.
  • Brak aktualizacji: nasze systemy starają się ponownie indeksować dokumenty wystarczająco często, by wykryć wszelkie zmiany.

Poza tym zdarzenia dotyczące całej witryny (np. jej przeniesienie) mogą spowodować wzrost zapotrzebowania na indeksowanie w celu ponownego zindeksowania treści pod nowymi adresami URL.

Podsumowanie

Biorąc pod uwagę wydajność indeksowania i zapotrzebowanie na indeksowanie, Google określa budżet indeksowania witryny jako zestaw adresów URL, które Googlebot może i zamierza zindeksować. Nawet jeśli limit wydajności indeksowania nie zostanie osiągnięty, Googlebot będzie rzadziej indeksować Twoją witrynę, jeśli zapotrzebowanie na indeksowanie jest niskie.

OK Google – zwiększ mój budżet indeksowania.
Google określa ilość zasobów indeksowania dla każdej witryny na podstawie popularności, wartości użytkowników, niepowtarzalności i możliwości serwera. Jedynym sposobem na zwiększenie budżetu indeksowania jest poprawa możliwości serwera pod kątem indeksowania oraz (co ważniejsze) podniesienie wartości treści witryny w wynikach wyszukiwania.

Sprawdzone metody

Postępuj zgodnie z tymi sprawdzonymi metodami, by zmaksymalizować efektywność indeksowania:

  • Zarządzanie zasobami URL. Użyj odpowiednich narzędzi, by poinformować Google, które strony ma indeksować, a które pominąć. Jeśli Google poświęca zbyt dużo czasu na indeksowanie adresów URL, które nie nadają się do indeksu, Googlebot może uznać, że szkoda czasu na skanowanie reszty witryny (i nie warto w tym celu zwiększać budżetu).
    • Konsolidacja powielonych treści. Usuń powielone treści, by skupić się na indeksowaniu niepowtarzalnych treści, a nie unikalnych adresów URL.
    • Blokuj indeksowanie adresów URL, których indeksować nie należy. Niektóre strony mogą być ważne dla użytkowników, ale nie powinny pojawiać się w wynikach wyszukiwania. Na przykład strony z nieskończonym przewijaniem, które powielają informacje na linkowanych stronach, lub różnie uporządkowane wersje tej samej strony. Jeśli nie możesz skonsolidować tych stron w sposób opisany w pierwszym punkcie, zablokuj te nieistotne (pod względem wyszukiwania) za pomocą pliku robots.txt lub narzędzia Parametry w URL-ach (w przypadku powielonych treści wskazanych w parametrach URL). Nie używaj tagu noindex, bo Google nadal będzie wysyłać żądanie dotyczące strony i, choć ją pominie, gdy zauważy tag noindex, zmarnuje czas przeznaczony na indeksowanie. Nie używaj pliku robots.txt do tymczasowego zwolnienia budżetu indeksowania na potrzeby innych stron. Wykorzystaj ten plik, by zablokować strony lub zasoby, które według Ciebie w ogóle nie powinny być indeksowane. Google nie przeznaczy tego zwolnionego budżetu indeksowania na inne strony, chyba że osiągnie już limit możliwości serwera witryny.
    • Ustaw zwracanie kodu 404/410 w przypadku trwale usuniętych stron. Google nie zapomina poznanego adresu URL, ale błąd 404 to wyraźny sygnał, by nie indeksować tego adresu URL ponownie. Zablokowane adresy URL pozostaną jednak w kolejce indeksowania znacznie dłużej i zostaną zindeksowane ponownie po usunięciu blokady.
    • Usuń pozorne błędy 404. Strony zwracające pozorne błędy 404 są nadal indeksowane, co niepotrzebnie zużywa budżet. Sprawdź raport Stan w indeksie pod kątem pozornych błędów 404.
    • Aktualizuj mapy witryn. Google regularnie odczytuje mapę witryny, więc pamiętaj, by uwzględnić w niej wszystkie treści, które Google ma indeksować. Jeśli Twoja witryna zawiera zaktualizowane treści, zalecamy dodanie tagu <lastmod>.
    • Unikaj długich łańcuchów przekierowań, które mają negatywny wpływ na indeksowanie.
  • Zadbaj o sprawne wczytywanie stron. Jeśli wczytywanie i renderowanie stron odbywa się szybciej, Google może odczytać z witryny więcej treści.
  • Monitoruj indeksowanie witryny. Monitoruj, czy podczas indeksowania nie występują problemy z dostępnością witryny, i poszukaj sposobów na zwiększenie skuteczności indeksowania.

Monitorowanie skanowania i indeksowania witryny

Oto najważniejsze etapy monitorowania profilu indeksowania witryny:

  1. Sprawdź, czy Googlebot nie ma problemów z dostępnością Twojej witryny.
  2. Poszukaj stron, które nie są indeksowane, choć powinny.
  3. Sprawdź, czy niektóre elementy Twojej witryny wymagają szybszego indeksowania niż obecnie.
  4. Zwiększ efektywność indeksowania witryny.
  5. Przeciwdziałaj zbyt częstemu indeksowaniu witryny.

1. Sprawdź, czy Googlebot nie ma problemów z dostępnością Twojej witryny.

Poprawa dostępności witryny nie musi oznaczać zwiększenia budżetu indeksowania. Google określa najlepszą szybkość indeksowania na podstawie zapotrzebowania, zgodnie z wcześniejszym opisem. Jednak problemy z dostępnością uniemożliwiają Google indeksowanie witryny z potrzebną częstością.

Diagnoza:

Przejrzyj historię indeksowania witryny przez Googlebota w raporcie Statystyki indeksowania. Dowiesz się z niego, kiedy wykryliśmy problemy z dostępnością Twojej witryny. Jeśli widzisz błędy lub ostrzeżenia dotyczące dostępności witryny, na wykresach Dostępność hosta poszukaj przypadków, w których żądania Googlebota przekroczyły czerwoną linię limitu. Kliknij wykres, by sprawdzić adresy URL, których dotyczą błędy, i spróbuj je dopasować do problemów w witrynie.

Postępowanie:

  • Zapoznaj się z dokumentacją raportu Statystyki indeksowania, by dowiedzieć się, jak znaleźć i rozwiązać niektóre problemy z dostępnością.
  • Zablokuj indeksowanie stron, które nie powinny być indeksowane. (Zobacz Zarządzanie zasobami reklamowymi).
  • Zwiększ szybkość wczytywania i renderowania stron. (Zobacz Zwiększanie efektywności indeksowania witryny).
  • Zwiększ możliwości serwera. Jeśli uważasz, że Google stale indeksuje witrynę na granicy możliwości serwera, ale nadal niektóre ważne adresy URL nie są indeksowane ani aktualizowane stosownie do potrzeb, możesz zwiększyć możliwości serwera, by pomóc Google w obsłużeniu większej liczby stron w Twojej witrynie. Przejrzyj historię dostępności hosta w raporcie Statystyki indeksowania, żeby sprawdzić, czy szybkość indeksowania Google często przekracza limit. Jeśli tak jest, zwiększ zasoby serwera na miesiąc i sprawdź, czy w tym samym okresie liczba żądań indeksowania wzrosła.

2. Sprawdź, czy jakieś części Twojej witryny nie są indeksowane, choć powinny być.

Google poświęca Twojej witrynie niezbędną ilość czasu, by zindeksować wszystkie możliwe do znalezienia treści wysokiej jakości, które są wartościowe z punktu widzenia użytkowników. Jeśli uważasz, że Googlebot pomija ważne treści, to być może o nich nie wie, są one ukryte przed Google lub mamy do nich ograniczony dostęp (albo Google stara się nie przeciążać witryny).

Pamiętaj o różnicy między skanowaniemindeksowaniem. Ta strona zawiera informacje o tym, jak ułatwić Google efektywne indeksowanie witryny, a nie o tym, czy znalezione strony trafią do indeksu.

Diagnoza:

Search Console nie udostępnia historii indeksowania witryny, którą można filtrować według adresu URL lub ścieżki, ale możesz przejrzeć dzienniki witryny, by sprawdzić, czy Googlebot zeskanował konkretne adresy URL. To, czy te zeskanowane adresy URL zostały zindeksowane, to zupełnie inna sprawa.

Pamiętaj, że rozpoznanie nowych stron w większości witryn trwa co najmniej kilka dni. Dlatego nie należy oczekiwać, że adresy URL zostaną w nich zindeksowane tego samego dnia. Wyjątkiem są witryny, których treści szybko tracą aktualność, np. witryny z wiadomościami.

Postępowanie:

Jeśli strony, które dodajesz do swojej witryny, nie są indeksowane w rozsądnym czasie, oznacza to, że Google o nich nie wie, treści są blokowane, osiągnięty został limit możliwości serwera albo Twój budżet indeksowania został wyczerpany.

  1. Poinformuj Google o nowych stronach: zaktualizuj mapy witryn, by odzwierciedlały nowe adresy URL.
  2. Sprawdź reguły w pliku robots.txt, by upewnić się, że nie blokujesz stron przypadkowo.
  3. Jeśli wszystkie Twoje niezindeksowane strony mają parametry URL, możliwe, że zostały wykluczone z powodu ustawień w narzędziu Parametry w URL-ach. Niestety nie można tego sprawdzić, dlatego zwykle odradzamy używania tego narzędzia.
  4. Sprawdź priorytety indeksowania (czyli rozsądnie wykorzystaj budżet indeksowania). Zarządzaj zasobami reklamowymipopraw efektywność indeksowania witryny.
  5. Sprawdź, czy nie kończą się możliwości serwera. Googlebot ograniczy indeksowanie, jeśli wykryje, że Twoje serwery mają problem z obsługą żądań indeksowania.

Pamiętaj, że strony, których treści nie są dostatecznie wartościowe lub nie odpowiadają potrzebom użytkowników, mogą nie pojawiać się w wynikach wyszukiwania, nawet jeśli zostały zindeksowane.

3. Sprawdź, czy aktualizacje są indeksowane dostatecznie szybko.

Jeśli pomijamy nowe lub zaktualizowane strony w Twojej witrynie, być może ich nie widzimy lub nie zauważyliśmy, że zostały zaktualizowane. Oto jak możesz nas poinformować o aktualizacjach stron.

Pamiętaj, że Google stara się sprawdzać i indeksować strony w miarę szybko. W przypadku większości witryn ten czas wynosi co najmniej 3 dni. Trudno oczekiwać, że Google zindeksuje strony tego samego dnia, w którym je opublikujesz, chyba że prowadzisz witrynę z wiadomościami lub publikujesz inne wartościowe treści, które szybko tracą aktualność.

Diagnoza:

Przejrzyj dzienniki witryny, by sprawdzić, kiedy Googlebot zindeksował konkretne adresy URL.

Aby poznać datę indeksowania, użyj narzędzia do sprawdzania adresów URL lub wyszukaj zaktualizowane adresy URL w Google.

Postępowanie:

Zalecane czynności:

Czego unikać:

  • Nie przesyłaj tej samej niezmienionej mapy witryny wielokrotnie w ciągu jednego dnia.
  • Nie oczekuj, że Googlebot zindeksuje całą zawartość mapy witryny lub zrobi to od razu. Mapy witryn stanowią przydatne sugestie dla Googlebota, ale nie są bezwzględnie konieczne.
  • Nie umieszczaj w mapach witryn adresów URL, które nie powinny pojawiać się w wynikach wyszukiwania. Może to spowodować niepotrzebne zużycie budżetu indeksowania na strony, które nie wymagają indeksowania.

4. Zwiększ efektywność indeksowania witryny.

Zwiększanie szybkości wczytywania strony

Indeksowanie przez Google podlega ograniczeniom związanym z przepustowością, czasem i dostępnością wystąpień Googlebota. Jeśli Twój serwer szybciej odpowiada na żądania, być może uda nam się zindeksować więcej stron w Twojej witrynie. Google woli indeksować tylko treści wysokiej jakości, więc przyspieszenie działania stron o niskiej jakości nie zachęci Googlebota do indeksowania większej części Twojej witryny. Jeśli uznamy, że pomijamy w niej treści wysokiej jakości, prawdopodobnie zwiększymy Twój budżet, by zindeksować te treści.

Aby zoptymalizować strony i zasoby pod kątem indeksowania:

  • Za pomocą pliku robots.txt zablokuj wczytywanie przez Googlebota dużych zasobów, które nie są ważne. Pamiętaj, by blokować tylko mniej istotne zasoby, czyli takie, które nie mają wpływu na zrozumienie treści strony (np. obrazy, które pełnią funkcje dekoracyjne).
  • Upewnij się, że strony wczytują się szybko.
  • Uważaj na długie łańcuchy przekierowań, które mają negatywny wpływ na indeksowanie.
  • Znaczenie ma zarówno czas odpowiedzi na żądania przesyłane do serwera, jak i czas potrzebny do wyrenderowania stron, m.in. czas wczytywania i uruchomienia umieszczonych zasobów, takich jak obrazy i skrypty. Pamiętaj o dużych lub wczytujących się powoli zasobach, które wymagają indeksowania.

Ukrywanie adresów URL, które nie powinny pojawiać się w wynikach wyszukiwania

Marnowanie zasobów serwera na niepotrzebne strony może ograniczyć indeksowanie stron, które są dla Ciebie ważne. Może to spowodować znaczne opóźnienie w odkrywaniu atrakcyjnych nowych lub zaktualizowanych treści w witrynie.

Blokowanie lub ukrywanie wcześniej zindeksowanych stron przed ponownym zindeksowaniem nie spowoduje przeznaczenia budżetu indeksowania na inne części witryny, chyba że Google osiągnie już limit możliwości serwera witryny.

Udostępnianie w witrynie wielu adresów URL, które nie powinny być indeksowane przez wyszukiwarki, może negatywnie wpłynąć na skanowanie i indeksowanie witryny. Zazwyczaj są to adresy URL z tych kategorii:

Zalecane czynności:

  • Użyj pliku robots.txt, jeśli uważasz, że w ogóle nie powinniśmy indeksować określonego zasobu lub danej strony.
  • Jeśli jeden zasób jest wielokrotnie używany na wielu stronach (na przykład udostępniany obraz lub plik JavaScript), odwołuj się do niego za pomocą tego samego adresu URL na każdej stronie. Umożliwi to Google buforowanie i ponownie wykorzystywanie tego samego zasobu bez konieczności wielokrotnego wysyłania żądań.

Czego unikać:

  • Nie dodawaj regularnie stron ani katalogów do pliku robots.txt ani ich z niego nie usuwaj w celu „zwolnienia” dodatkowego budżetu na indeksowanie witryny. Korzystaj z pliku robots.txt tylko w przypadku stron lub zasobów, które nie powinny pojawiać się w Google przez dłuższy czas.
  • Nie stosuj rotacji map witryn i nie używaj innych mechanizmów tymczasowego ukrywania treści w celu „zwolnienia budżetu”.

Awaryjne ograniczenie indeksowania

Googlebot korzysta z algorytmów, które zapobiegają przeciążaniu witryny żądaniami indeksowania. Jeśli jednak okaże się, że Googlebot powoduje przeciążenie Twojej witryny, możesz wykonać kilka czynności.

Diagnoza:

Monitoruj serwer pod kątem nadmiernej liczby żądań Googlebota wysyłanych to Twojej witryny.

Postępowanie:

W sytuacji awaryjnej zalecamy wykonanie tych czynności, by ograniczyć obciążanie serwera przez Googlebota:

  1. Gdy serwer jest przeciążony, ustaw tymczasowo zwracanie kodów wyniku HTTP 503/429 w odpowiedzi na żądania Googlebota. Googlebot spróbuje ponownie zindeksować te adresy URL za około 2 dni. Pamiętaj, że zwracanie kodów „brak dostępności” dłużej niż przez kilka dni spowoduje trwałe spowolnienie lub zatrzymanie indeksowania adresów URL w Twojej witrynie. Dlatego musisz wykonać te czynności dodatkowe.
  2. Zmniejsz szybkość indeksowania witryny przez Googlebota. Zastosowanie zmian może potrwać do 2 dni i wymaga uprawnień właściciela usługi w Search Console. Zrób to tylko wtedy, gdy z raportu Statystyki indeksowania wynika, że Google zbyt często indeksuje Twoją witrynę i powtarza się to przez dłuższy czas (dane na wykresie Dostępność hosta > Wykorzystanie hosta).
  3. Gdy szybkość indeksowania spadnie, zatrzymaj zwracanie kodu 503/429 w odpowiedzi na żądania indeksowania. Wysyłanie kodu 503 przez ponad 2 dni spowoduje, że Google usunie z indeksu adresy URL zwracające błąd 503.
  4. Monitoruj indeksowanie i wydajność hosta przez jakiś czas i w razie potrzeby ponownie zwiększ szybkość indeksowania lub zezwól na szybkość domyślną.
  5. Jeśli robot, który stwarza problem, jest jednym z robotów AdsBot, przyczyną problemu jest prawdopodobnie utworzenie przez Ciebie dla witryny celów dynamicznych reklam w wyszukiwarce, które Google próbuje zindeksować. Indeksowanie będzie powtarzane co 2 tygodnie. Jeśli Twój serwer nie poradzi sobie z obsługą tych indeksowań, ogranicz cele reklam lub znajdź serwer o większych możliwościach.

Fakty i mity dotyczące indeksowania

Kompresja moich map witryn może zwiększyć budżet indeksowania.

  • Nie. Spakowane mapy witryn nadal wymagają pobrania z serwera. Dlatego wysyłanie skompresowanych map witryn nie wpływa znacząco na czas i wysiłek, jaki Google poświęca na indeksowanie.

Google woli bardziej aktualne treści, więc lepiej będzie stale modyfikować stronę.

  • Treści są oceniane na podstawie jakości, niezależnie od daty ich utworzenia. Twórz i aktualizuj treści stosownie do potrzeb. Jednak wprowadzanie drobnych zmian i aktualizowanie daty strony, by stworzyć pozory, że treści są nowsze, nie ma sensu.

Google woli stare treści (są bardziej wartościowe) niż nowe materiały.

  • Nieprawda: jeśli strona jest przydatna, dzieje się tak niezależnie od tego, czy zawiera treści nowe czy stare.

Google woli czytelne adresy URL i nie lubi parametrów zapytania

Małe witryny nie są indeksowane tak często jak duże.

  • Nieprawda: jeśli witryna zawiera ważne treści, które często się zmieniają, będziemy ją często indeksować, niezależnie od jej rozmiaru.

Treści znajdujące się bliżej strony głównej są ważniejsze dla Google.

  • Częściowo prawda: strona główna jest często najważniejszą stroną w witrynie, więc strony bezpośrednio z nią powiązane mogą być traktowane jako ważniejsze i dlatego są częściej indeksowane. Nie oznacza to jednak, że te strony będą zajmować wyższą pozycję w rankingu niż inne strony w witrynie.

Im szybsze wczytywanie i renderowanie, tym więcej Google może zindeksować.

  • Prawda…, ponieważ nasze zasoby są ograniczone przez czas i liczbę robotów indeksujących. Jeśli możesz nam udostępnić więcej stron w krótszym czasie, będziemy mogli zindeksować ich więcej. Możemy jednak poświęcić więcej czasu na indeksowanie witryny, która zawiera ważniejsze informacje, nawet jeśli działa ona wolniej. Czasem ważniejsze może się okazać przyspieszenie działania witryny z myślą o użytkownikach niż zwiększenie skuteczności indeksowania. Dużo prościej jest wskazać Google właściwe treści do indeksowania, niż oczekiwać, że za każdym razem będziemy indeksować całą zawartość witryny.
  • Pamiętaj, że indeksowanie witryny obejmuje zarówno pobieranie, jak i renderowanie treści. Renderowanie strony zabiera tyle samo czasu, co jej pobieranie. Dlatego szybsze renderowanie stron przyspieszy też indeksowanie.

Obsługa wersji adresów URL to dobry sposób na zachęcenie Google do ponownego zindeksowania moich stron.

  • Częściowo prawda: użycie wersji adresu URL strony, by zachęcić Google do jej ponownego zindeksowania, prawdopodobnie odniesie skutek, ale często nie jest to konieczne. Niepotrzebnie też zostaną zużyte zasoby indeksowania, jeśli w rzeczywistości na stronie nic się nie zmieniło. Ogólnie najlepszym sposobem na wskazanie Google zaktualizowanej treści jest mapa witryny z wartością <lastmod>. Jeśli do wskazywania nowych treści używasz wersji adresów URL, zmień określony adres tylko wtedy, gdy treść strony uległa znaczącym modyfikacjom.

Szybkość witryny i błędy wpływają na mój budżet indeksowania.

  • Prawda: przyspieszenie działania witryny poprawia wygodę użytkowników i jednocześnie zwiększa szybkość indeksowania. Szybka witryna oznacza stabilne serwery, dzięki czemu Googlebot może pobrać więcej treści w ramach tej samej liczby połączeń. Z drugiej strony znaczna liczba kodów wyniku HTTP 5xx (błędy serwera) lub przypadków przekroczenia limitu czasu połączenia sygnalizuje odwrotną sytuację, więc szybkość indeksowania spada.
  • Zalecamy uważne przeglądanie raportu Statystyki indeksowania w Search Console i dopilnowanie, by liczba błędów serwera była niska.

Indeksowanie to czynnik rankingowy.

  • Nieprawda: zwiększenie szybkości indeksowania nie musi prowadzić do poprawy pozycji witryny w wynikach wyszukiwania. Google porządkuje wyniki na podstawie wielu sygnałów. Indeksowanie jest konieczne, by strona pojawiła się w wynikach wyszukiwania, ale nie jest to sygnał rankingowy.

Budżet indeksowania uwzględnia alternatywne adresy URL i treści umieszczone.

  • Prawda: ogólnie każdy URL indeksowany przez Googlebota jest wliczany do budżetu indeksowania witryny. Alternatywne adresy URL (np. strony AMP lub strony z parametrem hreflang), a także umieszczone treści (takie jak pliki CSS i JavaScript, m.in. pobrania XHR) mogą wymagać indeksowania, które jest uwzględniane w budżecie indeksowania witryny.

Mogę kontrolować Googlebota za pomocą dyrektywy „crawl-delay” (opóźnienia indeksowania).

  • Nieprawda: Googlebot nie przetwarza niestandardowej dyrektywy „crawl-delay” z pliku robots.txt.

Dyrektywa nofollow ma wpływ na budżet indeksowania.

  • Częściowo prawda: każdy zindeksowany URL wpływa na budżet indeksowania, więc nawet jeśli adres URL jest na stronie objęty parametrem nofollow, strona ta może zostać zindeksowana, jeśli inna strona w Twojej witrynie lub dowolna inna strona w sieci nie oznaczy linku dyrektywą nofollow.