Blokowanie indeksowania przez wyszukiwarki za pomocą tagu „noindex”

Aby zapobiec wyświetlaniu strony w wyszukiwarce Google, umieść w jej kodzie HTML metatag noindex lub skonfiguruj zwracanie nagłówka noindex w odpowiedzi HTTP. Kiedy podczas następnego indeksowania Googlebot znajdzie ten tag lub nagłówek, całkowicie wyeliminuje stronę z wyników wyszukiwania Google niezależnie od tego, czy w innych witrynach znajdują się prowadzące do niej linki.

Dyrektywa noindex pozwala kontrolować dostęp do poszczególnych stron witryny i przydaje się, gdy nie masz dostępu do katalogu głównego serwera.

Stosowanie dyrektywy noindex

Są 2 sposoby stosowania dyrektywy noindex: w postaci metatagu oraz jako nagłówka odpowiedzi HTTP. Dają one taki sam efekt, więc wybierz metodę, którą łatwiej zastosować w Twojej witrynie.

Tag <meta>

Jeśli chcesz zapobiec indeksowaniu strony w witrynie przez większość robotów, umieść w sekcji <head> strony ten metatag:

<meta name="robots" content="noindex">

Aby zapobiec indeksowaniu strony tylko przez roboty Google:

<meta name="googlebot" content="noindex">

Pamiętaj, że niektóre roboty mogą inaczej interpretować dyrektywę noindex. W efekcie w innych wyszukiwarkach strona może wciąż pojawiać się w wynikach wyszukiwania.

Więcej informacji o metatagu noindex

Nagłówek odpowiedzi HTTP

Zamiast stosowania metatagu możesz też w odpowiedzi zwrócić nagłówek X-Robots-Tag z wartością noindex lub none. Przykładowa odpowiedź HTTP z elementem X-Robots-Tag informującym roboty, że mają nie indeksować strony, wygląda tak:

HTTP/1.1 200 OK
(…)
X-Robots-Tag: noindex
(…)

Więcej informacji o nagłówku odpowiedzi z dyrektywą noindex

Pomóż nam rozpoznać Twoje metatagi

Aby zobaczyć metatagi i nagłówki HTTP, musimy najpierw zindeksować Twoją stronę. Jeśli strona nadal pojawia się w wynikach wyszukiwania, dzieje się tak, ponieważ nie zindeksowaliśmy jej od czasu dodania tagu. Możesz poprosić Google o ponowne zindeksowanie strony za pomocą narzędzia do sprawdzania adresów URL. Powodem może też być to, że plik robots.txt blokuje robotom indeksującym Google dostęp do danego adresu URL, co uniemożliwia im znalezienie tagu. Aby odblokować Google dostęp do strony, musisz wprowadzić zmiany w pliku robots.txt. Plik robots.txt możesz edytować i testować w Testerze pliku robots.txt.