robots.txt ファイルを更新する

既存の robots.txt ファイル内のルールを更新するには、サイトから robots.txt ファイルをダウンロードして、必要な編集を行います。

robots.txt ファイルをダウンロードする

robots.txt ファイルはさまざまな方法でダウンロードできます。以下に例を示します。

  • robots.txt ファイル(例: https://example.com/robots.txt)に移動し、その内容をパソコン上の新しいテキスト ファイルにコピーします。新しいローカル ファイルを作成する際には、ファイル形式関連のガイドラインを遵守してください。
  • cURL などのツールを使用して、robots.txt ファイルの実際のコピーをダウンロードします。次に例を示します。
    curl https://example.com/robots.txt -o robots.txt
  • Search Console の robots.txt レポートを使用して robots.txt ファイルの内容をコピーし、パソコン上のファイルに貼り付けることができます。

robots.txt ファイルを編集する

サイトからダウンロードした robots.txt ファイルをテキスト エディタで開き、ルールに必要な変更を加えます。必ず正しい構文を使用し、UTF-8 エンコードでファイルを保存してください。

robots.txt ファイルをアップロードする

保存した新しい robots.txt ファイルを、robots.txt という名前のテキスト ファイルとして、サイトのルート ディレクトリにアップロードします。サイトへのファイルのアップロード方法は、プラットフォームやサーバーに大きく依存します。サイトに robots.txt ファイルをアップロードするためのヒントをご確認ください。

Google の robots.txt キャッシュを更新する

自動クロールの過程で、Google のクローラーは robots.txt ファイルに加えられた変更を検知し、キャッシュに保存されたバージョンを 24 時間おきに更新します。キャッシュをより迅速に更新する必要がある場合は、robots.txt レポートの [再クロールをリクエスト] 機能を使用してください。