2023 年 6 月 Google SEO オフィスアワー

これは 2023 年 6 月の Google SEO オフィスアワーの文字起こしです。サイト固有のヘルプを得るには、Google 検索セントラルのヘルプ コミュニティに質問を投稿することをおすすめします。

正規リンクを使用しているにもかかわらず、Google Discover にシンジケートされたバージョンが表示されます。なぜでしょうか?

John: Beth さんからの質問です。「私達はコンテンツがシンジケートされることを認めています。ただ、正規リンクを使用しているにもかかわらず、Google Discover にシンジケートされたバージョンが何度も表示されます。どうすればこれを回避できるでしょうか?」

これはタイムリーな話題です。最近 Google は、シンジケーション コンテンツに関するガイダンスを拡張して、この問題に対応できるようにしました。link rel=canonical は、Google が正規化を行う際にヒントとして活用できるシグナルです。コンテンツがシンジケートされている場合に、そのシンジケートされたバージョンを検索結果に一切表示させたくない場合は、シンジケートされたバージョンにも noindex robots meta タグを含めることをおすすめします。それで、そのコンテンツは検索結果に表示されなくなりますが、ユーザーは引き続き通常どおりアクセスできます。

異なる TLD を持つ 2 つのドメインで、同じキーワードについて同じ国をターゲットにすることはできますか?

Gary: Sagar さんからの質問です。「異なる TLD を持つ 2 つのドメインで、同じキーワードについて同じ国をターゲットにすることはできますか?」

まず思ったのは、ユーザーにとって紛らわしいことになるのではないかということです。同じようなコンテンツを持つ 2 つのドメインがあるのは混乱するでしょう。ポリシーの観点で言えば、検索結果の操作ととらえられる可能性がありますので、Google のスパムポリシーを確認してみます。

Lighthouse JavaScript の警告は、ページの評価やランキングに影響しますか?

Martin: Arnd さんからの質問です。「既知のセキュリティ脆弱性を持つライブラリに対する Lighthouse JavaScript の警告は、ページの評価やランキングに影響しますか?」

こんにちは Arnd さん、質問ありがとうございます。いいえ。一般的にはランキングにはまったく影響しません。ただ、セキュリティの警告や問題を無視することは、非常によくないことです。その問題をできるだけ早く修正することを強くおすすめします。

ウェブページの特定のセクションを Googlebot にクロールさせないようにするにはどうすればよいでしょうか?

John: Sean さんからの質問です。「ウェブページの特定のセクションを Googlebot にクロールさせないようにするにはどうすればよいでしょうか?私たちの商品ページには購入済みセクションも含まれています。このセクションには多くの場合小さなアドオンが含まれていますが、ウェブサイトの中ではあまり重要ではない部分です。」

一言で言えば、HTML ページ内の特定のセクションに対するクロールをブロックすることはできません。ただ、2 つの方法で同じようなことが可能です。1 つは、data-nosnippet HTML 属性を使用してテキストが検索スニペットに表示されないようにすることです。もう 1 つは、ソースが robots.txt でブロックされている iframe または JavaScript を使用することです。クローラーをブロックしている iframe または JavaScript ファイルを使用することは、一般的にあまり良い方法ではありません。というのも、診断や解決が難しいクロールやインデックス登録の問題を引き起こす可能性があるからです。ページ間で再利用されているコンテンツのためだけにこれを行いたいと考えているのであれば、その心配は不要です。Googlebot がそのような重複コンテンツをクロールしないようにする必要はありません。

サイトマップを送信したのですが、検索結果に表示されません。なぜでしょうか?

Gary: 匿名の方からの質問です。「サイトマップを送信したのですが、検索結果に表示されません。」

これは URL に関する話だと思います。この場合に重要なこととして、サイトマップとは、検索エンジンにコンテンツの場所を伝える手段であり、それ以上のものではないということです。そのため、送信した URL が必ずクロールされるとは限りません。また、必ずインデックス登録されるわけでもありません。どちらも、コンテンツの質とインターネット上における相対的な人気度に依存します。

構造化データのエラーが Google で示されているが、schema.org で確認できないのはなぜですか?

Martin: Corey さんからの質問です。「構造化データのエラーが Google で示されているが、schema.org で確認できないのはなぜですか?フィールド「returnFees」の無効な列挙値のエラーが Google Search Console に表示されていますが、schema.org のテストではエラーは確認できません。アドバイスをお願いします。」

Corey さん、質問ありがとうございます。schema.org は、ベンダーから独立したオープンな組織で、構造化データのデータ型と属性を定義しています。一方ベンダーである Google は、Google 検索のリッチリザルトなどのサービス機能で構造化データを使用できるようにするため、一部の属性や型に関して詳細な要件を設定している場合があります。そのため、なんらかの属性が含まれていないことや、属性になにかしらの型の値を使用することが、schema.org では問題にならないとしても、Google などのベンダーが、提供される構造化データを使用して機能やサービスを実際に強化する目的で、より詳細な要件を設定している場合にはエラーになることがあります。

HSTS などのセキュリティ ヘッダーの統合はランキングに影響しますか?

John: Arnd さんからの質問です。「HSTS などのセキュリティ ヘッダーの統合はランキングに影響しますか?」

いいえ。HSTS ヘッダーは検索結果には影響しません。このヘッダーは、HTTPS バージョンに直接アクセスするようにユーザーに伝えるもので、通常はその HTTPS バージョンへのリダイレクトと一緒に使用されます。Google は正規化というプロセスを使用して、ページの最も適切なバージョンを選択してクロールし、インデックスに登録します。このプロセスは、HSTS に使用されるようなヘッダーは利用していません。ただもちろん、このようなヘッダーを使用することはユーザーのためになります。

Google は、XML サイトマップの現在のバージョンと以前のバージョンをなんらかの形で比較していますか?

Gary: Bill さんからの質問です。「Google は、XML サイトマップの現在のバージョンと以前のバージョンをなんらかの形で比較し、サイトに追加された内容や、サイトから削除された内容を確認していますか?」

はい、間違いなく行っています。Google は、最後にクロールされた時点から変更されていないサイトマップの再処理は行っていませんが、リソースを浪費しないためのソフトウェアの最適化として確認しています。URL 要素や lastmod など、サイトマップに何か変更が加えられた場合は、そのサイトマップが再度解析され、通常であれば再処理されます。ただし、その URL が必ずクロールされるというわけではありません。他の URL と同様に品質評価のプロセスを経ることになります。また、たとえば存在しなくなった URL をサイトマップから削除しても、その URL のインデックス登録が自動的に解除されるわけではありません。優先的にクロールされインデックス登録の解除が早まるわけでもありません。

XML サイトマップと HTML サイトマップの違いは何ですか?Search Console でエラー メッセージが表示されています。

John: Maro Samy さんからの質問です。「XML サイトマップと HTML サイトマップの違いは何ですか?Search Console に「サイトマップが HTML ページだと思われます。サポートされている形式を使用してください」と表示されている場合に、どのように対応すればよいですか?」

これは残念な結果です。XML ファイルと HTML ページの多くで同じ名前が使用されていることが原因です。HTML サイトマップはユーザーにとって役立つものであり、これは全体を示すマップのようなものです。一方、XML サイトマップはクローラーのためだけのもので、ロボットのために作成されるファイルです。これは私の個人的な意見ですが、HTML サイトマップから、ウェブサイトのナビゲーションが複雑になりすぎていないかどうかを把握できることがあります。私であれば、サイトマップ ページを作成する代わりに、その問題の修正を試みます。

Google は解析時にエラーとなる構造化データをどのように処理していますか?

Gary: Animesh さんからの質問です。「Google は解析時にエラーとなる構造化データをどのように処理していますか?」

処理は行っていません。解析できない構造化データがある場合、その構造化データに含まれる情報を抽出できないため、単に無視されます。

URL に数字を含めることは SEO の点で良くないですか。何か問題があるでしょうか?

John:「URL に数字を含めることは SEO の点で良くないですか。何か問題があるでしょうか?」

いいえ。URL に数字を含めても悪くはありません。数字、文字、ラテン文字以外の文字、Unicode 記号など、好きな文字を使用してください。唯一避けた方が良いのは、ページにアクセスするたびに毎回変わる一時的な ID を URL に使用することです。クロールが混乱し、非常に困難になります。

私のウェブサイトの URL がブロックされているのはなぜでしょうか?

Gary: Claudio さんからの質問です。「私のウェブサイトの URL がブロックされているのはなぜでしょうか?」

ブロックされているのではありません。ランキングされていないだけで、むしろ良いことです。私なら、SEO スターター ガイドをチェックして、軌道に乗せるために何をすればよいかを確認します。そして、SEO にフォーカスした評判の良い Moz のようなサイトや、Aleyda Solis のような人からヒントをもらいます。

「Index Bloat(インデックスの肥大化)」は実際に存在しますか。Google によるクロールやインデックス登録に影響しますか?

John:「『Index Bloat(インデックスの肥大化)』は実際に存在しますか。Google によるクロールやインデックス登録に影響しますか?」

Google において「Index Bloat」という考え方があるとは認識していません。Google のシステムが、1 つのサイトについてインデックスに登録するページ数を意図的に制限することはありません。インデックス登録用に提供されたページが実際に有用なページであるかは確認しますが、サイトのページ数とは関係ありません。

Googlebot が私のサイトを今後一切クロールしないようにするための確実な方法は何ですか?

Gary: 匿名の方からの質問です。「Googlebot が私のサイトを今後一切クロールしないようにするための確実な方法は何ですか?数か月などではなく、永遠にです。」

最も簡単な方法は robots.txt を使用することです。Googlebot ユーザー エージェントに対して disallow: / を追加すると、そのルールが適用されている限り、Googlebot がそのサイトにアクセスすることはなくなります。ネットワーク アクセスさえもブロックしたい場合は、Google の IP 範囲を拒否ルールに読み込むファイアウォール ルールを作成します。Google の IP アドレスの一覧は、Googlebot が本物であるかの確認に関するドキュメントで取得できます。

SEO 会社は Google 承認のバッジを取得できますか?

John: Michael さんからの質問です。「SEO 会社は Google 承認のバッジを取得できますか?」

Google の SEO 認定というのは聞いたことがありません。Google 広告などの特定のサービスには認定制度がありますが、SEO の認定については知りません。公式の認定については、誰かの言葉を鵜呑みにせず、私自身が情報を直接確認します。

複数のナビゲーション メニューを用意すると SEO のパフォーマンスに悪影響がありますか?

Gary: 匿名の方からの質問です。「複数のナビゲーション メニューを用意すると SEO のパフォーマンスに悪影響がありますか?サイトの中で重要度が高いカテゴリをすべて表示するメインメニューと、ブランドの拡張に関連するカテゴリを強化するための「サブ」メニューを考えています。」

複数のナビゲーション メニューを用意することでサイトの SEO パフォーマンスに影響が及ぶということは、まず考えられません。

HTML ページと ASPX ページをインデックスに登録してもらおうとしましたが、インデックスに登録されたのはごく少数の HTML ページだけでした。助けてください。

John:「HTML ページと ASPX ページをインデックスに登録してもらおうとしましたが、インデックスに登録されたのはごく少数の HTML ページだけでした。助けてください。」

Google 側から見た場合、拡張子が ASPX であることは何も特別なことではありません。拡張子が ASPX のファイルは通常の HTML ページであり、Google でインデックスに登録できます。拡張子を非表示にしても、Google のシステムには何ら影響しません。クロールとインデックス登録に関する一般的な質問については、非常に役立つ情報を教えてくれるヘルプ コミュニティを確認することをおすすめします。

同じドメインの 2 つの異なるウェブページが検索結果に表示されます。2 つ目のページは少しだけインデントされています。なぜでしょうか?

Gary: Shin さんからの質問です。「同じドメインの 2 つの異なるウェブページが検索結果に表示されます。2 つ目のページは少しだけインデントされています。なぜでしょうか?」

これはホストグループと呼ばれるものです。マークアップでこれに影響を与えることはできません。ただこれは、特定のクエリで上位にランクインされる可能性のあるページが 2 つ以上あることを示しています。この 2 つのページを統合してみてはいかがしょうか。ホストグループについて詳しくは、視覚要素ギャラリーをご覧ください。

偽の Googlebot が許容されているのですか。偽の Googlebot に公式の URL が記載されているが、異なる IP アドレスのものであるということはありますか?

John: Arnd さんからの質問です。「偽の Googlebot が許容されているのですか。偽の Googlebot に公式の URL が記載されているが、異なる IP アドレスのものであるということはありますか?」

残念ながら、誰でも任意のユーザー エージェント名を指定できますし、正当なものであるように見せるために、スクリプトで Googlebot のユーザー エージェント名が使用されることもあります。Google は、Googlebot が使用する IP 範囲や、リクエストが正当であることを確認するための方法をドキュメントで公開しています。今回のケースの場合、この IP アドレスはドイツのホスティング事業者の Hetzner Online に関連付けられます。このようなリクエストが多く確認できる場合、不正行為を担当する部署に連絡していただいたほうがよいでしょう。

ドメイン名ではなく IP アドレスを否認する方法はありますか?

Gary: Muhammad さんからの質問です。「ドメイン名ではなく IP アドレスを否認する方法はありますか?」

いいえ、ありません。

Blogger によくある NOODP を使用する目的は何ですか?

John:「Blogger によくある NOODP を使用する目的は何ですか?」

それは懐かしい話ですね。Google は、この robots meta タグの使用を大昔にやめています。これは、サイトが短い説明と一緒に掲載されていた、DMOZ オープン ディレクトリ プロジェクトの頃の話です。この meta タグは、説明を無視するように検索エンジンに伝えるためのものでした。Open Directory Project(ODP)は今では存在せず、この meta タグの効果はありません。また、このタグが問題になることもないため、そのままにしておいても問題ありません。

「メイン コンテンツ」とは、動画をページの一番先頭に来る要素として配置しなければならないということですか?

Gary: Frederick さんからの質問です。「4 月 13 日から、サムネイルを SERP に表示させるためには、動画をページのメイン コンテンツにしなければならなくなりました。「メイン コンテンツ」とは、動画をページの一番先頭に来る要素として配置しなければならないということですか?」

いいえ。ユーザーの観点で考えてみてください。あなたのページにたどり着いたユーザーにすぐ動画が表示されるのではなく、一生懸命その動画を探さなければならないとしたらどうでしょうか。この場合、非常に煩わしいものになります。そのため Google は、動画がメイン コンテンツとして「すぐに」に表示されることを求めています。Vimeo や YouTube などの大手の動画サイトをご覧になれば、Google のアルゴリズムが何を求めているかをおわかりいただけると思います。