【Google公式】英語版SEOオフィスアワーの最新TIPS特集: ページ分割・サイトマップ・title・リダイレクトなどなど【SEO情報まとめ】

今回は「英語版SEOオフィスアワー特選情報スペシャル」だ。2022年12月に公開された英語版SEOオフィスアワーが、役立つ情報が満載だった。そこからQ&Aを5つ、ピックアップして紹介する
よろしければこちらもご覧ください

今回は「英語版SEOオフィスアワー特選情報スペシャル」だ。2022年12月に公開された英語版SEOオフィスアワーが、役立つ情報が満載だった。そこからQ&Aを5つ、ピックアップして紹介する。

「ページネーションとXMLサイトマップやtitle要素」「リダイレクト」などの質問のほか、head内要素の並び順、ユーザー行動の改善などなど、SEOのコアな部分から技術的なこと、マーケティング的なことまで幅広い情報を紹介する。あなたのSEO力アップに役立ててほしい。

  • XMLサイトマップにページネーション2p目以降のURLを追加すべき?
  • ページネーションしているカテゴリページでtitle要素を一意にするのは重要?
  • リダイレクトが多いとクロールやランキングに悪影響?
  • 開発中のサイトをSearch Consoleに登録する方法は?
  • 日本語サイトに英語ページを追加したらSEOにマイナス?
  • headセクション内SEO要素の正しい記述順をグーグル社員が指南
  • GooglebotはIf-Modified-Sinceをサポートする
  • ユーザー行動の改善はSEOの改善に繋がる
  • 2023年1発目のオフィスアワー: サブディレクトリを他メディアに貸す評価、サイト移転時の過去記事の公開日時、学習サイトの練習問題ファイルの取り扱いなど
  • グーグル検索の2022年を振り返る
  • AIコンテンツはSEOに利用できるのか? ユーザーファーストか? 検索エンジンファーストか?が境目
  • ショート動画の専用セクションが日本のGoogle検索にも導入

今週のピックアップ

XMLサイトマップにページネーション2p目以降のURLを追加すべき?
どちらでも構わない (Google SEO office-hours) 海外情報

最初に取り上げるのはこちらの質問だ:

/category?page=2 のようなページネーションしたページをXMLサイトマップに追加しておくほうがいいですか?

グーグルの検索リレーションチームでECサイトのSEOに精通するアラン・ケント氏がこの質問に回答した。

こうしたURLをサイトマップに追加して送信することには、意味があるように思える。しかし、ほとんど見たことはない。

実際のところは、各カテゴリのページが次のカテゴリのページへリンクしているなら、サイトマップに含めてもさほど利点はないかもしれない。なぜなら、こうした2ページ目以降のURLを(Googlebotは)自動的に発見するはずだからだ。

さらに言えば、2ページ目以降を発見したとしても、最初のページしかインデックスしないと決定するかもしれない。こうした挙動は「2ページ目以降も同じカテゴリで、検索結果で別々に表示するほどの十分な違いはないだろう」と想定した場合に発生する。

ページネーションしているすべてのページをサイトマップに追加しても技術的には問題ない。だが、たいして役に立たないかもしれないとのことだ。理由は次の2つだ:

  • サイトマップがなくてもページネーションしているページをリンクで発見できる
  • コンテンツの内容に目立つ差異がなければ、1ページ目しかインデックスしないことがある

ようは、追加しても追加しなくてもどちらでも構わない。

とはいえ、次の両方が該当する状況ならば意味があるかもしれない(特にカテゴリページではなくコンテンツページの場合):

  • 2ページ目や3ページ目の内容が、1ページ目とかなり異なる
  • Googlebotが1ページ目はクロールするが2ページ目以降をクロールしていない
★★★★☆
  • ページネーションしているサイトのすべてのWeb担当者 必見!

ページネーションしているカテゴリページでtitle要素を一意にするのは重要?
SEO効果を期待するな (Google SEO office-hours) 海外情報

2つ目に取り上げる質問はこちらだ:

  • ECサイトで
  • ページネーションしている
  • 商品カテゴリページ

という状況で、titleタグを各ページで一意にする(全ページ異なる文字列にする)のは、どのくらい重要ですか? titleタグのなかに現在のページ番号を入れることは役立ちますか?

この質問にもアラン・ケント氏が対応した。

ページに関する情報としてページ番号を含めても、検索エンジンに対してはほとんど効果がないだろう。

人間のユーザーが現在いる場所を理解するのに役に立つという観点では、ページ番号をtitle要素に含める意味があるだろう。

しかし、検索エンジンで順位アップの助けになったりページのインデックスの可能性が増したりすることを期待するなら、入れる価値はない。

ページ上で現在のページ番号を示すのは、人間のユーザーにとっては、次の2点で親切だろう:

  • 続いているページの一部だと理解できる
  • 全体のどの位置にいるか理解できる

グーグルにも同じように手助けになると期待したいのだが、あまり意味はないようだ。

さらに言えば、イマドキのブラウザは、標準ではtitle要素を確認しづらいUIが多い。そのため、ユーザー利便の意図でページ番号などの情報を記載するならば、title要素だけでなくh1見出しなどに記載して、ページ上で視認できるようにしておかなければ意味が薄いだろう。

★★★★☆
  • すべてのECサイトのWeb担当者 必見!

リダイレクトが多いとクロールやランキングに悪影響?
ホップ数に気をつける (Google SEO office-hours) 海外情報

3つ目に取り上げる質問はこちらだ:

リダイレクトが多すぎるとクロールやランキングに何らかの悪影響が出ますか? たとえば、100個のURLをクロールするために、Googlebotが数百リクエスト処理しなければいけないような場合には?

この質問には、このコラムでおなじみのゲイリー・イリェーシュ氏が回答した。

サイト全体で好きなだけリダイレクトできる。問題は何にも起きないだろう。

ただし、個別のURLがリダイレクトチェーンしているなら、ホップ数が多くなりすぎないように気をつけなければならない。そうでなければ問題ない。

サイト内でいくつのURLをリダイレクトしても検索には悪い影響は出ないということだ。ただし、リダイレクトを何度も繰り返す、いわゆる「リダイレクトチェーン」には注意が必要だ。リダイレクトチェーンとは次のような状態を指す:

URL①
 ⇩️(リダイレクト1回目)
URL②
 ⇩️(リダイレクト2回目)
URL③
 ⇩️(リダイレクト3回目)
URL④
 ⇩️(リダイレクト4回目)
URL⑤
※ここで200を返す

リダイレクトチェーンには、主に次のような問題を生じさせる恐れがある:

  • リダイレクトの際に遅延が発生し表示速度が遅くなる場合がある

  • Googlebotは最大10回のホップまでしかリダイレクトを処理しない(リダイレクトの実行を「ホップ」と呼ぶ。robots.txtは最大5回のホップ)

リダイレクトではこうしたことには注意しよう。

★★★☆☆
  • ホントにSEOを極めたい人だけ

開発中のサイトをSearch Consoleに登録する方法は?
Googlebotを許可リストに含める (Google SEO office-hours) 海外情報

4つ目に取り上げる質問はこちらだ:

特定の開発者のIPアドレスからのアクセスだけを許可している開発サイトをSearch Consoleでサイト確認するにはどうしたらいいですか? 確認用HTMLファイルをサイトにアップロードしたら、Search Consoleはそのサイトを確認できますか?

ゲイリー・イリェーシュ氏が回答した。

結論から言うと、不可能だ。

Search Consoleでサイトを確認するには、Googlebotが実際にそのサイトに確実にアクセスできるようにする必要がある。

GooglebotのIPアドレスは、検索セントラルサイトで公開している。サイトで許可するIPアドレスのリストにGooglebotが利用するIPアドレスを追加すれば、Googlebotは確認ファイルにアクセスできるようになる。

Search Consoleでサイトの所有権を確認するのに確認用HTMLファイルを使う場合、Googlebotがその確認用HTMLファイルにアクセスできなければいけない。

しかし、確認用HTMLファイルのためにGooglebotのIPアドレスを許可すると、それはクロールも許可したことになる。そのためかイリェーシュ氏は、削除ツールや404について触れている(もしかしたら、元の質問が「意図せずに開発サイトがインデックスされてしまったためにSearch Consoleの削除ツールから削除する」方法を聞いていたのかもしれない)。

その後、削除ツールを使って開発サイトを検索から削除できる。

開発サイトのインデックスされないように404や410のステータスコードを返すようにしておくことも忘れないように。

アクセスにIPアドレス制限をかけている環境でSearch Consoleにサイトを登録するには、Googlebotも許可リストに追加すればいい。グーグルは、GooglebotのIPアドレス範囲を記載するファイルを検索セントラルサイトで公開している(GooglebotのIPアドレスは変わることがあるので、最新ファイルを自動的に取得する仕組みを構築しておいたほうがいいだろう)。

また、イリェーシュ氏は404や410のステータスを返すよう指示しているが、開発用サイトやテストサイトでは、Webサーバーの設定ですべてのHTTPレスポンスにHTTPヘッダーでX-Robots-Tag: noindexを返すよう設定してしまうのも良い手だろう(そのまま本番サイトでもnoindexを外し忘れる事故には気をつけよう)。

ちなみに、GooglebotがアクセスできないサイトをSearch Consoleで所有権確認する方法は、ほかにもある。「ドメイン プロパティ」でサイトを追加し、「ドメイン名プロバイダ」で確認するやり方だ。

「URLプレフィックス プロパティ」でのサイト追加では利用できないし、DNS設定を変える権限がないと無理だが、アクセス可能なIPアドレスや他の設定を変えなくてもいい。知っておくといいだろう。

★★★☆☆
  • SEOがんばってる人用(ふつうの人は気にしなくていい)
  • 技術がわかる人に伝えましょう

日本語サイトに英語ページを追加したらSEOにマイナス?
問題なし、ただし別ページにすること (Google SEO office-hours) 海外情報

5つ目はこちらの質問だ:

全体としては英語のサイトですが、そのなかにスペイン語の記事を1記事だけ追加すると、ランキングに(悪い)影響が出ますか?

この質問には、検索セントラルサイトのドキュメントを作成、管理しているリッズィ・サースマン氏が回答した。

まったく問題なし。ランキングに悪影響を及ぼすことはない。

複数の言語でコンテンツを発行することを考えているなら、他言語サイト管理のドキュメントもチェックすることもおすすめする。このドキュメントはもっと多くの情報をカバーしている。

同様に、日本語のサイトに英語だけのページを追加しても害を及ぼすことはないだろう。ただし、同じコンテンツを複数の言語に翻訳して展開するのであれば専用の設定をすべきだ。サースマン氏が言及したドキュメントを参照するといい。

また、日本語ページと英語ページがサイト内に別々のページとして混在するのは問題ないが、同じページに日本語と英語の両方で記事を書くのはよくない。どちらの言語を対象にしたコンテンツなのかグーグルは判断に迷ってしまうからだ。

◇◇◇

今回は5つのQ&Aを紹介したが、オフィスアワー全体では全部で50個もの質問に回答している。知っておいて損のない回答ばかりだ。最後に動画を埋め込んでおく(動画ではあるが音声だけ)。文字で読みたい場合は文字起こしが検索セントラルサイトにあるのでそちらを参照するといい(残念ながら文字起こしは英語のみ)。

★★★☆☆
  • SEOがんばってる人用(ふつうの人は気にしなくていい)
グーグル検索SEO情報
  • headセクション内SEO要素の正しい記述順をグーグル社員が指南
  • GooglebotはIf-Modified-Sinceをサポートする
  • ユーザー行動の改善はSEOの改善に繋がる
  • 2023年1発目のオフィスアワー: サブディレクトリを他メディアに貸す評価、サイト移転時の過去記事の公開日時、学習サイトの練習問題ファイルの取り扱いなど
  • グーグル検索の2022年を振り返る
海外SEO情報ブログの掲載記事から
  • AIコンテンツはSEOに利用できるのか? ユーザーファーストか? 検索エンジンファーストか?が境目
  • ショート動画の専用セクションが日本のGoogle検索にも導入

グーグル検索SEO情報

headセクション内SEO要素の正しい記述順をグーグル社員が指南
重要な要素を先頭に配置 (John Mueller on Mastodon) 海外情報

headセクション内に記述する要素の順番について注意すべき点を、ジョン・ミューラー氏がマストドンで説明した。

要点をまとめると次のようになる:

重要な要素は冒頭に近い位置に記述する。重要な要素とは、たとえば次のようなもの:

  • 文字コード指定
  • titleタグ
  • meta robotsタグ
  • meta descriptionタグ
  • rel="canonical"タグ
  • viewport
  • CSP(コンテンツセキュリティポリシー)関連要素

基本的には、上から順番にコードをGooglebotは読み込んでいく。したがって、重要度が高い要素は真っ先に読み込ませるほうが安全だ。特にSEO観点では、noindexなどのrobots metaタグは重要だし、hreflang要素も先頭近くに配置すべきだろう。

headセクション内で使えないHTML要素は、head内には含めない(imgタグやiframeタグなど)。

これらの要素があるとGooglebotはそこでheadセクションが終了したと解釈し、それ以降の要素を処理しなくなってしまうからだ(bodyセクションが始まったと解釈する)。

2つ目の点がわかりにくいので解説しよう。headセクションが次の状態だった場合を例とする:

<head>
<meta charset="utf-8">
<title>サンプルHTMLページ</title>
<meta name="viewport" content="width=device-width, initial-scale=1.0">
<meta description="サンプルHTMLを紹介しています">
<img src="/blank.gif">
<link rel="canonical" href="https://example.com/sample.html">
<meta name="robots" content="noindex">
</head>
<body>
……ページのHTMLが続く……

問題は点線で囲んだ部分だ。img要素はhead内に現れないとみなされている(head内で使える要素についてはこちらを参照)。そのため、このHTMLをブラウザ(やGooglebot)は次のように解釈する:

<head>
<meta charset="utf-8">
<title>サンプルHTMLページ</title>
<meta name="viewport" content="width=device-width, initial-scale=1.0">
<meta description="サンプルHTMLを紹介しています">
</head>
<body>
head 内で img要素が出現したため、
img要素の直前で head が暗黙的に終わって
そこから body が始まるとみなす。
そのため、以下の canonical や meta robots は
正しく認識されない……
<img src="/blank.gif">
<link rel="canonical" href="https://example.com/sample.html">
<meta name="robots" content="noindex">
</head>
<body>
……ページのHTMLが続く……

HTMLを正しく書いていれば、こうした問題は起きないはずだ。

しかし、もしJavaScriptやタグマネージャが意図せぬ動作をして、head内のおかしな場所にimg要素やiframe要素を動的に挿入してしまったら、どうだろうか。いまのGooglebotはJavaScriptやCSSを解釈するので、head内の指示をこちらが想定しているとおりには解釈してくれないかもしれない。

だから、1つ目の補足に示したように「SEOで重要なタグはhead内で上のほうに記載する」のが重要なのだ。

もちろん、利用するJavaScriptやタグは十分に検証して、問題が発生しないことを確認しておくことも重要だ。HTMLソースを確認するだけでなく、「ブラウザがどんなDOMツリーとして扱っているか」も確認できると、より安心だ(DOMの確認にはブラウザのDevToolsなどを使う)。

★★★★★
  • すべてのWeb担当者 必見!

GooglebotはIf-Modified-Sinceをサポートする
大規模サイトのクロール効率化で重要 (グーグル 検索セントラル) 国内情報

大規模なサイト所有者向けのクロール割り当て管理ガイドのドキュメントに、クロール効率を向上させる手法として次の2つのHTTPリクエストヘッダーに関する記述が追加された:

※筆者注: この記事の執筆時点では日本語ドキュメントは未更新

Googlebotは、状況に応じてHTTPリクエストヘッダーでIf-Modified-SinceIf-None-Matchを送信することがある。こうしたリクエストでは、Googlebotが最後にクロールした日時やそのときにサーバーから取得した状態情報(ETag)も含めて送信する。Webサーバー側では、これらの情報をもとに、次のように処理できる:

  • コンテンツが更新されていれば、新しいコンテンツを200で返す
  • コンテンツが更新されていなければ、304(Not Modified)を返す(コンテンツ本体を返す必要はない)

コンテンツ本体を返さなければWebサーバー側も処理が軽く、ネットワーク帯域も使わずに済む。Googlebot側も過去に取得したコンテンツと同じならばレンダリングやインデックスの処理をし直す必要がなく、処理が軽くなる。結果としてクロールが効率的になるというわけだ。

大規模サイトでは、Googlebotのクロールをいかに効率よくさばくかが非常に重要なSEOタスクだ。大規模サイトを管理しているなら、GooglebotのIf-Modified-SinceIf-None-Matchのサポートに対応できるようにサーバーを構成しておくといい(WebサーバーやCMSの技術面がわかる管理者に相談するといい)。

またグーグルの解説では、Googlebotが送信したリクエストヘッダーにかかわらず、コンテンツに更新がない場合は304(Not Modified)を能動的に返せばGooglebotのクロールに対するサーバーの処理を削減できるとも記載している。

たとえば、次のようにすれば、再クロールが必要ない場合にGooglebotには304を返すという処理をすることも可能だろう:

  1. Search Consoleから定期的にURLごとのインデックス状況を取得する

  2. CMS内の各コンテンツについて、インデックス後に内容が変わったかどうかを判定しておく

  3. クロールがあった場合、インデックス後に内容が変わっていなければ304を返す

処理が大変ならば、インデックス状況にかかわらず「最終更新から3か月以上経過している場合は304を返す」といった処理にしてしまうやり方もあるかもしれない。

★★★★☆
  • すべての大規模サイトWeb担当者 必見!
  • サーバー管理者に伝えましょう

ユーザー行動の改善はSEOの改善に繋がる
Land & Surfの最適化が秘訣 (株式会社JADEブログ) 国内情報

ユーザー行動を分析しそれをSEOに落とし込む手順を、JADEの山田氏が解説した。サイト内でのユーザー体験を高めることは、SEOへの効果も見込めると言う。

山田氏が重視するのは、ユーザー行動においてLand(ランド)とSurf(サーフ)と呼ぶ段階だ。定義は次のとおりだ。

  • Land ―― 無事ユーザーが意図されたURLに着地し、その際にもともとの検索意図が充足されるようにする。

    • 指標は、エンゲージメント率や直帰率、読了率など。
  • Surf ―― ユーザーがサイト内でジャーニーを継続し、サイト内を回遊するようにする。

    • 指標は、回遊率やコンバージョン率など。

このLand & Surfを改善するためのステップを共有している。

  1. STEP 1: CVしているユーザーが“何をしているのか”を探る
  2. STEP 2: なぜユーザーはそのコンテンツを見るのかを把握する
  3. STEP 3: ユーザーの行動をより深く理解する
  4. STEP 4: 施策を考えていく

具体的な進め方は元記事を参照してほしい。SEOは検索エンジン最適化の意味であるが、最終的に相手にするのは人間のユーザーである。人間のユーザーに満足いく体験を提供するのがSEOのゴールになる。そのゴールに到達するために、山田氏のノウハウは非常に役立つだろう。

そして、こうした考え方こそが、グーグルが上位に表示したいと考えるコンテンツを作るのに役立つはずだ。

★★★★★
  • すべてのWeb担当者 必見!

2023年1発目のオフィスアワー: サブディレクトリを他メディアに貸す評価、サイト移転時の過去記事の公開日時、学習サイトの練習問題ファイルの取り扱いなど
金谷氏と小川氏が2023年も問題解決を手助け (Google ポリシー オフィスアワー) 国内情報

2023年1回目のグーグルポリシーオフィスアワーを、金谷氏と小川氏が開催した。2人が回答したのは次の質問だ:

  • サブディレクトリを他メディアに貸す評価(1:23
  • 運営中メディアが上位表示されない(4:47
  • リダイレクト実装の推奨(7:48
  • 検索結果「このクエリの検索パフォーマンス」(9:58
  • 正式名称でも略称でも上位に表示させたい(11:45
  • サイト移転時の過去記事の公開日時(15:47
  • Search Console の求人情報のレポート(17:08
  • Q&A サイトにおける重複の対象範囲と対処法(18:26
  • オートコンプリート機能実装のリスク(20:40
  • Search Console と PSI で CLS に乖離がある(22:43
  • 一般的な SNS の Web サイトを開発する(25:01
  • 学習サイトの練習問題ファイルの取り扱い(27:51

年末年始を挟んだせいか、いつもよりも数が少ないかもしれない。それでも気になる質問が目にとまれば、回答を確認しよう。ダイレクトに再生できるようにタイムラインは再生場所にリンクしてある。録画も埋め込んでおく。

グーグル検索とパブリッシャーポリシーについて疑問があれば質問フォームから送信しておこう。オフィスアワーで回答してもらえる。

★★★★★
  • SEOがんばってる人用(ふつうの人は気にしなくていい)

グーグル検索の2022年を振り返る
もっともインパクトがあった出来事は何? (グーグル 検索セントラル ブログ) 国内情報

2022年の振り返りをグーグルの検索リレーションチームが12月30日にブログに投稿した。グーグル検索にかかわるさまざまな出来事が2022年も起きた:

  • Search Consoleの新しいレポート、ツール
  • 各種検索システムのアップデート
  • ウェブマスター向けガイドラインの刷新
  • 対面イベントの再開

上に挙げたのは概要だ。詳細はブログ記事で確かめてほしい。

あなたにとって、2022年でもっともインパクトがあったのはどんな出来事だっただろうか? 2023年に入ってもう3週間がたってしまったが、ブログ記事を読みながら今からでも振り返るのも悪くないだろう。

★★★★☆
  • すべてのWeb担当者 必見!

海外SEO情報ブログの
掲載記事からピックアップ

どちらも今注目の、AI生成コンテンツとショート動画に関する記事をピックアップ。

この記事の筆者

【執筆】

鈴木 謙一(すずき けんいち)

「海外SEO情報ブログ」の運営者。株式会社Faber Companyの取締役Search Advocate(サーチ・アドボケイト)。

海外SEO情報ブログは、SEOに特化した日本ではもっとも有名なSEO系ブログの1つ。米国発の最新のSEO情報を中心に、コンバージョン率アップやユーザーエクスペリエンス最適化のための施策も取り上げている。

正しいSEOをウェブ担当者に習得してもらうために、ブログでの情報発信に加えて所属先のFaber Companyでは、セミナー講師や講演スピーカーを主たる役割にしている。

テーマ別カテゴリ: