内部リンクが多いほど検索トラフィックが多い!? 1800サイト調査から判明した検索トラフィックと内部リンクの相関関係【SEO情報まとめ】
SEOで2022年でも重要な「リンク」。なかでも検索エンジン評価に影響を与えると考えられるものの外部リンクほど語られることが多くない「内部リンク」について、検索トラフィックとの関係を調査したデータから、改めて内部リンク戦略を考えてみよう。
ほかにも、今回は(今回も?)読んで損がないネタが盛りだくさんだ。
「コアアップデートと検索意図解釈」「マジかrobots.txtとGooglebotの変な挙動」「E-A-T重視なら筆者の構造化マークアップ」「ECサイトのスピードアップ施策6種」などは特に注目だが、他の記事も今回はすべて見逃せない!
- 5月のコア アップデートで順位が入れ替わったのは検索意図解釈の変化が原因か?
- マジですか! Googlebotがサポートしないrobots.txt指示のせいでグーグル検索から消滅!?
- 「毎日更新」をページタイトルに入れたら検索トラフィックが11%増??
- E-A-T重視なら必見! 記事筆者を構造化データでマークアップするベストプラクティス
- CDNはSEOに有利なのか?
- サイトマップを検索エンジンに見せてユーザーに見せないとクローキングになる?
- 確実に実践したい! ECサイトのスピードアップ施策×6
- ハッキングで生成された不正なページを削除したら404? 301?
- コンテンツマーケを本気でやるなら独自ドメイン名とデータの確保は必須
- 外部サイトへの発リンクはSEOにプラスかマイナスか?
- noindexとrel=canonicalの両方が設定されたページをGoogleはどのように処理するのか?
今週のピックアップ
内部リンクが多いほど検索トラフィックが多い!? 1800サイト調査から判明した検索トラフィックと内部リンクの相関関係
多様なアンカーテキスト、完全一致のアンカーテキストは上位表示に有利 (Zyppy) 海外情報
内部リンクと検索トラフィックの相関関係を、Zyppy(ジッピー)のサイラス・シェパード氏が調査した。
1,800サイトを対象に2,300万本の内部リンクを調査したもので、導き出した5つの分析結果をシェパード氏は次のようにまとめている:
内部リンクを多く集めているページほど検索トラフィックが多い
内部リンクが0本〜4本しか張られていないページと比較すると、40本〜44本の内部リンクが張られているページはトラフィックが4倍も多かった。
ところが、45本〜50本を過ぎると逆に減っていく。これは、サイドバーやナビゲーションやフッターのように、サイトの全ページに設置されている内部リンクによるものではないかと推測される。
アンカーテキストは多様なほど検索トラフィックが多い
同じURLへの内部リンクであっても、さまざまなアンカーテキストでリンクされているページのほうが好成績だった。たとえば、同じページでも次のように多様なアンカーテキストのバリエーションがある場合だ:
URLをアンカーテキストにしたリンクは検索トラフィックにマイナス影響を与えていない
グーグルのSEOスターターガイドでは、ページのURLをアンカーテキストとして使用することを基本的に推奨していない。しかしこれは、ランキングには影響していないようだ。
アンカーテキストにURLを使うべきではないというのは、検索評価ではなくユーザー体験の観点からのアドバイスだろう(リンク先ページの内容を推測しにくいため)。
「アンカーテキストがある内部リンク」と「アンカーテキストがない内部リンク」とで検索トラフィックとの相関関係はまったく見られなかった
アンカーテキストがない内部リンクとは、ほとんどは画像に設定されたリンクだ。画像リンクでは
alt
属性の記述がアンカーテキストの代わりとして使われることの証だろう。検索クエリと完全に一致するアンカーテキストで少なくとも1件は内部リンクされているURLは、検索トラフィックとのかなり強い相関関係が見られた
たとえば、「ベストなSEOブログ」のクエリで検索トラフィックが多いページは「ベストなSEOブログ」のアンカーテキストでリンクされているようなイメージだ。
なかなか興味深い分析結果だ。ただし、次の点には注意したい。
- 2,300万本の内部リンクは、ウェブ全体で考えるとごく一握りのデータ
- 相関関係と因果関係は別もの
それでも、内部リンクの最適化のヒントとしてシェパード氏の調査は確実に参考になりそうだ。
- SEOがんばってる人用(ふつうの人は気にしなくていい)
グーグル検索SEO情報①
5月のコア アップデートで順位が入れ替わったのは検索意図解釈の変化が原因か?
レゴの検索結果がシャッフルされた (Lily Ray on Twitter) 海外情報
5月下旬にグーグルはコア アップデートを実施した。このコア アップデートがもたらした検索結果の変化から、ある特徴が見て取れるそうだ。
米国の腕利きSEOコンサルタントのリリー・レイ氏が報告したその特徴とは、検索意図解釈の変化による順位変動だ。要は、「検索キーワードがどういった検索意図をもっているとグーグルが解釈するかのロジック」の変化によって、それぞれの検索意図に向けたページの順位が入れ替わったということだ。
ブロック玩具の「legos」(レゴ)という検索キーワードの検索意図としては、たとえば次のようなものが考えられる:
- レゴについての解説
- レゴの口コミ
- 子ども向けのレゴ
- 大人向けのレゴ
- レゴを買える店
- etc.
今回のコア アップデートではこうした内容についてのページの順位が大幅にシャッフルされたというのだ。
そのシャッフル状況は、下記ツイート埋め込みをクリックして、さらにツイート内の画像を拡大して確認してほしい:
画像をみると、次のような変化が起きているように思える:
- 購買ページ(一般または子ども向け) ―― 上昇
- 大人向けのレゴ情報・購買ページ ―― 低下
- レゴについての全般的な解説 ―― 上昇
コア アップデートで順位が下がったとしても、それは必ずしもページに問題があるからとは限らないとグーグルは説明している。レイ氏が示したのはこれを示す良い例だ。
コア アップデートで順位が変わったのは、
- 品質が低いから・高いから
とは限らず、サイトには直接関係ない要因として、
- ユーザーの検索意図が変化した
- または検索意図の解釈をグーグルが変えた
ことにより、「そのキーワードがもつ検索意図(だとグーグルが判断したもの)」に合致したコンテンツをより上位に表示するようになったのだと考えられる。
「ユーザーの検索意図の変化」や「グーグルの検索意図解釈の変化」は、サイト側で制御できるものではない。これは受け入れるしかない。対処できることがあるとしたら、ユーザーがそのクエリで今何を求めているのかを探り当て、その要求を満たすコンテンツを新たに投入することだろう(そのコンテンツがサイトのテーマに合っていることも条件になる)。
- SEOがんばってる人用(ふつうの人は気にしなくていい)
マジですか! Googlebotがサポートしないrobots.txt指示のせいでグーグル検索から消滅!?
ないものとして扱ってしまうため (Robert on Twitter) 海外情報
robots.txt
のCrawl-delay
ディレクティブに関して、注意を要する情報をお伝えしたい。Crawl-delay
は、クロール速度を落とすようにクローラに指示を出す命令だ。ただし標準ではなく拡張の仕様なので、Googlebotはサポートしていない。一方で、BingのクローラであるBingbotのようにサポートしているクローラもある。
次のようにrobots.txt
に記述していたとする。
User-agent: *
Crawl-delay: 2
User-agent: Mozbot
Disallow: /
この状態だと、サイトのすべてのページをGooglebotはクロールしなくなるのだ。理由はこうだ。
2行目の「
Crawl-delay: 2
」をGooglebotは無視し、存在しないものとして扱う(サポートしていないため)。そこで、1行目の
User-agent: *
をそのまま4行目のDisallow: /
に適用してしまう。
「そんな変な挙動はしないだろう」と思ってしまうのだが、実はこの挙動は正しい。というのも、robots.txtではUser-agentを複数記述して指示をグループ化する書き方がある。
つまり、前述のrobots.txtをGooglebotは次のように解釈してしまい、結果としてすべてのクローラに対して全ページのクロールを拒否していると判断してしまうようだ:
User-agent: *
User-agent: Mozbot
Disallow: /
実際にグーグルのrobots.txt テスターで試しても、前述のような挙動をしていることを確認できる:
Crawl-delay
ディレクティブをrobots.txt
で利用するなら、最後に記述するか、もしくはUser-agent
を明示的に指定するのが無難だろう。あとに続く記述によっては、サイト全体がGooglebotにクロールされなくなる危険性がありうる。
- ホントにSEOを極めたい人だけ
「毎日更新」をページタイトルに入れたら検索トラフィックが11%増??
検索ユーザーが「おっ!」と思うtitleタグに (SearchPilot) 海外情報
興味深いSEOテストをSearchPilot(サーチパイロット)が実施した。title
タグを少しいじっただけで、検索トラフィックが11%も増加したのだ。
どんなふうにtitleタグを変更したのかというと、年月の記述を「Updated Daily」(毎日更新)に入れ替えたのだ。次のような感じだ:
- 【修正前】フリーランスのライター募集(2022年6月)
- 【修正後】フリーランスのライター募集(毎日更新)
これはおそらく、検索エンジンの評価というよりも、検索結果ページにおけるクリック率の問題だろう(それによるユーザー行動もあるかもしれないが)。具体的には、新しいタイトルのほうが、「最新の情報が手に入る」と期待してクリックする検索ユーザーが多かったに違いない。
もっとも毎日更新と書くからには、本当に毎日更新しないとユーザーを騙すことになるので注意が必要だ。「毎週更新」でも同じような効果がみられるのではないだろうか? 「毎月更新」はどうだろうか。
タイムリーな情報を提供するコンテンツを配信していて、この検証結果に興味をもったなら、元記事が行ったように年月の記述をtitleタグに入れた場合とA/Bテストで比較検証してみるといいだろう。
- SEOがんばってる人用(ふつうの人は気にしなくていい)
E-A-T重視なら必見! 記事筆者を構造化データでマークアップするベストプラクティス
E-A-Tの証明に役立つかも (グーグル検索セントラル) 国内情報
記事(Article
)の構造化データの技術ドキュメントに、記事作成者のマークアップのベストプラクティスをグーグルが追加した。ベストプラクティスに従うと、記事作成者をグーグルが正しく認識、表示する手助けになる。
グーグルが推奨する記事作成者マークアップのベストプラクティスは次の5つだ。
- すべての作成者をマークアップに含める
- 複数の作成者を個別に指定する
- その他のフィールドを使用する(
type
、url
、sameAs
など) author.name
プロパティに作成者の名前のみを指定する- 適切な
Type
を使用する(Person
またはOrganization
)
具体的な内容はドキュメントを参照してほしい。
専門家が書いた記事の場合、その専門家の情報を構造化データでより多く、正確にグーグルに伝えればE-A-Tを証明することにひょっとしたら役立つかもしれない。
- SEOがんばってる人用(ふつうの人は気にしなくていい)
- E-A-T重視なら必見! 記事筆者を構造化データでマークアップするベストプラクティス
- CDNはSEOに有利なのか?
- サイトマップを検索エンジンに見せてユーザーに見せないとクローキングになる?
- 確実に実践したい! ECサイトのスピードアップ施策×6
- ハッキングで生成された不正なページを削除したら404? 301?
- コンテンツマーケを本気でやるなら独自ドメイン名とデータの確保は必須
- 外部サイトへの発リンクはSEOにプラスかマイナスか?
- noindexとrel=canonicalの両方が設定されたページをGoogleはどのように処理するのか?
グーグル検索SEO情報②
CDNはSEOに有利なのか?
サーバーが十分に高速なら不要だが、ほかのメリットも多い (Google SEO office-hours) 海外情報
CDN(コンテンツ デリバリー ネットワーク)の利用はSEOにプラスに作用するのだろうか? 英語版オフィスアワーでのグーグルのジョン・ミューラー氏による見解はこうだ:
ユーザーの大半が同じ国・地域からアクセスしており、サーバーが高速で、ページの表示速度も十分に速いなら、CDNを使う利点はさほどない
一方で、アクセスする国・地域によっては非常に遅くなるのであれば、CDNは速度改善に役立つ。
サーバーの反応が遅いとグーグルのクロールやインデックスにも支障が出てくる場合がある(が、支障が出るようなサイトは実際にはほとんどない)
CDN経由で配信しているというだけの理由で、SEOで有利になることはない。これは間違いない。
CDNの最大の利点の1つは、アクセスしたユーザーに物理的に最も近い場所にあるサーバーから(キャッシュした)コンテンツを配信できる点だ。大元のサーバーへの距離が遠いとそれだけ時間がかかるし、通過するネットワーク環境によっては余計に表示速度が遅くなることがある。そういった場合でも、CDNを使っていれば表示速度の低下を避けられる。
とはいえミューラー氏は、ユーザーがアクセスする物理的な範囲が限られていて大元のサーバーが高速であれば、CDNは特に必要ないという意見だ。
だとしてもミューラー氏が言及していない価値がCDNにはあり、日本だけに向けたサイトでもCDNを使うメリットがあると筆者は考える。理由はいくつかあるが、たとえば次のようなものだ:
多くの場合、ユーザーにより快適な閲覧体験を提供できる(あなたのサイトが超高性能なサーバーとネットワークを使っているのでない限り)
画像の最適化やファイルの圧縮など高速化のさまざまな仕組みを自動で適用できる
キャッシュから配信するのでサーバーの負荷を抑えられる(特に、大規模でアクセスが多いサイトに役立つ)
大元のサーバーがダウンしていても、キャッシュからコンテンツを配信できる
不正な攻撃から防御してくれる(WAF機能をもつCDNの場合)
100ページほどの規模で、毎月のアクセスが数千くらいの個人運営のサイトであれば、CDNはたしかに必要ない(それでも表示を高速化するためにCDNを使う価値はある)。しかし、企業サイトであればCDNを利用する価値がある場合も多いだろう。
- SEOがんばってる人用(ふつうの人は気にしなくていい)
サイトマップを検索エンジンに見せてユーザーに見せないとクローキングになる?
問題なし (John Mueller on Twitter) 海外情報
「ユーザーと検索エンジンに異なるコンテンツを見せる」行為はクローキングといってガイドライン違反になる。では、次の行為もクローキングになってしまうのだろうか?
サイトマップを検索エンジンにはアクセスさせるが、ユーザーからはアクセスできないようにする。
クローキングにはならないようだ。グーグルのジョン・ミューラー氏は次のように述べている。
サイトマップへのユーザーのアクセスをブロックしても問題ない。サイトマップファイルは検索エンジンのためであり、それ以外からのアクセスを制限しているサイトもある。
サイトマップの中身を外部者には見せたくないという要望がもしあったとしたら、検索エンジン以外のアクセスをブロックしてもガイドライン違反ではないしランキングにも影響しないということだ。
- ホントにSEOを極めたい人だけ
確実に実践したい! ECサイトのスピードアップ施策×6
ECサイトじゃなくても採用できる (E-Commerce Magazine) 海外情報
ECサイトの表示速度の改善を解説する記事を紹介する。取り上げている施策は次の6つだ:
- ファーストビューをできるだけ速く表示する(体感速度の改善)
- ページの読み込み時間を短縮する(体感速度の改善)
- ブラウザの処理を減らす(処理速度の改善)
- 読み込むファイルの容量と数を減らす(処理速度の改善)
- 表示内容を減らす(処理速度の改善)
- 外部サービスや広告タグを見直す
速度改善の施策には、技術的に難易度が高いものが多い。しかし、この解説記事では、
- 表示速度改善に大切なポイントを比較的包括的に
- 難易度がさほど高くない手法を中心に
- 技術的になりすぎることなく
解説してくれている。つまり、ビジネス側の人でも理解しやすいということだ(言い方を変えると、確実に実践しておきたい施策ばかりだ)。
さらに言うと、「ECサイトの」としているが、実際にはすべてのサイトに当てはまる改善策でもある。ECサイト運営者でなくても役に立つ。
表示速度に関してしっかりやってきた人はおさらいとして、これから取り組もうという人は1つずつしっかりと理解するように読むといいだろう。
- すべてのECサイトWeb担当者 必見!
- 速度改善がんばってる人用
- 技術がわかる人に伝えましょう
ハッキングで生成された不正なページを削除したら404? 301?
削除して404を返すだけで十分 (John Mueller on Twitter) 海外情報
ハッキング被害にあったサイト管理者がグーグルのジョン・ミューラー氏に相談を持ちかけた。
サイトがハッキングされて、害を及ぼすファイルを埋め込んだページが1,500ほど作られてしまいました。そうしたページはすべて削除して、トップページにリダイレクトしています。この状態で不正なページは検索結果から消えますか?
ミューラー氏のアドバイスをまとめると次のとおりだ:
削除して、URLが404を返していればそれだけで十分。ページがなくなっていることの明確なシグナルになる
リダイレクトしても悪いことはない。リダイレクトエラーが報告されるかもしれないが、グーグルは適切に処理できる
Search Consoleで調べて、検索結果からのトラフィックが多いページがあるなら削除ツールで早急な削除をリクエストしてもいい
基本的には、ハッキングで生成された不正なページは削除して、404(または410)を返しておけば問題ない。わざわざトップページにリダイレクトする必要はない。
- (万が一のときのために)すべてのWeb担当者 必見!
コンテンツマーケを本気でやるなら独自ドメイン名とデータの確保は必須
外部サービスは終了が怖い (堀 正岳 on ツイッター) 国内情報
あるクリエイター向けメディアサイトが8月末でサービス終了することを発表した。利用者も多かったサービスだと聞いているが、サービス終了後はすべての記事が閲覧できなくなるとのことだ。
このサービス終了について堀正岳氏は次のように苦言を呈している:
最近は「自社サイトを作らなくても外部サービスでいいのではないか?」という傾向がある(特にコンテンツマーケティングで)。しかし8月で終了するこのサービスに限らず、外部サービスを利用してのサイト運用にはメリットとデメリット(リスク)があることを把握しておきたい:
- メリット
- (特に技術的な)環境を自分で構築しなくていい
- セキュリティ面の考慮を運営者に任せられる
- SEOの変化や新しい技術への対応を運営者に任せられる
- デメリット・リスク
- 細かいSEOなどのチューニングをしづらいことが多い
- サービスが終了すると、過去のコンテンツやリンク評価を失ってしまう
いろんなことをサービス側に任せてコンテンツ作成だけに注力できるという長所は、そのまま自分でコントロールできないという短所にもなり得る。
そして、企業が仕事として第三者のサービスでコンテンツを公開する場合の最も大きなリスクが、サービス終了だ。しかも、予算と工数をかけて作ってきたコンテンツを保持できないというのは悲劇としか言いようがない。これまで積み重ねてきた努力が無に帰す(ブランドとしての評判は残るかもしれないが、現物はなくなるし、リンク評価なども消え去る)。
個人の日記ブログならばそうした外部サービスを利用してもまったく問題ないだろう。しかしオウンドメディアのように、企業がコンテンツマーケティングの一環として運用するのであれば、話は違ってくる。少なくとも次の2点を確実にしたい:
コンテンツデータの確保 ―― 自分で作ったコンテンツのデータは自由にバックアップ・エクスポートできるサービスを選ぶか、不可能な場合は必ず公開前に手元に原稿や画像データを整理しておく
リンク資産の確保 ―― 最初から独自ドメイン名を利用する
2つ目の独自ドメイン名について補足しよう。
ブログサービスを利用しているサイト管理者に向かって、グーグルのジョン・ミューラー氏はSEO掲示板で次のようにアドバイスしていた。
自分のサイトを長期間運用したいのであれば、独自ドメイン名を使うことを私はいつも推奨する。
独自ドメイン名は、文字どおりあなたのビジネスだけの固有の名前だし、ブランディングにも役立つ。それだけでなく、SEOにも当然役立つ。というのも、リンクはURLに対して張られて、URLはドメイン名に紐付く。つまり、自社が所有しているドメイン名でコンテンツを公開していれば、コンテンツで獲得するリンク資産を自社が所有することになるのだが、他社のドメイン名ではリンク資産を自社が所有することにならないというわけだ。
ブログサービスなどを利用する場合でも、「独自ドメイン名のサブドメインを外部サービスのサーバーに割り当てる手法」を使えるサービスも多いので、そうしたところを利用したい。
そうしておけば、万が一利用しているサービスが終了しても、同じサブドメインで別にサイトを作れば、コンテンツで獲得したリンク資産を自社のものとしてまた利用できるようになる。
- すべてのWeb担当者 必見!
海外SEO情報ブログの
掲載記事からピックアップ
些細だけれど重要かもしれないSEOの疑問に対するグーグル社員の回答を2つピックアップ。
- 外部サイトへの発リンクはSEOにプラスかマイナスか?
良いSEOというのは、良い人間がするようなことをすること。
- すべてのWeb担当者 必見!
- noindexとrel=canonicalの両方が設定されたページをGoogleはどのように処理するのか?
重要なのは「矛盾した設定をしない」こと。
- ホントにSEOを極めたい人だけ
ソーシャルもやってます!