Moz - SEOとインバウンドマーケティングの実践情報

アクセス解析で測定/追跡すべきデータ - 『検索エンジン最適化の初心者ガイド』改訂版#10-1

まずはアクセス解析でどんなデータをチェックするべきかを解説する。

アクセス解析をどこから着手するか

計測が可能なものは改善が可能であり、検索エンジン最適化において、計測は成功を収めるために不可欠だ。SEOのプロは、検索順位やリファラー、リンクをはじめとするデータを追跡して、自らのキャンペーンの分析や成功へのロードマップ作りに活用している。

追跡すべき測定規準

それぞれのビジネスには固有の条件があり、Webサイトにとって重要な測定規準もそれぞれ異なるけれど、これから説明するリストはまずどこに行っても通用するだろう。留意してほしいのは、僕らがここで扱うのはSEO(検索エンジンへの最適化)に不可欠な測定基準だけだということ。したがって、ここに含まれないもっと一般的で重要な測定規準もある。アクセス解析全体を網羅的に扱ったものとしては、Avinash Kaushik氏がアクセス解析について書いている優れたブログの記事「アクセス解析のKPI(重要業績評価指標)を選ぶための8つのルール」をチェックしてほしい。

※Web担編注

上記リンク先の記事では、良いKPI(重要業績評価指標)の例として、まず次の6つを挙げている。

  • コンバージョン率
  • 平均客単価(購入額/売上額)
  • 購入(コンバージョン)までに要した日数/訪問回数
  • ロイヤルティ/訪問頻度
  • ユーザーがサイトを訪問した目的の達成度
  • 特定キーワードからの検索トラフィックの獲得シェア

そして、KPI選択の8つのルールを挙げている。

  1. 最初はシンプルで直接的で、結果として現れるような値から始める。
  2. 最も工数や費用をかけている分野の状況を明らかにする成功度の指標を活用する。
  3. セッション単位の測定を卒業して、複数セッションにわたる解析をする。
  4. KPIをセグメント化できないならば、選んだ指標は間違っている。
  5. ロイヤルティを使えば「ブランド」や「サイト利用状況」でさえも測定できる。
  6. 選んだKPIに顧客の声を直接的に反映するものが含まれていなければ、本来あるべき成功にはまだ遠い。
  7. 「現実世界」や「昔ながらの指標」につながるKPIを使えば、古いタイプの人を現代的な解析に慣れさせられる。
  8. コンペティティブ インテリジェンス(外部の情報を論理的に分析するプロセス、競合情報分析)のKPIを利用しないのは人間的ではない。

1. 全アクセス数に占める検索エンジントラフィックの割合

検索エンジンのトラフィックシェア

トラフィックのリファラーを毎月追跡することは必要不可欠だ。大きく分けて、リファラーには次のものがある。

  • 直接ナビゲーション――URLの直接入力、ブックマーク、トラッキングコードのないメールのリンクなど。
  • 参照トラフィック――ウェブ上のリンク、トラッキングできるメールのリンク、プロモーションやブランドキャンペーンのリンク。
  • 検索エンジン――大手や中小の検索エンジンにおける検索結果からもたらされるトラフィック。

これらの割合と正確な数を把握しておけば、サイトの強みと弱みを見つけるのに役立つし、傾向データを時系列で比較する際にも役に立つ。たとえば、トラフィックが急増したがそれは関連性の低い参照元のリンクからのもので、逆に検索エンジンやURL直接入力によるトラフィックが減っているのならば、生の数値が示すよりも問題は深刻だということがわかる。このデータを宣伝効果の追跡やトラフィック獲得活動の広範な尺度として使うべきだ。

2. 検索エンジンごとのアクセス数

検索エンジンのシェア

米国では3大検索エンジン(ヤフー、MSN/Live、グーグル)で全検索トラフィックの95%以上を占めている。米国外では検索トラフィックの80%以上がグーグルからのものだ(ただし日本、ロシア、中国、韓国、チェコは除く――日本ではヤフーが60%~70%のシェアをもっている)。検索トラフィックにおける各エンジンの貢献度を測定することは、いくつかの理由で重要だ。

  • 実績と市場シェアの比較――(上の画面ショットが示すように)検索エンジンを全体的に追跡するだけでなく、国ごとに追跡することで推定市場シェアと比較しながら各エンジンの貢献度を把握できる。年齢層が若かったり、技術に精通した人が多いテクノロジーやインターネットサービスなどの分野では、料理やスポーツ、不動産など(これらの分野ではComScoreなどの調査会社が出す推定シェアに近い)よりもグーグルのシェアが高くなる傾向がある。

  • トラフィックが減少した場合の原因がわかる――どこかの時点で検索トラフィックが急落した場合、各エンジンの相対的な貢献度と正確な数値がなければ問題の診断ができない。全部のエンジンで等しく落ちている場合は、クローラのアクセスに問題があることが明らかだ。グーグルだけ落ちていて他の検索エンジンでは変化がない場合、君のSEO活動がグーグルだけからペナルティや評価格下げを受けている可能性が高い。

  • 戦略的価値の可視化――よくあることだが、SEOで実施した活動が、特定の検索エンジンだけで特に高い効果を上げることがある。たとえば、僕たちが繰り返し取り上げているように、キーワードの挿入やターゲティングなどによるページ最適化はMSN/Liveやヤフーで特に良い結果が出るが、多数のドメイン名から特定のアンカーテキストが付いたリンクを獲得するやり方は、グーグルで高い効果を上げる。ある1つの検索エンジンで効果の上がる方法(あるいは、他のエンジンでは効果の上がらない方法)を見つけられれば、活動の焦点をどこに置けばよいかがよくわかるはずだ。

検索エンジンのうちの1つから来るトラフィックが(一般的な市場シェアに比べて)少ないからと言って、すぐに大あわてする必要はない。検索エンジンにも他のリファラーと同じように使用者層の違いやバイアスがある。例を挙げれば、米国ではグーグルのシェアは65~70%と推定されているが、僕らが仕事で扱ったサイトの大多数(それに検索マーケティング業界の知り合いや同僚からの報告でも)では、トラフィックのシェアでグーグルが80~85%を占めるのが当たり前だった。どうしてこういうことが起きるかについては、いろんな理由が挙げられる。

  1. ヤフーでは特定のサイトを探すクエリが多い(たとえば、ヤフーでいちばん多いクエリは「Google」だ)。それに対して、グーグルのクエリは情報を探すものが多い

  2. 多くの専門家が、ヤフーは有料登録プログラムに参加しているサイトを優遇していると考えている(一部はそれを示唆する個人的なデータも持っている)(※Web担編注:日本では米ヤフーの有料登録プログラム相当の商品はない)

  3. ヤフーはかなり大量のトラフィックをヤフー自身のウェブ資産に流している(一方グーグルはWikipediaがお気に入りのようだ)

ComScoreやHitwise、Compete.comのデータだけに頼って検索エンジンのシェアを判断したりせず、必ず自分で調べること。調査するには、いくつかの検索エンジンにクリック課金(PPC)広告を出してインプレッションデータを比べ、各エンジンにおける検索順位をチェックし(ヤフーの順位がグーグルと同じかそれより高いときは機会損失はなく量が少ないだけ)、愚かな間違いをしていないことを確かめよう。たとえば、他の検索エンジンのスパイダーをブロックし、グーグルにおける検索結果の表示を管理するためにmeta robotsタグの「NOODP」を使ったのに、ヤフーに対しては「NOYDIR」を使い忘れた、といった間違いのことだ。

3. 検索エンジンにおける特定のキーワードからもたらされるアクセス

上位の参照キーワード

トラフィックを送り込んでくる検索語句も、分析しなければならない重要な要素だ。これを定期的に追跡しておけば、キーワード需要の新しい傾向を見極めたり、重要な語句についてサイトのパフォーマンスを測定したり、それから、大きなトラフィックをもたらしているのに十分なサービスを提供できていない可能性のある語句(たとえば、順位が高くてアクセスをたくさん獲得しているのに、検索者の目的を満たすコンテンツがない場合)を発見したりするのに役立つ。

トラフィックの少ない検索語句でも、自分のビジネスにとって重要な語句なら検索エンジン経由のアクセス数を追跡する意味はある。その検索語句によるトラフィックが減少している場合は、軌道を修正するための取り組みが必要だ。検索トラフィックはこの15年間、世界中で大きく増え続けているので、トラフィックの減少は問題だ。季節的な問題(特定の曜日や、1か月あるいは1年のうちの特定の時期にしか需要がないキーワードなど)と検索順位(自サイトの順位が落ちたのか、検索ボリュームが減ったのか)をチェックしよう。

4. 検索キーワードごとのコンバージョン率

検索語句ごとのコンバージョン率

企業の損益を考える上で、コンバージョン率ほど重要な測定基準はない。しかし、最終リファラーがコンバージョン率に与える影響はうまく分析できないことが多く、そうなると、「コンバージョンに至った」訪問者がどこから来たのか、正しく把握できなくなる。

たとえば上の表を見ると、「check backlinks」というクエリでSEOmozにやってきた訪問者の4.46%がそのときに会員登録したことがわかる。しかし、(少なくともこの単純な解析では)その訪問者のうちすでに登録していたのは何人で、その後登録した人は何人いたのかわからないし、訪問者のうち初めてサイトを訪れた人がどれくらいの割合だったかすら不明だ。

この手の単純化された追跡から得られる真の価値は、「楽に成果を上げられる」キーワードがわかることだ。つまり、コンバージョンにつながるアクセスを継続的に呼び込んでいる語句を見つけ、そのキーワードの順位とトラフィック双方に一層注力し、ビジターの到達するランディングページを改善すればいい。検索キーワード→コンバージョン率の追跡は確かに重要だが、それがすべてではない。より深く掘り下げれば、サイトでのコンバージョンがどこから始まりどこで終わるのか、興味深くて有用なデータを発見できるだろう。

5. 検索エンジンからのアクセスが1回以上あるページの数

グーグルからトラフィックを得たページ

検索エンジンからトラフィックを受け取ったページの数は、SEOの全体的なパフォーマンスを監視するのに不可欠な測定基準だ。この数値から、インデックス化(検索エンジンは自サイトのうち何ページをインデックスに取り込んでいるか)の状況を概観できるし、さらに重要なのは、傾向の変化を時間を追って確認できることだ。トラフィックを稼ぎたい大規模な(5万ページ以上の)Webサイトにとっては、まずはインデックスに入ることが重要なステップだ。この数字は成功か失敗かを示す数字として追跡できる。サイトのアーキテクチャやリンク獲得、XMLサイトマップ、コンテンツの独自性、メタデータなどの問題に取り組んでいけば、右肩上がりの傾向線が現れ、検索エンジンの検索結果に表示されるページがどんどん増えていくのがわかるはずだ。検索トラフィックを受け取るページは、ロングテールを測定する最良の規準だと考えていいだろう。

◇◇◇

他の分析データポイントも大いに重要だが、今まで述べてきた項目はSEOキャンペーンから最高の価値を引き出すため、あらゆる場合に利用できるものだ。このトピックについては、以下でさらに詳しい記事が読める。

次回は、今回説明したようなデータを測定/追跡するためのソフトウェアやツールをご紹介しよう。

この記事が役に立ったらシェア!
メルマガの登録はこちら Web担当者に役立つ情報をサクッとゲット!

人気記事トップ10(過去7日間)

今日の用語

勝手広告
企業広告を消費者や第三者が勝手に作って公開する自主制作の広告。 ...→用語集へ

インフォメーション

RSSフィード


Web担を応援して支えてくださっている企業さま [各サービス/製品の紹介はこちらから]