検索エンジン最適化の効果測定ツール - 『検索エンジン最適化の初心者ガイド』改訂版#10-2
この記事は、『検索エンジン最適化の初心者ガイド』をセクションごとに書き直していく過程のエントリだ。この構想については、概要を見てもらえば、もっとよくわかるだろう。
測定/追跡すべきデータについて説明した前回に続いて、今回はそのためのソフトウェアやツールを紹介する。
無料の解析ソフトウェア
完全に無料で利用できる非常に質の高い解析ソフトウェアがたくさんある。Webサーバーにインストールしてログファイルベースのデータを収集/解析するものもあれば、ページにJavaScriptを埋め込んで個々のアクセスデータを取得するものもある。多くの場合は、アクセス解析をしようと思ったら、ソフトウェアを利用することになるだろう。というのも、生のアクセスログファイルを解析するのはとてつもなく退屈で時間がかかるうえ、Webサーバーのアクセスログファイルにアクセスする方法さえわかっていない組織も多いからだ。ソフトウェアを使って追跡しよう。無料で使えるアクセス解析ツールなんて……という心配は無用。なかなかどうして、すごく優秀なソフトがいくつもある。
無料の解析ソフトウェアでお勧めは以下の通り。
- Google Analytics
- Clicky Web Analytics
- Piwik Open Source Analytics
- Woopra Website Tracking
- AWStats
- Yahoo!アクセス解析(かつてのIndextools)
この中から選ぶのは難しいが、この記事の公開時点でイチオシはGoogle Analyticsで(プライバシーに対してあまり神経質でなく、少しくらいのデータの遅れを気にしなければ)、その次は僅差でClickyだ。米ヤフーのYahoo!アクセス解析もイチオシになるかもしれない(SEOmozでもIndextools時代から3年間ほど利用している)。
WebページでJavaScriptが使えず、ログファイルベースの手法が必要なら、AWStatsが一番のお勧めだ。ただし、ログファイルベースの追跡では、クリック経路の流れや、初回訪問と参照の比較といった重要な測定規準を、Cookie/セッションベースのソフトウェアほど精確に追跡できないのが難点だ。
有料の解析ソフトウェア
有料の解析ソフトウェアは数十種(もしかしたら数百種)あるが、このガイドでは人気の特に高いものを紹介するにとどめる。
- Omniture SiteCatalyst
- Urchin
- Clicktracks
- Fireclick
- Mint
- Sawmill Analytics
- Clicktale
- Enquisite
- Coremetrics
- Unica Affinium NetInsight
残念ながら、僕らはどれか1つを取り立てて勧められるほどの経験がない。でも、非常に優れた分析と比較が以下のページで読める。
- アクセス解析ツール&サービス20種類 徹底比較!一覧表 2008パワーアップ版(Web担当者Forum)
- アクセス解析ツール&サービス13種類徹底比較! 史上最強の機能比較表(Web担当者Forum)
- 「2007年版アクセス解析ソフト徹底比較」――解析ソフトウェアごとにデータ追跡方法がどう異なるか計測している(StoneTemple Consultingのエリック・エンゲ氏)
- 「アクセス解析ソリューションの選び方」――ブライアン・アイゼンバーグ氏の記事で、掲載されたのは2003年(だが今なお通用する妥当性と質を持っている)
- 「アクセス解析ソリューション完全ガイド」――ConverRater.comの2006年の記事(OmnitureとWebSideStoryの区別など、一部のデータは今や意義が薄らいでいる)
検索エンジン最適化の効果の測定規準
オーガニックSEOにおいて、検索エンジンアルゴリズムの特定要素を追跡するのは、データが非公開なうえ、十分な調査も行われていないため難しい。しかし、複数の手法の組み合わせがベストプラクティスとして使われるようになったし、直接的な順位決定要素や順位の上昇/下落を示すシグナルを追跡するのに役立つ新しいデータも次々に登場している。これから紹介するデータは僕らが顧客のキャンペーンに時々利用するもので、解析と組み合わせれば付加価値が生まれることが実証されている。
検索エンジンから得られる指標
グーグルのウェブマスターツール、ヤフーのサイトエクスプローラー、マイクロソフトのウェブマスターツールなどのサービスで提供されているデータポイントについては、すでに多く説明している(このガイドの#8-2「検索エンジンが提供しているウェブマスター向けツール」を参照)。
検索エンジンからはこのほかにも、一般に利用できるクエリや競合情報分析などを利用して、いろいろなことがわかる。以下のリストは、検索エンジンが提供するクエリ/ツール/指標と、その用途をまとめたものだ。
グーグル
- グーグルの「site:」クエリ
例:「site:seomoz.org」
あるドメイン名にあるページのうち、インデックス化されているページを表示させたりその数を調べたりするのに便利だ。クエリパラメータをさらに追加してもっと有用なデータを取得することもできる。たとえば、「site:seomoz.org/blog inurl:tools」というクエリを使うと、グーグルがインデックス化しているSEOmozブログのうち、URLに「tools」という単語を含むページだけが表示される。 - グーグル「link:」クエリ
例:「link:www.seomoz.org」
残念ながら、グーグルは2004年、このクエリの結果にリンクのサンプルしか表示されないように変更した(しかもサンプルのパターンは相対的はなく、コロコロ変わる)。この変更によって、link:クエリの価値が激減してしまった。nofollow属性付きのリンクが表示されることもあるし、重要度順に並べられてもいない。このクエリはお勧めできない。 - Google Trends
「Google.com/Trends」で利用可能キーワードの検索量/人気度のデータを時系列で閲覧できる。グーグルのアカウントにログインすれば、傾向線だけでなく、グラフ上の数値も確認できる。 - Google Trends for Websites
Trends.Google.com/websitesで利用可能
グーグルのデータソース(ツールバー、ISPデータ、解析なども含まれる)に基づいたWebサイトのトラフィックデータを閲覧できる。アカウントにログインすれば、トラフィックの水準を示すグラフ上の数値も閲覧できる。 - Google Insights for Search
google.com/insights/searchで利用可能
このツールは、あるキーワードについて、地域別の使用状況、人気、および関連するクエリなどのデータを示してくれる。
ヤフー
- ヤフーの「site:」クエリ
例:site:seomoz.org
グーグルの「site:」クエリとほぼ同じように、特定のサイトについて、ヤフーのインデックスに入っているページの数を把握できる。
米ヤフーでは通常の「site:」クエリだと自動でヤフーのサイトエクスプローラーにリダイレクトされるが、「site:seomoz.org inurl:rand」のようにパラメータを追加して詳細なクエリにすれば、ヤフーの標準的な検索結果と同じ形式で結果が返ってくる。 - ヤフーの「link:」クエリと「linkudomain:」クエリ
例:「linkdomain:seomoz.org」
たとえば、SEOmoz.orgへのリンクで、title要素に「google」という単語を含むものを表示するには、「linkdomain:seomoz.org intitle:google」とする。ヤフーの「link:」クエリは大手エンジンの中ではもっとも強力で正確だが、nofollow属性付きのリンクまで表示されてしまう(一見してわかる違いもないので、価値を受け渡してくれるリンクを区別するのに苦労する)。
米ヤフーでは、「site:」クエリと同様に、他のパラメータを付けなければサイトエクスプローラーにリダイレクトされる。
マイクロソフト
※Web担編注 現在はマイクロソフトはMSN/liveからBingに移行した。以下のクエリはBingでも同様に利用できる。
- MSNの「site:」クエリ
例:「site:seomoz.org」
ヤフーやグーグルと同様に、MSNのクエリでもインデックスに取り込まれているサイト内のページの数とそのリストを表示できる。困ったことに、MSNの出す数字は乱高下して非常に不正確なため、その数自体が使えないこともある。 - MSNの「ip:」クエリ
例:ip:216.176.191.233
このクエリは、指定したIPアドレス上でマイクロソフトのエンジンが見つけたページを表示するものだ。共用ホストを特定したり、同じIPアドレスでホスティングされている他のサイトを確認したりするのに便利だ。 - Microsoft AdCenter Labs
「adlab.microsoft.com/alltools.aspx」で利用可能
マイクロソフトでは、主に検索広告やディスプレイ広告で使用するために、多種多様なキーワード調査ツールや利用者情報分析ツールを提供している。このガイドでは個々のツールの有用性については掘り下げないが、調べてみる価値はあり、SEOに利用できるものも多い。
Ask.com
- Askの「site:」クエリ
例:「site:seomoz.org inurl:www」
Ask.comの「site:」クエリは、演算子の使い方に関する要件が少々細かい。正しく機能させるには、追加のクエリを使用する必要がある(ただし、この例のようにシンプルなクエリでも、一般的な「site:」クエリで通常返ってくる程度の結果を見るのには使える)。
グーグルのブログ検索
- ブログ検索の「link:」クエリ
例:「link:www.seomoz.org/blog」
グーグルの通常のウェブ検索では、「link:」コマンドはあまり便利ではないが、ブログ検索の「link:」クエリでは概して質の高いデータが得られるし、時系列や関連度の順に並べ替えることもできる。
実行可能なソリューションを伴う情報ニーズがあってこそ、こうしたクエリやツールを効果的に利用できる。データそれ自体には価値がない。価値につなげるには、知らねばならない情報を入手したら何を変更/構築/実行するかという計画を持っていなければならない(これは競合分析にも当てはまる)。
さらに詳しくは、「プロフェッショナルのための一歩進んだ検索コマンドガイド」(有料コンテンツ、英語のみ)を読んでほしい。このテーマに関する極めて詳細で徹底したリソースだ。
次回は、これまでに述べてきたような方法で入手したデータを、実際のキャンペーンではどのように活用すべきか考えてみよう。
ソーシャルもやってます!