グーグル検索結果の順位別クリック率2014年版 + ページランク正式終了!? のお知らせ など10+4記事
今週は、海外記事から2記事を注目記事としてピックアップ。検索結果での順位別クリック率の話題と、「今後ページランクは更新しない」とグーグルが明言した件だ。
グーグル検索結果の順位別クリック率2014年版+7種類の調査データ
過去調査との比較あり (Moz)
検索結果における順位ごとのクリック率(以下、CTR)を調査した結果を、Caphyon社が公開した。グーグルウェブマスターツールの検索クエリのデータをもとに計測している。
順位とCTRの全体の結果は次の表のとおりだ。
グーグル検索 での順位 | CTR |
---|---|
1位 | 31.24% |
2位 | 14.04% |
3位 | 9.85% |
4位 | 6.97% |
5位 | 5.50% |
6位~10位 | 3.73% |
ただし、このデータは純粋に集計したもので、検索意図のタイプ(情報収集するインフォメーショナルクエリや特定のサイトを探すナビゲーショなるクエリなど)や検索結果の種類は考慮に入っていないし、対象はPCのみだ。
参考のために、過去に行われた他社の調査結果と並べたものを掲載しておこう。
検索順位 | AOL (2006年) | Enquiro (2007年) | Chitika (2010年) | Optify (2010年) | Slingshot (2011年) | Chitika (2013年) | Catalyst (2013年) | Caphyon (2014年) |
---|---|---|---|---|---|---|---|---|
1位 | 42.3% | 27.1% | 34.4% | 36.4% | 18.2% | 32.5% | 17.2% | 31.2% |
2位 | 11.9% | 11.7% | 17.0% | 12.5% | 10.1% | 17.6% | 10.0% | 14.0% |
3位 | 8.4% | 8.7% | 11.4% | 9.5% | 7.2% | 11.4% | 7.6% | 9.9% |
4位 | 6.0% | 5.1% | 7.7% | 7.9% | 4.8% | 8.1% | 5.3% | 7.0% |
5位 | 4.9% | 4.0% | 6.2% | 6.1% | 3.1% | 6.1% | 3.5% | 5.5% |
ただし、注意してほしい。各社の調査方法にさまざまな違いがあるため、このデータは単純に比較するべきものではない。
たとえば、Caphyonの結果にしても、サイト名や会社名を探すブランド検索とそうでない検索を比較すると、特に1位のCTRには大きな開きがあることがわかる。
このほかにも、検索の意図やキーワードの語数などさまざまな条件でCTRは変わってくる。また同じ検索結果に出る他のページのタイトルやスニペットにもCTRは左右される。しかもその影響度はデータでは測ることができないだろう。
こう考えると、順位ごとのCTR調査というのはすべての検索結果に当てはめることはできない。間違いなくはっきり言えることは、「検索結果の1位はいちばんCTRが高く、多くの場合は、2位と比べて倍近くまたはそれ以上、5位と比べると数倍の開きがある」だけかもしれない。
PageRank正式終了(!?)のお知らせをグーグルが発表
ただしツールバーのPageRank (Google Webmaster Central office-hours)
ページランクを更新することは、おそらくこの先ないだろう。
グーグルのジョン・ミューラー氏は、10月6日(日本時間)に開催した英語版のオフィスアワーで、このようにコメントした。もちろん、これはグーグルツールバーのPageRank(通称、TBPR)のことだ。
つまり、あなたがツールバーやさまざまなSEOチェックツールで数値として確認できるPageRankの値は、今後、更新されず、意味のない数値のままになるということだ。
TBPRは、当初は3~4か月ごとに更新していた。しかし、次第に更新間隔が空くようになり、最後の更新は10か月前の昨年12月だった。この更新にしてももともと予定していたものではなく、事情があり実行したに過ぎない。
つまり、TBPRはもうその存在意義を失っている。TBPRはSEOの成功指標ですらないことはグーグル自身が言っていることだ。
したがって一般のウェブ担当者にとって、TBPRがなくなったからといって困ることは何もない。SEO関連のビジネスを営んでいる一部の人たちが多少の影響を受けるくらいだろう。
とはいえ、SEOの世界に古くから携わっている人間からしたら、寂しい気もするはずだ。TBPRの監視はSEOのもっとも重要なタスクの1つだった。TBPR更新のたびに「上がった・下がった」と筆者も一喜一憂したものだ。
なお、グーグルがランキング付けするためのアルゴリズムとして利用しているPageRank(通称、リアルPageRank)がなくなったわけではない。PageRankは、グーグルの順位決定に関わる、依然として重要なアルゴリズムの1つだ。今でも改良を続けている。ただし本当のPageRankの値がどうなっているかは、外部の人間には決してわからない。これまでも、これからも。
日本語で読めるSEO/SEM情報
検索結果を見て有益なコンテンツを作る、思いもしなかった方法
そのキーワードを検索エンジンがどうのように理解しているかを知る (ITmedia)
ユーザーが使う検索キーワードを知ることはSEOにおいて非常に重要だ。検索キーワードをもとにしてユーザーが何を求めているかを知り、それに応えるコンテンツを作る。
しかし単にキーワードを含んだ記事を書くのではなく、そのキーワードで検索したユーザーを満足させる記事を書かなければならない。
これを実現するための1つの手段として、検索結果を確認して、検索エンジンがそのキーワードをどう解釈しているのかを理解することを、こちらの記事は勧めている。
検索エンジンがキーワードをどう解釈しているか理解できれば、検索エンジンがどんなコンテンツを検索ユーザーに提示したいと思うのかがつかめ、それをコンテンツ作りに活かせるというわけだ。
もちろん、その検索に対してどんなコンテンツが現状で存在するかがわかるし、ユーザーがどんな情報を求めているかのヒントも得られる。
難しいことではなく、簡単に実行できるやり方だ。ユーザーを満足させるコンテンツ作りのために参考にしよう。
上質なコンテンツを作る秘訣はチーム戦
分業体制で取り組むとメリットがたくさん (リアルタイムSEO日誌)
被リンク獲得にもつながる上質なコンテンツを分業体制で作りあげるやり方を解説した記事。
コンテンツをだれか1人で「がんばって」作るのではなく、次の3つの役割それぞれに担当者を割り当て、分業で1つのコンテンツを作っていくというやり方だ。
- スピーカー: コンテンツの内容を考えて、コンテンツとして含めるべき内容を話す担当(文章は書かない)
- ライター: スピーカーが話した内容を書きとめ、改めて整形して返信する担当(その内容に詳しいとは限らない)
- 登録作業者: ライターが書き起こした文章をHTML化してWordPressに投稿する担当
このように分業することで、次3つのメリットが得られたそうだ。
- スケジュールが保たれる
- 記事の質が向上する
- 作業負荷を最小限にとどめられる
結果的に、1か月に100記事以上の製作が可能になったとのことである。そして、ツイッターやフェイスブックでシェアされ、被リンクの獲得にもつながったそうだ。
実はこちらのサイトは、SEOとは直接の関係がない一般企業の経営者が、ホワイトハットのSEOを実践して自社のサイト運営をリアルタイムで綴っていくブログで、このコーナーでも、何度か以前にピックアップしたことがある。
ところがいつのころからか更新がピタッと止まってしまった。というのも、多様な業務が忙しすぎて、コンテンツを作る余裕がなかったとのことだ。
しかし、この記事で紹介したような手法をとることで余裕を作り、1年以上のブランクを経て更新を再開した。
実践から導かれた役立つノウハウを公開しているので、今度こそは継続してほしいものだ。
スマホにFlashを見せようとするサイトは、グーグル検索結果で警告表示
あらゆるデバイスに対応するためのHTML5 (グーグル ウェブマスター向け公式ブログ)
日本のグーグルのモバイル検索(スマートフォンからの検索)で、大部分がFlashでできているページが検索結果に出たときに、「正常に動作しないかもしれない」というメッセージがスニペットに表示されるようになった。
米グーグルでは今年の7月に導入されていた通知形態だ。
グーグルは現在、HTML5の使用を推奨している。現在使われているすべての端末に対応したウェブサイトを開発するためだ。そしてHTML5を採用しやすくするために、次の2つのドキュメントを公開している。
- Web Fundamentals: ウェブサイト作成のベスト プラクティスを集めた用例集(英語)。
- Web Starter Kit: Web Fundamentals の用例を応用して、ウェブサイトを一から作るためのフレームワーク(英語)。
どちらも英語なのが難点だが、サイトの開発に携わる立場なら目を通しておいたほうが良さそうだ。
またグーグルが推奨するモバイル構成のレスポンシブ・ウェブデザインの関連情報もあわせて紹介している。
また、元記事の最後に書かれている次の補足も重要だ。
Googlebot がサイトのすべてのサブ リソース(CSS、Javascript、画像ファイル等)にアクセスできるよう robots.txt などの設定をしてください。すべてのサブ リソースにアクセスできることで、Google のアルゴリズムは、ページがレスポンシブ デザインであることを検出しやすくなり、ひいては適切に評価することができます。また、ウェブマスター ツールには、インデックスに登録するアルゴリズムがどのようにウェブサイトを認識しているかを調べるための Fetch as Google という機能があります。
Fetch as Googleの送信数がリセットされるタイミング
URL取得から1か月後 (グーグル ウェブマスター向け公式ヘルプフォーラム)
グーグルが認識しているHTMLの状態を把握できる、ウェブマスターツールの「Fetch as Google」は、1か月に500件までURLを取得できる。
この「1か月」とは、いつからいつまでを指すのだろうか? 上限に達してしまったら、どれぐらい待てばFetch as Googleをまた使えるようになるのだろうか。
公式ヘルプフォーラムでグーグル社員のKiyotaka氏が説明した。
URL 送信数は最初の URL を送信した日から 1 か月後にリフレッシュされます。
例えば、500 URL を 9 月 5 日に一気に送信した場合は、その 1 か月後の 10 月 5 日前後に、そして例えば 499 URL を 9 月 1 日に送信して残りの 1 URL を 9 月 5 日に送信した場合は最初の URL を送信した日の 1 か月後の 10 月 1 日前後にリフレッシュされます(月の日数によって若干前後することがあります)。URL の送信はカレンダーの月ごとではなく 1 か月の期間でカウントされ、その期間は初めて URL を送信したタイミング、または最後にカウントがリフレッシュされてから 1 か月以上経過後に初めて URL を送信したタイミングからスタートします。
少しわかりづらいが、Fetch as GoogleでURLを最初に送信した日から、1か月のカウントが始まるようだ。つまり、月末に送信数がリセットされるというように、カレンダーに従っているわけではない。
また、しばらくFetch as Googleを使っていないと(1か月のリセット後、さらに1か月)、そのあとにFetch as Googleを使ったタイミングで、また1か月のカウントが始まるようだ。
なお送信件数の上限についてヘルプには次のように書かれている。
1 週間に割り当てられている取得操作は 500 回です。
これは誤りで、1か月間に割り当てられる取得操作が500回だ。グーグルは認識しており、近いうちに修正が入ると思われる。
新しいサイトリンク検索ボックスの仕込みには2週間が必要
2週間待っても適用されていなければ設定ミスかも (辻正浩 | Masahiro Tsuji (@tsuj))
新しくなったサイトリンク検索ボックスに関して辻正浩氏が次のようにツイートした。
一方、木村將はGoogle+で次のような投稿をシェアした。
具体的なサイト名に木村氏は言及していないが、筆者には見当がついたので確かめてみた。たしかに、サイトリンク検索ボックスからそのサイトのサイト内検索結果へとリダイレクトされていた。schema.orgのSearchActionを使ったJSON-LDによるコードも確認できた。
2人の観察結果からすると、新しいサイトリンク検索ボックスの設定は2週間前後でグーグルに認識されると考えてよさそうだ。
設定しているにもかかわらず、2週間以上たってもサイト内検索結果へリダイレクトされないとしたら、コードに記述ミスがないかをチェックしたほうがいいかもしれない。
海外SEO情報ブログの
掲載記事からピックアップ
スマートフォン向けサイトのユーザビリティとHTTPSアルゴリズムに関する記事を今週はピックアップ。
- スマホ向けページに設置するPC向けページへの切り替えボタン・リンクは本当に必要か?
スマホサイトで勝負する覚悟を持つ! - HTTPからHTTPSへ移行しても目に見えるランキング上昇はないし手動対策の解除にも役立たない
関連性・質を上回る影響力は持たず
- Googlebotがクロールをやめる2つの状況
- 管理者なのにウェブマスターツールにユーザーを追加できないのはなぜ?
- グーグルさん、リンクが本当に否認されたかどうか教えてください
- 3分で分かるナレッジグラフ講座
- パンダアップデート4.1でダメージを受けたのはゲームと歌詞サイト
海外のSEO/SEM情報を日本語でピックアップ
Googlebotがクロールをやめる2つの状況
接続時間とHTTPステータスコード (Search Engine Land)
Googlebotがクロールの速度を落としたりクロールをストップしたりする状況を、グーグルのゲイリー・イリーズ氏が、9月30日~10月1日に米ニューヨークで開催されたSMX Eastカンファレンスで解説した。
イリーズ氏が指摘したのは次の2つだ。
接続時間
サーバーとの接続にかかる時間が次第に長くなってくると、クロールの速度を落とし始め、最終的にはクロールするのをやめてしまうかもしれない。
HTTPステータスコード
500番台のHTTPステータスコードをサーバーが返した場合は、クロールを停止する。503を返しておけば、インデックス状態には変更を加えず、しばらくした後に再度訪問する。
2つ目はサーバー管理者が計画メンテナンスしていることも多いのでともかくとして、1つ目は要注意だろうか。サーバーのレスポンスが悪いと、Googlebotのクロールに支障が出ることがあるそうだ。サーバーに余計な負荷をかけないようにGooglebotが接続を控えるだめだ。
管理者なのにウェブマスターツールにユーザーを追加できないのはなぜ?
サイト所有者だけに与えられた権限だから (Google Webmaster Help Forum)
ウェブマスターツールの管理者ですが、他のユーザーを追加できません。どうしてでしょうか?
こんな質問が英語版の公式ヘルプフォーラムに投稿された。
理由は単純だった。管理者権限のあるフルユーザーではあるが、所有者ではなかったため、他のユーザーを追加する権限を持っていなかったのだ。
ウェブマスターツールでユーザーに指定できる権限には、実行できる操作に応じて次の3タイプがある。
- サイト所有者
- フルユーザー
- 制限付きユーザー
このなかで、他のユーザーを追加できるのはサイト所有者だけだ。サイト所有者になるには、確認用HTMLファイルや確認用metaタグなどでサイト確認を完了させなければならない。
フル ユーザーはサイト所有者とほぼ同等の権限を持つが、ごく一部の操作を実行できない。ユーザーの追加はそのうちの1つだ。
ウェブマスターツールのユーザー権限についてはヘルプに詳しく書かれている。
グーグルさん、リンクが本当に否認されたかどうか教えてください
「すでに教えている」って…… (The SEM Post)
リンクの否認ツールを利用して否認申請したリンクが本当に否認されているかを調べる方法はない。だが、どうにかして知りたいと思ったことはないだろうか?
グーグルのゲイリー・イリーズ氏は、そうした要望に耳を傾け、社内に持ち帰って可能かどうかを話し合ってみると、SMX Eastカンファレンスでコメントしたそうだ。
もし実現したら嬉しいことだ。
ところが、グーグルのジョン・ミューラー氏は実現性が極めて低そうな発言をGoogle+で残している。
否認ファイルをアップロードすれば、どのように処理するかの情報をすでに伝えている。日時やURL数、ドメイン数にエラーがあればその情報もだ。否認ファイルはアップロード後すぐに処理される。アップロードに成功したことは即座に確認できる。
ミューラー氏が言うように、そうした情報を伝える通知が否認ファイルをアップロードするとたしかに送られてくる(英語だが)。
しかし我々が本当に知りたいのは、リンクが実際に否認されたのかどうかだ。このメッセージはそれを伝えてはいない。
SEO Japanの
掲載記事からピックアップ
セマンティック検索とパンダアップデート4.1に関する記事を今週はピックアップ。
- 3分で分かるナレッジグラフ講座
セマンティック検索の概観がわかる - パンダアップデート4.1でダメージを受けたのはゲームと歌詞サイト
パンダ4.1に影響を受けたサイトの傾向
ソーシャルもやってます!