SEOの“新”ベストプラクティス(後編) - 301リダイレクト/robots.txt/Search Wiki/リンク/実トラフィック など
3回に分けてお届けしてきたこの記事も、ようやく今回が最後となる。前編、中編に引き続き、SEOmozがお勧めするさまざまなベストプラクティスを見ていこう。
- 前編
title要素の書き方/h1要素の有用性/nofollowの有用性 - 中編
URL正規化タグ「rel="canonical"」の有用性/画像の代替テキストの使用/meta keywordsタグの使用/パラメータを含むURLの使用/フッターリンクの有用性/JavaScriptやFlashの使用 - 後編(この記事)
301リダイレクトの使用/検索エンジンのブロック/グーグルの「Search Wiki」が検索順位に与える影響/「悪しき隣人」から張られた好ましくないリンクの影響/順位に対するトラフィックの重要性
301リダイレクトの使用
僕らはページをリダイレクトするための最善策として301リダイレクトを推奨するが、欠点も持ち合わせていることを警告しておく。
根拠
独自のテストや検索エンジニアからの公式発表から、301リダイレクトによってリンクジュースの1%~10%程度が失われるとの確証をほぼ得ている。あるURLから別のURLへ移動させなければならず、それ以外に手段がない場合の不利益として許容できる範囲だし、リンクジュースをほとんど渡さない他の手段(JavaScriptや302リダイレクト)よりもずっと有効だ。
僕らのテストでは、リンクジュースや検索順位を受け渡すという点では、meta refreshタグは、301と大体同じように機能するらしいという結果が得られている。ただし、検索エンジンが301リダイレクトの方を推奨しているので、僕らもこれに従う。
検索エンジンのブロック
一般的に、meta robotsタグ(noindexとfollow)の方がrobots.txtよりもよい。robots.txtファイルは便利だが、meta robotsタグが使えないときに限り、控えめに使うべきだ。
根拠
robots.txtは検索エンジンのクローラがページを訪問しないようにできるが、インデックス化を防ぐことはできない(これについてはデイビッド・ネイヤー氏の最近の記事を参照)。また、リンクジュースのブラックホールができてしまう(検索エンジンがページをクロールできないため、そのリンクを確認できず、リンクジュースも渡せないから)。だから、ページをインデックス化させないようにする方法としては、meta robotsタグで「noindex, follow」を付ける方法を強く推奨する。そうすれば、そのページにあるすべてのリンクからリンクジュースを引き渡せるというおまけも付いてくる。
グーグルの「Search Wiki」が検索順位に与える影響
Search Wikiに時間やリソースを割くことはお勧めしない。
根拠
順位にはほとんど効果がないと思われるし、たとえあってもごくわずかだろう。全体的な検索結果に影響するという証拠はまだ確認していない。検索スパムを特定するのに役立つかもしれないが、グーグルが競合他社と差別化するために使用している新たなデータソースに過ぎないと思う。
「悪しき隣人」から張られた好ましくないリンクの影響
リンクにおける隣人というのは実際に存在するが、悪しき隣人から良き隣人に張られたリンクの影響は、相互リンクさえしていなければごく小さい。
根拠
Linkscapeの構築と操作を通じて、僕らはインターネットをよく見通せるようになった。リンクによってつながったサイトのまとまり(またはハブ)をアルゴリズム的に見つけるのは、とても簡単なことなんだ。僕らは、検索エンジンがこれを元に、さまざまな話題に関するオーソリティサイトを見つけている可能性は非常に高いと考えている。
とはいえ、インターネットはとても雑然としたところだ。合法なWebサイトに対して、いつもスパム的なリンクが張られている(SEOmozにだって毎月100件以上が張られている)。検索エンジンはこの事情を心得ており、ちゃんと考慮に入れている。悪質なリンクから否定的な影響を受けることもあり得るが、それは悪いリンクが被リンク全体のかなりの部分を占めていて、合法で信頼のおけるリソースからのリンクが比較的少ない場合に限られている。
順位に対するトラフィックの重要性
サイトの実際の訪問者数は、検索順位決定には使われていない。
根拠
トラフィック量と順位の間に、相関関係はある(訪問者の多いWebサイトはたいてい順位も高い)。しかし、因果関係はない。人気のあるWebサイトには多くのリンクが張られ、リンクが多ければ順位が高くなる、というだけのことだ。
僕らが検索エンジニアたちから聞いた話によると、短期間だけ「ページの滞在時間」を順位の判断指標として使ったが、これはすぐれたシグナルではないことがわかったという。これに代わって、現在の検索エンジンは、検索結果のページで「クリックがない」ことの方を、検索結果を改善する必要があるかどうかを判断する優れた基準として優先的に考えている。
アクセス解析ツールが弾き出す(総ビジター数に対する)「ユニークビジター」数は、根本的に間違っていると考える根拠がある。それが正確であることなんてめったにないのに、報告だけは頻繁に送られてくる。Alexa.comのようにね。ユニークビジター数は生の訪問数と同様に信用せず、さまざまなソースから送られてくるトラフィックの比較や月ごとのトラフィック増減の比較には使わないことをお勧めする。
ソーシャルもやってます!