Moz - SEOとインバウンドマーケティングの実践情報

SEOの“新”ベストプラクティス(後編) - 301リダイレクト/robots.txt/Search Wiki/リンク/実トラフィック など

SEOmozがコンサルティング業務で利用する新しいベストプラクティス(後編)

3回に分けてお届けしてきたこの記事も、ようやく今回が最後となる。前編中編に引き続き、SEOmozがお勧めするさまざまなベストプラクティスを見ていこう。

SEOmozの提唱する新しいSEOベストプラクティス

301リダイレクトの使用

ベストプラクティス

僕らはページをリダイレクトするための最善策として301リダイレクトを推奨するが、欠点も持ち合わせていることを警告しておく。

根拠

独自のテストや検索エンジニアからの公式発表から、301リダイレクトによってリンクジュースの1%~10%程度が失われるとの確証をほぼ得ている。あるURLから別のURLへ移動させなければならず、それ以外に手段がない場合の不利益として許容できる範囲だし、リンクジュースをほとんど渡さない他の手段(JavaScriptや302リダイレクト)よりもずっと有効だ。

僕らのテストでは、リンクジュースや検索順位を受け渡すという点では、meta refreshタグは、301と大体同じように機能するらしいという結果が得られている。ただし、検索エンジンが301リダイレクトの方を推奨しているので、僕らもこれに従う。

検索エンジンのブロック

ベストプラクティス

一般的に、meta robotsタグ(noindexとfollow)の方がrobots.txtよりもよい。robots.txtファイルは便利だが、meta robotsタグが使えないときに限り、控えめに使うべきだ。

根拠

robots.txtは検索エンジンのクローラがページを訪問しないようにできるが、インデックス化を防ぐことはできない(これについてはデイビッド・ネイヤー氏の最近の記事を参照)。また、リンクジュースのブラックホールができてしまう(検索エンジンがページをクロールできないため、そのリンクを確認できず、リンクジュースも渡せないから)。だから、ページをインデックス化させないようにする方法としては、meta robotsタグで「noindex, follow」を付ける方法を強く推奨する。そうすれば、そのページにあるすべてのリンクからリンクジュースを引き渡せるというおまけも付いてくる。

グーグルの「Search Wiki」が検索順位に与える影響

ベストプラクティス

Search Wikiに時間やリソースを割くことはお勧めしない。

根拠

順位にはほとんど効果がないと思われるし、たとえあってもごくわずかだろう。全体的な検索結果に影響するという証拠はまだ確認していない。検索スパムを特定するのに役立つかもしれないが、グーグルが競合他社と差別化するために使用している新たなデータソースに過ぎないと思う。

「悪しき隣人」から張られた好ましくないリンクの影響

ベストプラクティス

リンクにおける隣人というのは実際に存在するが、悪しき隣人から良き隣人に張られたリンクの影響は、相互リンクさえしていなければごく小さい。

根拠

Linkscapeの構築と操作を通じて、僕らはインターネットをよく見通せるようになった。リンクによってつながったサイトのまとまり(またはハブ)をアルゴリズム的に見つけるのは、とても簡単なことなんだ。僕らは、検索エンジンがこれを元に、さまざまな話題に関するオーソリティサイトを見つけている可能性は非常に高いと考えている。

とはいえ、インターネットはとても雑然としたところだ。合法なWebサイトに対して、いつもスパム的なリンクが張られている(SEOmozにだって毎月100件以上が張られている)。検索エンジンはこの事情を心得ており、ちゃんと考慮に入れている。悪質なリンクから否定的な影響を受けることもあり得るが、それは悪いリンクが被リンク全体のかなりの部分を占めていて、合法で信頼のおけるリソースからのリンクが比較的少ない場合に限られている。

順位に対するトラフィックの重要性

ベストプラクティス

サイトの実際の訪問者数は、検索順位決定には使われていない。

根拠

トラフィック量と順位の間に、相関関係はある(訪問者の多いWebサイトはたいてい順位も高い)。しかし、因果関係はない。人気のあるWebサイトには多くのリンクが張られ、リンクが多ければ順位が高くなる、というだけのことだ。

僕らが検索エンジニアたちから聞いた話によると、短期間だけ「ページの滞在時間」を順位の判断指標として使ったが、これはすぐれたシグナルではないことがわかったという。これに代わって、現在の検索エンジンは、検索結果のページで「クリックがない」ことの方を、検索結果を改善する必要があるかどうかを判断する優れた基準として優先的に考えている。

アクセス解析ツールが弾き出す(総ビジター数に対する)「ユニークビジター」数は、根本的に間違っていると考える根拠がある。それが正確であることなんてめったにないのに、報告だけは頻繁に送られてくる。Alexa.comのようにね。ユニークビジター数は生の訪問数と同様に信用せず、さまざまなソースから送られてくるトラフィックの比較や月ごとのトラフィック増減の比較には使わないことをお勧めする。

用語集
JavaScript / SEO / Wiki / meta keywords / nofollow / robots.txt / アクセス解析 / インデックス / クロール / リンク / 検索エンジン / 被リンク / 訪問 / 訪問者
この記事が役に立ったらシェア!
メルマガの登録はこちら Web担当者に役立つ情報をサクッとゲット!

人気記事トップ10(過去7日間)

今日の用語

ビューアビリティ
インターネット広告が「閲覧者が見られる状態にあるか」の観点と、それを確保するため ...→用語集へ

連載/特集コーナーから探す

インフォメーション

RSSフィード


Web担を応援して支えてくださっている企業さま [各サービス/製品の紹介はこちらから]