Michael Martinez氏から、ここSEOmozのブログ記事や、僕の記事に対するコメントで、ランキングは「リンクがすべて」みたいな見方を僕がしているとよくお叱りを受ける。最近、その流れに沿った形で、SEOmozと別のところでもう少し突っ込んだ会話があったから、今日はその話を取り上げたいと思う。
この問題は、僕にとって主張しあうほどの理由もないんだけれど、よく議題にのぼるトピックだよね。長い間SEO業界で仕事をしていると、誰でもある種の真理を得るようになる。自明のことなんだけどね。具体的に言うと、以下のようなことだ。
- 競争率の低いキーワードで、比較的リンク人気の低いウェブサイトの場合、コンテンツをうまく書いて、よく最適化しておけば、たとえ被リンクがまったくなくても、検索エンジンで上位ランクを獲得する可能性がある。
- 競争率の高いキーワードでは、単に質が高くて最適化も行き届いているだけの理由で高いランクを獲得しているコンテンツを目にすることはない。これは、まったくと言っていいほどだ。多くのリンクを獲得しているドメインに置いているか、そのコンテンツ自体に対する被リンクを多く獲得していなければならない。
- すばらしいコンテンツは、質の低いコンテンツより、良いリンクを(より多く)獲得する可能性が高い。
- 質が低くても、たくさんのすばらしいリンクを獲得しているコンテンツは、質が高くてもリンクの少ないコンテンツより、必ず高いランクを獲得する。僕らSEOはみんな、この例を検索結果ページで何千件と見てきた。
この最後の点について言うと、3つの主要検索エンジンでは(MSNはときどきちょっとおかしな結果になることもあるけど)ほぼどんな場合もリンクがコンテンツを上回る、というのがとりあえずの僕の意見だ。すばらしいコンテンツは単に目的を達成するための手段であって、それ自体はランキング戦略じゃない。実際、現在ウェブ上にある非常にすばらしいコンテンツの多く(おそらくは大半)は、マーケティングが十分でないために、Googleのどんなキーワードでもランクに入っていないんじゃないかな。僕はほとんどそう信じてる。
僕はこれを「メディア露出におけるパリス・ヒルトンの法則」って呼んでるんだけど、どれほど魅力に乏しいコンテンツでも、適切なメディアの注目を得ることができれば、非常に目立つ可能性があるということ。別の言い方でたとえてみると、火山活動なんてない地域で火山保険を販売できるセールスマンは、火山を鎮める薬を発明している世捨て人よりも、はるかにSEOには役に立つということだ(僕が言ってるのは、溶岩がぐつぐつ沸き立ち出したところに、どこかの消化剤のように火口にぽいっと投げ入れる薬みたいなイメージね)。
コンテンツの品質は、ここ数年重要視されるようになってきたけれども、その理由は、LSI(潜在的意味分析)あるいはLSA(潜伏意味論的解析)や、最新の検索エンジンアルゴリズムによる各ページのテキスト分析が増えたこととは、ほとんど関係がない。コンテンツの品質を重視するようになったのは、ソーシャルメディアの急増、以前より口コミに敏感なウェブオーディエンス、そしてDiggやdel.icio.us、Reddit、StumbleUpon、Netscapeなどのポータル、これらを通じて、すばらしいコンテンツのプロモーションが容易になったことに関係している。その反面、リンクを買ったり、リンクファームを構築したり、あるいは自動スパムを仕掛けることは、はるかに困難になった。こうしたことが絡み合って、優れたコンテンツ作成の経済性は、ますます魅力を増している。
ここでは、ニワトリが先か卵が先かの議論はしない。SEO屋さんたちは、リンクベイティングなんかよりずっと前からリンクビルディングを行っていた。小さな田舎町の専門家がトップ10を独占し、検索結果の4ページ目にようやくWikipediaのページが出てくるような頃までは、もっぱらリンクビルディングが仕事の中心だったんだし、リンクビルディングこそ検索エンジン最適化の最終目標になるんだろう。
君はどう思う?
コメント
内容の充実は、数値化できない?
単純にリンクバンザイって話題ではないけど、
リンクにこだわって結果を出すこと、出せることは、
結論を急ぐクライアントには、有効な回答ですよね。
本当は、グーグルだって、コンテンツの質を評価したいんでしょう?
でも、テキスト量、キーワード出現率なんかじゃ、
質は測定できませんよね。
コンテンツが充実しているかどうかは、
ロボットには、まだ、判断できないんですよね?
いつかは判断できると思うけど。
パリス・ヒルトンの法則とは?