Googleが特許を取得している、検索履歴に基づいて検索結果を生成するアプリケーションをリリースした2005年3月以来、リンクおよびコンテンツを時間軸に沿って分析することから見えてくる傾向が、実際に検索ランキングに影響していることは、検索マーケターにもわかってきた。
ただまだはっきりしないのが、このコンセプトが実際にどう機能するのかという点だ。そういうわけで、今夜は深夜までじっくりと腰を落ち着けて、このテーマに取り組もうと思う。
検索エンジンはパターンを割り出そうとしている。つまり、現時点の傾向から判断してサイトの関連性や信頼性が増加傾向にあるのか減少傾向にあるのかの徴候を見つけようとしているんだ。検索エンジンが見いだそうとする特定の項目がいくつかある。
- コンテンツの増加パターン:そのサイトがどのくらいの頻度で新しくページを追加しているか。
- コンテンツの更新パターン:ドキュメントがどのくらいの頻度で編集され更新されているか。
- リンクの増加パターン:そのサイトに対するリンクがどのくらいの頻度で増加しているか。
- リンクの停滞パターン:そのサイトに対するリンクの数が横ばいになっているか、あるいは減少していないか。
計算法も少し示しておこう。
検索エンジンは単に、今日のリンク数と昨日のリンク数の比較(あるいは、何ページ追加されたか)だけを問題にしているのではない。検索エンジンがとらえようとしているのは基本的に、時間経過のなかでの追跡パターンだ。ここから、時間で区切った新しい外部リンクの増加数(と、最後の2つは新規ページの追加数も併せて)を示すグラフをいくつか見ていこう。あわせて、グラフから読み取れる傾向についての見解も添えておく。
ここに示した見解が、必ずしもすべてのサイトや事例に当てはまるわけではない。しかし、ある特定のサイトの関連性や価値を推定するにあたって、時系列的に見たリンクおよびコンテンツの増加情報が検索エンジンでどのように利用されているか、これらのグラフを見れば容易にわかるだろう。実際のサイトをいくつか見て、どのように推定されていて、その推定にこうした傾向がどう影響しているかを見てみよう。
ところで、ここに示したそれぞれのグラフが、同じスケールを使っているのではないことは、了解してくれているものだろう。
この判定基準なら、スパムや意図的なリンク構築といった形態の多くは、時系列の顕微鏡の下にさらしてみれば、一目でわかってしまうように思える。サイトの規模や、影響力、過去のリンク増加率に照らしてみて、不釣合いにリンクが大幅に増加すると、検索エンジンはリンク元を詳細に確認し、さらには人の手で調べ直すことも可能だ。常識的に考えて、三流の地元不動産会社のサイトが、1週間のうちに数千ものリンクを引き寄せるなどということは、何かのニュースになるようなことや、リンクする価値のあることをしたのでなければ、まずあり得ない。
このようなデータには、検索エンジンはほぼ無制限になんでもできるし、これを分析してはいけない理由などどこにもない(じつに簡単に利用できるのだから)。検索エンジンがサイトのランキングを判断する際に、サイトにおけるリンクやコンテンツの増加パターンがどのように影響するか、自分のサイトにあてはめて考えてみたらどうだろう。
ソーシャルもやってます!