Googleのホワイトリストに関する思考実験 | SEO Japan

SEO Japan - 2011年4月8日(金) 14:03
このページは、外部サイト SEO Japan の情報をRSSフィード経由で取得して表示しているため、記事の一部分しか表示されていなかったり、画像などが正しく表示されなかったり、オリジナル記事が意図したデザインと異なっていたりする場合があります。
完全な状態のオリジナル記事は 「Googleのホワイトリストに関する思考実験」 からご覧ください。
先日のSMX WestでGoogleのマット・カッツがGoogleの検索結果にはアルゴリズムの影響を受けないホワイトリストがあることを発言しました。Googleの公平性を疑われかねない発言でもあり、ネット上でもかなりの話題になっています。今回はSEO Bookが本件に関する意見を。 — SEO Japan グーグルは、格下げされたスパム目的のサイト、ハッキングされているサイト、スパイウェアを提供しているサイト等を除くサイトの格付けを“アルゴリズム”が管理する状態を長らく維持してきた。 そんな中、SMXのカンファレンスで、Googleがホワイトリストを利用していることが判明した: グーグルとビングは、アルゴリズムの影響を受けるべきではなかったものの、実際には影響を受けたサイトに対する“例外リスト”を用意している点を認めた。マット・カッツ氏は、グローバルなホワイトリストは存在しないものの、グーグルの検索結果のサイトにネガティブな影響を与える一部のアルゴリズムに対して、グーグルは個別のサイトを特別扱いする可能性があると説明した。 「スパマーを除き、サイトが値するランクを得る」と言うアイデアは、グーグルが反競争的行為に及ぶ可能性をけん制するために、昔から推進されてきた。グーグルのマーケティングは、「ウェブが持つ固有の民主的な特徴」と言うフレーズをさらに活用し、ページランクの元々の仕組みを強調してきた。 そこで、グーグルの行動、そして、グーグルが行動を起こしていると思ってもらいたくない心情の違いを考えるために、思考的な実験を行ってみようと思う。 まずはネガティブな見解から検証してみよう。グーグルが競合する製品を持っているか、あるいは、当該のサイトがグーグルのエンジニアに嫌われているかのどちらかであり、どうしても好きになれないと言う理由で、わざわざ攻撃していることになる。グーグルが世界の大半の国々で市場を独占しているレベルを考慮すると、グーグルが事業の関心を基に勝者と敗者を選んでいると言う考え方は受け入れられない。 ポジティブな見解は、「判断が微妙なスパムを除き、アルゴリズムがほぼすべてのページを処理する」と言うものだ。 初めに、グーグルのエンジニアが目標と目的を心に描きながらアルゴリズムを作成したと仮定する。 ユーチューブの買収後にグーグルが立ち上げたのはユニバーサル検索のみをであった。偶然だろうか?その可能性は低い。グーグルがユニバーサル検索をユーチューブの買収前に展開していたら、ユーチューブの価格は30%から50%値上がりしていただろう。 同様にグーグルはアルゴリズムの一部を人間の評価者を介して鍛えている。グーグルは、評価者に特定の疑問と求める目標を伝え、その後、目標に沿うアルゴリズムを作成するために、評価者の情報を用いる(これは3を挙げることは出来ないが、1と2を足して、あとは適当に繰り返してくれと私が頼むようなものだ ) ある時点で、グーグルはブランドフィルター(あるいはその他の任意のアルゴリズム)を展開して、他のサイトがマッチすることが出来ない基準を基に特定の好きなサイトを上位にランクインさせる。 ジャンクのドアウェイページを持つサイトを上位に格付けし、その他のサイトを格下げする。 上記の現象に対抗しようとして、一部のサイトはほそぼそと存続するか、マーケットでシェアを失う状況に追いやられる可能性がある。あるいは、積極的に活動し、ガイドラインを越えた行動を取ることも考えられる(技術的とはいかなくても、少なくとも気持ちの上では)。 サイトがガイドラインを超越した運営を行っているなら、お咎めなしで切り抜けられる場合もあれば、短期間のペナルティーを与えられる場合もあれば、あるいは、3年間にも及ぶ長期的なペナルティーを受ける場合もある。 ここからが面白いところだ… グーグルは、非常に懲罰的で多数の誤検出を生む自動アルゴリズムを展開することが出来るのだ。 さらに、グーグルは、身内の事業とホワイトリストを介して、特定の基準に一致するサイトを再び上位にランクインさせることで、駄目押しすることも可能だ。 ホワイトリストされたサイトと同じことをしているサイトは、同じことをしたために大打撃を受ける可能性があり、また、レビューにより、冷遇されるだろう。 「アルゴリズム」はほとんど全てのページに対処していると言う主張が行われても、個人的な偏見をくみ取り、上位にランクインさせるサイトとさせないサイトを容易に決定することが出来る。「アルゴリズム」は何よりもまず法的な盾としての役目を持っている。さらに、マーケティングツールとしても有効である。関連性は重要度においては3番目に位置しているのであろう(それ以外には、コンテンツファームの問題に対してグーグルが重い腰を上げる前にここまで時間がかかった理由が思いつかない)。 この記事は、SEO Bookに掲載された「A Thought Experiment on Google Whitelisting Website」を翻訳した内容です。 この問題発言、実は私も参加したセッションだったのですが、見事にこの問題発言を見逃しておりました。。。ファーマーズアップデートに関する話の中で「ホワイトリストは一部存在するが、ファーマーズ(パンダ)アップデートでは特に適用されなかった」とマット・カッツはさらっと流した発言だったのですが、前者の「一部存在する」が結果的に大きく取り上げられたようですね。確かに言われてみると、これまで認めていなかった話ですからね。セッション中は突っ込まれていなかったため見過ごしてしまいましたm(__)m しかしホワイトリストがありなら、上記のSEO Bookが考える世界まではいかなくとも検索結果が自由に操作される世界になってしまいそうで怖い気もしますね。今後の展開に注目。– SEO Japan
メルマガの登録はこちら Web担当者に役立つ情報をサクッとゲット!

人気記事トップ10(過去7日間)

今日の用語

アーンドメディア
「トリプルメディア」の 1 つ。ユーザーの「信用・評判・共感」を得るためのメディ ...→用語集へ

インフォメーション

RSSフィード


Web担を応援して支えてくださっている企業さま [各サービス/製品の紹介はこちらから]