このページは、外部サイト
SEO Japan の情報をRSSフィード経由で取得して表示しているため、記事の一部分しか表示されていなかったり、画像などが正しく表示されなかったり、オリジナル記事が意図したデザインと異なっていたりする場合があります。
完全な状態のオリジナル記事は 「
SMX West 2011 総集編: Googleのパンダアップデートからホワイトハットクローキング、リンク構築まで」 からご覧ください。
SEO Japan再開Day、最後の記事は先日行われたSMX Westの総集記事をサーチエンジンランドから。流石、イベント自身の主催者だけあって様々な話題をコンパクトにまとめてくれています。とりあえずこれだけ読んでおけば大丈夫?!(ってせっかく書いたのでお時間ある方はこちらもどうぞ)– SEO Japan 先日開催されたSMX ウエストでは、多くの良質な情報が提供された。以下に私が最も秘密にしたい、役立つ情報の一部を挙げていく。 ファーマー/パンダアップデートに関するGoogle自身の見解 グーグルのマット・カッツ氏は、変更が完璧ではない点を認めつつ、検索者のフィードバックは前向きなものが圧倒的に多かったと述べた。カッツ氏は、変更は手動による例外は皆無であり全てアルゴリズムに基づいていると伝えた。 「質の低いコンテンツ」を追放 マット・カッツ氏は、サイト上の質の低いコンテンツがサイト全体のランキングを落とす可能性について繰り返し説明していた。ページの質を改善する行為は、あるいは、ページを完全に削除する行為は、通常、この問題を解決する手段として良いとされているが、場合によっては異なる対策が必要とされる可能性もある。 例えば、ビジネスのレビューサイトは、ビジターがレビューを残すことが出来るように、各店舗に対するリスティングを含めたいと望むだろう。しかし、この類のページには、通常、ビジターがレビュー情報を投稿するまでは、ウェブ全体で重複する店舗を説明する情報しか掲載されていない。Q & Aサイトの場合、ビジターが回答を提供するまでは回答のない質問を掲載することになる。 このような場合、グーグルのマイリー・オイェ氏は、固有で質の高いコンテンツを用意するまでは<meta name=robots content=noindex>をページに用いることを勧めていた。オイェ氏は、この手法をrobots.txtを介してブロックする手法よりも推奨している。検索エンジンがページの存在を把握し、履歴を構築して、ページのブロックが解除されると、すぐに適切に格付けされるようにするためだ。パネルで私はこの件を取り上げ、大規模なサイトは例外であり、robots.txtは、検索エンジンのボットが質の高いコンテンツを持つページ上でクロールに確実に時間を費やしてもらう効果があると伝えた。 広告:コンテンツ比率 カッツ氏は、サイトに広告を掲載していることが、本質的に質を下げるものではないと述べた。しかし、度を超えている場合はその可能性がある。過去に投稿したエントリの中で、この変更、特に折り返し部分までは広告しか見当たらないージや広告が異常に多いページにおいては、広告ではないコンテンツを探すのが大変な状況は、劣悪なユーザーエクスペリエンスを与えることになると綴った。 スローダウンするクロール マット・カッツ氏は、また、グーグルが、サイトがユーザーにとって有益ではないと判断する場合、クロールの頻度が少なくなると述べた。この点に関しては、個人的には、サーバーログを確認して、グーグルボットがクロールしているページを特定し、さらに、その頻度をチェックしてみることを勧める。そうすることで、サイトに対する質の変化の影響が及ぶまでに、どれぐらい時間がかかるのかを大体把握することが出来るだろう。例えば、グーグルが30日に1度しかクロールしていないなら、質を改善してもランキングが10日間で変わることはないだろう。 米国外にも展開 カッツ氏は、現時点でアルゴリズムの変更が行われたのは米国のみだが、国外でもテストが行われており、“数週間以内”に他国にも展開されると認めた。また、同氏は、この変更がターゲットにした質の低いコンテンツのタイプは、他の国々よりも米国で行き渡っているため、米国以外では影響はそれほど大きくはないとも述べた。 継続されるアルゴリズムの変更 マット・カッツ氏は、今年さらに多くの変更が行われる予定があると述べた。カッツ氏は、今年は質の低いコンテンツおよびコンテンツファームを検索結果で目立たないようにすること、そして、コンテンツの元々のクリエイターがより多くのスポットライトを浴びるようにすることに焦点を当てていると明言している。グーグルは、例えば、オリジナルのコンテンツが上位に格付けされるように取り組んでおり、また、シンジケート版のソースがページに対する価値のシグナルに基づいて最も高いランクを得ている際に、オリジナルのソースのランクとシンジケート版のソースのランクを交換する試みを行う可能性があるようだ。また、グーグルは、スクレイプ(収集)されたコンテンツを特定する取り組みも継続している。 つまりSEOは継続的に変化しなければならないと言う意味だろうか?検索エンジンのシグナルに対してではなく、ユーザーに対して価値を高めることを信条としているなら答えは「No」だ。カッツ氏も言っていたように、「5年前に伝えたことは今でも妥当である: アルゴリズムを追いかけるのではなく、ユーザーが好むサイトを作る努力をしよう」。 ギル・ライク氏は、このアドバイスに対する一部の人々の解釈に関して私が感じたフラストレーションを綴っていた。 「SEOに訊けセッション」は、かつてはブラックハットとホワイトハットが対決する構図であった。今回、参加者の顔ぶれは同じだが、“ユーザーに焦点派”と“ユーザーに焦点を絞っているサイトが持つ足跡を作る派”に構図が変わっていた。バネッサ・フォックス氏は、他のパネリストが単純にブラックハットだった時代よりもこの議論が遥かに面倒になっている点に気づいていた。 その通りだ。例えば、パネルディスカッションで、ブルース・クレイ氏は、ランクが落ちたサイト、および落ちなかったサイトを分析し、ランクが落ちたサイトは全ての記事のワード数がほとんど同じであった傾向が見られたと述べた。つまり、記事の長さが同一にならないことが重要だと言ったのだ。私はオーディエンスに対して、このセッションの収穫として、サイトをチェックして、それぞれのページのコンテンツの長さが異なる点を裏付けるのではなく、それぞれのコンテンツが有益かどうかを確認してもらいたいと伝えた。 サイトが“ユーザーに焦点を絞る足跡を持っている”点を確実にするためには、ユーザーに焦点を絞ることが最善の方法である。 ホワイトハットのクローキングとは? 「ホワイトハット」のクローキングに関する情報が数多く舞い込んできている。ホワイトハットのクローキングとは、サイトがスパム目的ではない理由でビジターに見せるコンテンツとは異なるコンテンツを検索エンジンに見せるように設定されているケースを意味するようだ。例えば、ビジターにはフラッシュが表示されているものの、検索エンジンにはHTMLのコンテンツが表示されている場合や、サイトが検索エンジンには広告を見せない場合、もしくはURLのカノニカルなバージョンしか表示していない場合などである。 一部のSEO業者は、グーグルがこの類のクローキングを大目に見てくれると言っている。しかし、マット・カッツ氏は、この主張を否定し、次のように述べた: 「ホワイトハットのクローキングはグーグルの利用規約を侵害している。グーグルは、「ホワイトハット」のクローキングを例外的に扱わなければいけない理由はない。そのようなことを言われて真に受けているようでは危険極まりない。」 マット・カッツ氏は、グーグルボットに対する特別なコードが、ユーザーエージェントまたはIPアドレスによってサイトに含まれている場合、グーグルは、クローキングと理解し、サイトに対して対策を講じる可能性があると述べた。 First-Click Freeプログラムおよびジオターゲット ダニー・サリバン氏は、「first-click free」プログラム(註:Googleが提唱する、会員制のサイトの内部ページのコンテンツをGooglebotにだけ見せてインデックスさせる場合、ユーザーが検索結果ページからアクセスしてきた時にはログインページに誘導する前にその1ページだけはGooglebotに見せたものと同じ正規コンテンツを見せるべき、というGoogleがクローキングと見なさない会員制サイト向けのSEO対策)はホワイトハットのクローキングだと断定したが、カッツ氏は、グーグルボットとグーグル検索を経由したビジターに同じ内容の情報を見せていたと述べ、サリバン氏の見解に異を唱えた。また、カッツ氏は、コンテンツをジオロケーションを基に表示する行為はクローキングには当たらないと述べた。グーグルボットのIPに対する特別なケースではないためだ(地理的なロケーションに関連している)。 検索フレンドリーなURLに対するクローキング 複数のサーチエンジンランドのエントリ(このエントリとこのエントリを含む)は、検索エンジンフレンドリーなURLを見せる行為は、検索エンジンから問題視されていないと断言しているが、検索エンジン、特にグーグルは、この行為は推奨されるようなものではないと明言している。 このようなクローキングが問題ないと考える人達は、2005年のSES シカゴでのグーグルの代表者が述べた見解を当てにしている。しかし、2008年には、マット・カッツ氏が、「ユーザーエージェントを基にURLを書き直すクローキングは、少なくともグーグルにとっては許容出来るものではない」と私に明言していた(2005年のイベントはグーグルの代表者にとって初めての講演であり、クローキングの複雑さをよく理解していなかったのではないかと個人的には考えている)。 いずれにせよ、URLの問題を回避する策は豊富にある。URLを直接修正することが出来なくても、またはリダイレクトを実装することが出来なくても、rel=canonicalリンク属性、または、グーグルウェブマスターツールズのパラメータの処理機能を使えばよい(ビングウェブマスターツールズも同様の機能を用意している)。 アクセシビリティ目的でテキストを隠す -999pxのCSSテキストのインデントをイメージの代わりに使う行為は許容されるのだろうか?オイェ氏は、以前、個人のブログでこのような方法でテキストを隠す行為は、例えスパム目的ではなく、アクセシビリティを確保する目的であっても、グーグルのウェブマスターガイドラインを違反していると受け取られる可能性があると述べていた。通常、異なる方法を用いることが出来るはずだ(ALT属性やCSSスプライト等)。また、SMXのステージで、オイェ氏は、font-faceを利用することを勧めていた。これは実装するのは難しいが、フォントファイル自体に関しては、自分で構築するのではなく、グーグル ウェブ・フォントを利用する手もある。 カッツ氏は、その後に行われたセッションでこの手法に賛成していた: 「テキストを隠すのは、あまり良い取り組みとは言えない。オイェ氏が先程のセッションで取り上げていたと思う。」 新しいビジターと戻ってきたユーザーに異なるコンテンツを表示 新しいユーザーと戻ってきたユーザーに異なるコンテンツを表示する件を誰かが尋ねていた。マット・カッツ氏もビングのデュアン・フォレスター氏もこの類の手法には注意するよう呼びかけていた。通常、この種のシナリオは、クッキーを介して実行されることが多い。新しいユーザーもグーグルもサイトへのクッキーを持っていないが、戻ってきたユーザーはクッキーを持つことになる。カッツ氏は、グーグルボットを新しいユーザーと同じように対処したいなら、これで通常は問題はないと述べた。 リンク構築 リンクは今後も重要だが、検索エンジンが認めたメソッドを使って、どのようにリンクを集めることが出来るのだろうか?マット・カッツ氏は「自分に問いかけるべきだ」と述べていた。「人々に好かれるサイトを作るにはどうすればいいのか?」ブランドの価値をもたらす、印象的なサイトを忠実なオーディエンスと共に構築すれば(必ずしも検索を通してではなく)、リンクが集まってくるだろう。 コンテンツを超える価値を作るには [...]