Moz - SEOとインバウンドマーケティングの実践情報

Googleのスパムチーム責任者Matt Cuttsが、ウェブマスターの疑問に答えてくれた

Googleでスパム対策チームの責任者を務めているMatt Cutts(マット・カッツ)と僕は、ステキな関係にある。ウェブマスターの悩みの種となっている疑問についてしつこく質問し、Mattにとっては僕こそが悩みの種になっているんだけど、質問にはちゃんと答えてもらえる。共生と寄生(それとも搾取?)とを足して2で割ったような、そんな関係だ。ありがたいことに、僕はまたもやMattの貴重な時間を搾り取ることに成功し、いくつかの大きな問題について答えてもらった。その後は、ちょっと彼を休ませてあげて、かわいそうなTimに付き合おうかなと思っている(彼のウェブサイトはすごく寂しい)。

Mattに尋ねた6つの質問をここに掲載する。そのうち3つに彼は答えてくれた(彼の回答を太字で示した。回答がなかった場合はそれが太字になってる)。その後、回答に関連した考察や、触れておくべきその他の話題が続く。おそらく多くの人にとってこれは重要な情報だろう(僕にとっては間違いなく重要だ)。

  1. John Chowのウェブサイト(johnchow.com)はどうしてGoogleの検索結果でペナルティを受けたんだろう?

    • 【A.】 Johnがリンクを獲得するための操作(リンク購入、アフィリエイトのリンクなど)を行ったから。

    • 【B.】 Johnのサイトが一貫して、nofollow属性を付けずにリンクを企業に有料で提供していたから。

    • 【C.】 Johnのサイトがページ上でその他の操作を行っていたから(クローキング、キーワード詰め込みなど)。

    • 【D.】 Johnが悪意のある発言をして、Googleの人々を傷つけたから。

    • 【E.】 Mattから回答なし。
  2. Googleはサイト内部でリンクラブの流れを制御する積極的な方法として、nofollow属性を使うことを推奨している?

    • 【A.】 【Mattからの回答】そのとおり――ウェブマスターはサイト内でnofollow属性を好きなように使ってかまわない。それによってどのページにリンクラブを与えたいか、Googlebotに知らせることができる。

      【Mattの実際のコメント:】nofollow属性は、ウェブマスターにPageRankのフローをリンクごとに調整する手立てを与えるものに過ぎない。使える仕組みは他にもたくさんある(たとえば、あるページへのリンクをrobot.txtで対象外とするとか)が、個々のリンクにnofollowを付けるほうが人によっては使いやすい。nofollowを使うことは、たとえ自分の内部リンクに対してであっても、まったく問題にならない。nofollowの付いたリンクは、Googleのリンクグラフから外れる。そういうリンクは探索にも使われない。ちなみに、メタタグでnofollowを使うと、ページ全体のリンクに同じことが起きる。

    • 【B.】 状況による――基本的には推奨しないが、内部でリンクするユーザー生成コンテンツのページが信用できない場合は、nofollowでそれをGoogleに伝えることができる。

    • 【C.】 違う――nofollowは「編集者としてこのリンク先は保証できません」と伝えるためのものだ。サイトに信用度の低いコンテンツを置いていると、そのページへのリンクにnofollowを付けていようがいまいが、悪影響を及ぼす可能性がある。

  3. 僕がスペイン語のウェブサイトを持っていて、それをメキシコ、スペイン、南米および米国のスペイン語話者向けに提供しているとする。僕がこのコンテンツはそうした国すべての検索者にとって関連性があると伝えるのに、Googleはどういう方法を推奨するだろうか?

    • 【A.】 対象にしたい国をひっくるめてサイトは1つだけ運用し、「.com」「.net」「.org」などの汎用ドメインを使う。そして、対象となる国のサイトからリンクを獲得すれば、Googleは君のコンテンツがいろいろな国のスペイン語話者向けであることを認識する。

    • 【B.】 国ごとに1つずつウェブサイトを立ち上げるが、どこの国であれ、適切なトップレベルドメインで登録できない限り運用しない。重複コンテンツフィルタは1国内でのみ適用されるので、各サイトのコンテンツを同じ内容にしてもよい。

    • 【C.】 各国でウェブサイトを複数立ち上げて個別に運用し、異なるトップレベルドメインに登録してそれぞれに(たとえコンテンツが事実上はまったく同じであっても)固有のコンテンツを用意する。そして、国ごとにリンク構築とマーケティングを個別に行う。それらのサイト同士を不必要に相互リンクさせないこと。

    • 【D.】 差し当たり、1つのサイトを運用して最大の市場に注力する。Googleがこの問題に対処する時間が必要だ。つまり、近い将来、1つのサイトで複数の国/言語を対象とできるように機能を拡張する予定だ。

    • 【E.】 Mattから回答なし
  4. 以前、Googleは1ページあたりのリンクは100件までが適当で、それ以内ならすべてのリンクについて必ず情報収集が行われるだろうとコメントしたけど、このルールはまだ有効なんだろうか? それともある程度の柔軟性があるのかな?

    • 【A.】 このルールはまだ有効――PageRankの高い重要なページでも、他のページへのリンクは100件以内に抑えるべきだ。

    • 【B.】 ある程度柔軟である――リンクジュースが多くてPageRankの高いページであれば、100件以上でも情報を収集する。そのページに対する評価しだいで、200~300件のリンクがあっても問題ない。

    • 【C.】 そのルールが実際に適用されるのは、重要度/PageRankの低いページのみだ。Googlebotは通常、1ページあたり150~200件くらいのリンクは難なく情報収集できる。また、われわれが特に重要と評価したページではもっと多くても大丈夫だ。

    • 【D.】 1ページあたりのリンク数が100件を超えても(数百件でも)情報収集できるが、リンクをそんなに多くするのは、リンクジュースが希薄化するので推奨しない。その代わりに、サブナビゲーションページを用意して1ページあたりのリンク数を分散させるのが望ましい。

    • 【E.】 【Mattからの回答】BとD

      【Mattの実際のコメント:】「リンク数を100件以内に収める」というのは技術的指針の1つで、品質指針ではない。つまり、ページに101件か102件のリンクがあっても我々は排除しようとは思わない。これは大ざっぱな指針と捉えてほしい。もともと、Googleはウェブ文書の最初の100キロバイト程度しかインデックス化していなかったので、リンクを100件以内に収めるのは、すべてのリンクをGoogleに見せるのに都合のいい手法だった。最近では、ウェブ文書のもっと深いところまでインデックス化しているはずなので、これはそれほど問題ではない。ただ、1ページに250件も300件もリンクがあると、ユーザーにとっても使いづらいから、リンクが多い場合は(カテゴリ、トピック、アルファベット順、時系列順などで)複数のページに分けて、リンクの多さにユーザーが戸惑わないようにした方がよい。

  5. リンク強化やPageRank、関連性のアップを売り物にする総合的なウェブディレクトリの価値についてGoogleはどういう立場を取っているんだろうか?これに関連して、僕が「リンク獲得で良質のディレクトリを判断する10のポイント」で主張していることに大筋で同意できる? できない?

    • 【A.】 ディレクトリの多くは価値があるとGoogleは確信しているが、SEO目的を念頭に置いて作られたものは、基本的にはある程度操作的なサイトととらえ、その価値を割り引いて評価するようにしている。大筋では君の主張に同意する。

    • 【B.】 GoogleはSEO目的のディレクトリサイトとそれ以外のサイトを区別していない。PageRankが高くてコンテンツに関連性があれば、他の類似サイトと同じようにリンクの価値とアンカーテキストのウェイトを渡す。だから、君の主張とはちょっと違う。

    • 【C.】 【Mattからの回答】大筋でAだが少しB

      【Mattの実際のコメント:】ディレクトリがSEOに基づいているかどうかよりは、その品質の方を重く見ている。もちろん、SEOだけ目的とした多くのディレクトリには、僕の経験上、それほど価値を置いていない。ディレクトリの品質評価に使用する要素については、以前にブログに書いた「有料リンクをレポートするには」で次のように言及している。

      質問:よし、ディレクトリについて話をしようって言うなら、ディレクトリの役割について話してくれないかな? 中には、登録審査料が必要なところもあるけど。

      回答:ディレクトリを見るときどう考えるかについて、経験則をいくつか話そう。ディレクトリに登録しようかどうか判断するとき、僕なら次のように自問してみる。

      • そのディレクトリの審査で落とされるサイトはあるのか?
        すべてのサイトが審査に合格するのであれば、そのディレクトリはただのリンクリストか誰でも自由に登録できるリンクサイトに近いものとなる。

      • 登録されているサイトの品質はどうか?
        登録申請したサイトの25%が審査に落ちるとしても、承認/登録されているサイトが質の低いものだったりスパムだったりしたらどうだろう。そんなディレクトリの品質を高く評価することはできない。

      • 料金があるとすれば、その料金の目的は何か?
        質の高いディレクトリでは、その料金は主としてURLやサイトを誠実に評価する人の時間や労力に対して払われている。

      これは僕が考える要素の一部だ。ユーザーの立場に立って「これは自分にとって質の高いなディレクトリに思えるか?」と自問してみればよくわかるだろうし、あるいは、友人の誰かに特定のディレクトリについて意見を聞いてみてもいい。

  6. 「noarchive」属性を持つmetaタグのあるページは、そのタグがないページとは扱いが違う?

    • 【A.】 そのとおり――「noarchive」属性がある場合、ページのリンク、コンテンツその他の要素は扱いが違ってくる。

    • 【B.】 違う――キャッシュへの登録を許可しているページと同様に扱われる。

    • 【C.】 Mattからの回答なし

ちなみに、未回答の質問について、Mattはこう答えている。

残っているものは、答えが長くなるので忙しくて十分な回答ができないか、質問の仕方が僕の流儀とは違うので、答えは複数ありうる(または1つもない)か、もっと微妙な言い方になる。

ってことで、僕はもっと質問力を磨いた方がいいようだ。

僕なりに考えた要点を次に挙げておこう。

  • nofollow属性は、パワーユーザーやウェブマスターがリンクジュースの流れを制御し、最適なページへリンクジュースを渡すための手段として利用すべき「ツール」である、というのが現時点における公式の見解だ。

    アーキテクチャ的に優れたSEOを行うには内部リンクの構築が必要となるが、nofollowとそれに対するMattの見解から、我々専門家はマイナス面を気にせずにnofollow属性を賢く利用できるということがはっきりした。

  • 多数のリンクを貼ったページでは、1ページあたりのリンク数を100以内に抑えるのは、おそらく依然として有効な手法だ。ただし、PageRankやリンクジュースの高いページは、それ以上のリンクがあっても情報収集の対象となる。

    Web 2.0 Awardsのようなページは、200をはるかに超えるリンクがあってもフォローされ、リンクジュースを渡している(少なくとも僕の見る限りではね)。

  • 外部リンクを貼っているディレクトリ(およびすべてのウェブサイト)は、リンク先について慎重の上にも慎重を期すべきだ。というのも、Googleはサイト内の外部リンクを大いに活用して、重要度の低い有料リンクやその他のリンクをアルゴリズムを用いて発見し、その評価を下げているからだ。それを裏付ける確実な証拠として、SEOmozのお勧めリンク一覧をチェックしてみてほしい。このページはGoogleにインデックス化されてはいるが、タイトルタグ内の語句をそのまま使って検索しても検索結果の上位にランキングされていないし、その語句を引用符でくくって検索しても上位にランキングされていない。

    なぜだろう? 僕は、外部リンク先の中にGoogleの好まないサイトが入っているからだと、ほぼ確信している。これは人手によるペナルティではなく、アルゴリズムによるものだと思う。真相をばらしてしまえば、SEOmozはかつてディレクトリを運営しており、SOCEngineという名前のクズみたいなサイトを開設していた。そのサイトは、この2年間というもの辛うじて活動を続けてはいるが、現時点で公式には閉鎖されいる。質の低いディレクトリを運営している一方で、そんなディレクトリに金を払う価値なんかないと公言してるなんて、まったく偽善者じみた行為だからね。

Mattは他の問題についても、ブログに掲載する価値のあるものは近い将来公表したいとしている。

この記事が役に立ったらシェア!
メルマガの登録はこちら Web担当者に役立つ情報をサクッとゲット!

人気記事トップ10(過去7日間)

今日の用語

アップロード
手元のPCなどの機器から、ネットワークを介して、別のPCやファイルサーバー、ウェ ...→用語集へ

インフォメーション

RSSフィード


Web担を応援して支えてくださっている企業さま [各サービス/製品の紹介はこちらから]