Moz - SEOとインバウンドマーケティングの実践情報

SEO初心者が陥りやすい12の過ち

キーワードの繰り返し、相互リンクなど、あなたもこういった勘違いをしてしまっていないだろうか?
イメージ画像:SEO初心者が陥りやすい12の過ち

僕は最近、SEOmozのPRO会員向けQ&Aを通じて、新たにSEOを始めた人たちと仕事をする機会が多い(ところで、記事が遅れた言い訳をさせてもらうと、Q&Aの書き込みがここ3週間で3倍になって、僕らちょっと手一杯の状態なんだ)。それはそれですごくいい勉強になるし、おかげでSEO初心者にありがちな悩みや誤解も見えてきた。それを少しでも解決するため、今夜は少し時間を取って、中でも大きな問題をいくつか取り上げたいと思う。

  1. あちこちで繰り返しキーワードターゲッティングをしすぎる

    ある特定のキーワードやフレーズをターゲットにする場合、そのキーワードをサイトの全ページにわたってtitle要素とh1要素、それから本文にも入れるべし、とよく間違ったアドバイスがされているけど、そんなことをする必要はない。

    もちろん、何かのついでにとか、本当に関連性がある場合にそのキーワード/フレーズを使うのはかまわない。でも覚えておいてほしいのは、検索順位の上昇を狙っているのはあくまでページであって、サイトじゃないということだ。ターゲットとするキーワード/フレーズは、1ページに1つでいい。時にはもっと多くのページで同じキーワードをターゲットにしてもいいけど、そんなことをしたいなんていう状況は(たとえば、検索結果にサイトリンクを表示させようとしてる場合などだが)、実際にはそうそうないはずだ。

  2. 多くのドメイン名に労力を分散させる

    リンクを提供してくれる確かなソースを10か所見つけたとしよう。だからといって、ドメイン名を500個も登録して、10か所のソースからそのドメイン名全部にリンクを獲得し、次にそれらのドメイン名から自分がメインで使っているドメイン名に対してリンクを張れば、一気にさまざまなドメイン名からリンクを獲得したように見える……なんていう考えに陥ってはいけない。

    複数のドメイン名に労力を分散させることは、個人的にはまずお薦めできない(詳しくはドメイン名・サブドメイン名・サブディレクトリのどれがいいかを解説した記事を参照)。それに、1つのサイトの順位を上げるという目標から大きく遠ざかってしまう可能性もある。

    リンクファームだか何だかの時代はとうに終わった。リンクの獲得に関しては、徐々にではあるけど確実に、量より質の時代になりつつある。だから、リンクなら何でもいいというんじゃなく、適切なリンクを獲得する戦略を採るべきだ。

  3. 相互リンク戦略を採る

    なぜかはわからないけれど、このごろ相互リンクが復活しているみたいだ(それで最近、グーグルとヤフーがともに、相互リンクを行っているサイトに対してペナルティをちょこちょこ与えている)。

    だからといって、相互にリンクし合うことそのものが悪いわけじゃない。たとえば、僕がアーロン・ウォール氏のSEOBook(ちなみにすばらしいサイトだ)にリンクを張り、先方もこちらにリンクを張り返してくれた(実際ときどきある)という場合、それは僕の言う「相互リンク」には当たらない。

    僕が言ってるダメな相互リンクとは、Webサイトにリンクをずらっと並べたリストのページを作って、同じようなリンクリストのページを持つほかのサイトと、「そちらがリンクを張ってくれたら、こちらからもリンクを張ります」なんていう取引をする行為のことだ。アルゴリズムを使ってこういう行為を見抜くのは難しいことじゃないし、この戦術を使っているサイトが次々とペナルティ(または少なくとも評価の引き下げ)を食らっているのを僕らは目にしている。

  4. キーワードスタッフィング(キーワードの詰め込み)

    あるキーワードでなかなか順位が上がらないからといって、ページ内でそのキーワードを何十個も使ったところで、まず解決策にはならない。みんな、キーワードの変形バージョンのこととか、もっと関連性の高いテキストコンテンツを追加する必要はあるかとか、1つの文章や段落中にそのキーワードをもっと使った方がいいのかとかって訊いてくるけど、僕の答えは常に同じだ。そのキーワードをコンテンツ中で数回使って、それからh1要素やtitle要素、URL、あとは画像のalt属性で使ったら、それでページ自体の最適化は80~90%完了している。

    コンテンツはあくまで人間にとって価値のあるものでないといけない(リンクを獲得し、関心を集め、また訪問してもらったり共有してもらったりするためにもね)。キーワードを何度も繰り返して、検索エンジンにばかり「最適化」してもしょうがないんだ。

  5. ロボットが重複コンテンツにアクセスするのを妨げる

    これには恐怖心が大きく影響していると思う。みんな、重複コンテンツはペナルティの原因になるという話をどこかで読んで、自分のコンテンツの重複バージョンに検索ロボットがアクセスできないようにしてしまうんだ。問題は、そうしたページが稼いでくれるかもしれないリンクジュースを獲得し損ねるし、検索エンジンにとってクロールやインデックス化をしやすいページへのアクセスを制限してしまう可能性もあるという点だ。

    重複コンテンツの問題に対処したければ、重複バージョンをオリジナルのページに301リダイレクトするか、(それが適切な場合には)新しいURL正規化タグを使ってみよう。自分が何をしているのか十分わかった上でやるのでない限り、むやみに検索ロボットを制御してはいけない。

  6. XMLサイトマップを作成しない

    以前、ウェブマスターはサイトマップを送信しないよう推奨したのは、おそらく僕の過ちだった。態度を今一度はっきりさせてもらうと、これについて僕は考えを180度転換し、ほぼどんな種類のサイトについても、文句なしにサイトマップを推奨するという考えに至った。僕らが見る限り、サイトマップが正しく使われているどの事例においても、ごく短期間に検索トラフィックが大幅に増加していた。手軽に成果を上げたいと思っていて、まだサイトマップのXMLプロトコルに手をつけていないのなら、ぜひやってみるといい。

  7. nofollowを使わずに、ロボットのアクセス自体を妨げる

    これに関しては、PageRankスカルプティングがどう機能するかについて若干の誤解があるように思う。リンクジュースを送りたくないページに対して、ロボットのアクセスを制御してはいけない。そもそも、そんなことをしても効果はないんだ。あるページに対してリンクが張られていたら、たとえ「robots.txt」やmeta robotタグの「noindex」属性でロボットのアクセスを禁止していても、そのページはリンク価値の測定対象になってしまう。

    リンクがリンクジュースを渡さないようにする唯一の方法は、「nofollow」を使うことだ(あるいは、外部に置いたJavaScriptを使ってリダイレクトするか、HTMLとして解析できないオブジェクトに埋め込むかしてもいい)。

    どういうページに「noindex」を使ったり、ロボットのアクセスを禁止したりするのか、そして、なぜそうするのか、ということには注意を払ってほしい。ロボットがクロールできないページの価値を損なうだけじゃなく、ナビゲーション経路を遮断することで、その先につながっているページまで被害を受ける可能性がある(さらには、リンクジュースを渡すことで得られるリンクジュースの流れまで遮ってしまいかねない)。

  8. Google Webmaster Toolsへの登録を怖がる

    君が本当に悪党で、リンク操作や不正をたくらんでいるのでなければ、Google Webmaster Toolsにサイトを登録するのを怖れる必要はどこにもない。グーグルに自サイトを分析してもらい、(特にアクセス不能になっているページについての)分析結果を得られることは、たいていの場合、グーグルを避けて通るよりもメリットが大きい。

  9. グーグル以外の検索エンジンを無視する

    グーグルだけが検索エンジンじゃない! グーグルがマーケットリーダーだからといって、残りの15~20%を占めるヤフー、MSN、およびAskからの検索トラフィックに価値がないと考えるのは間違いだ。SEOが15~20%向上するといったら、たいていの人にとっては夢のような数字だよね。なのにみんな、グーグル以外の検索エンジンには目を向けようとしないんだ。

    まず手始めに、最低でもLive Search Webmaster ToolsYahoo! Site Explorerには登録し、自サイトのサイトマップを送信してみよう。そこから先のことについては、ベンが来週発表するリサーチ結果の中で、これら3つの検索エンジンのランキングアルゴリズムの違いについてもう少し詳しく説明してくれる予定だ。

  10. グーグルの「link:」コマンドを使う

    グーグルの「link:」コマンドは、グーグルが把握しているリンクの(ごく)わずかなサンプルしか提供してくれない。それに、比較に用いる分にはそれなりに精度があるみたいだけど、だからといって実際に報告されるリンクの重要度が格別に高いわけでもない。このコマンドを使ってあるリンクが表示された、またはされないからといって、それが自分の獲得した(あるいは獲得しようとしている)他のリンクより優れているとか、劣っているとか、興味深いというわけじゃない。

  11. リンクのために記事を提供する

    僕は、他のサイトに記事やコンテンツを提供することに必ずしも反対ではない(だって、YOUmozはSEOが獲得できる最高のリンクの1つだと思うしね)。でも、もっとたくさんのリンクを獲得するために、同じ記事をあちこちのサイトに何度も繰り返し投稿するのは気をつけたほうがいい。

    (少なくともそうしたサイトの99%から)得られる価値はたいしたものじゃないし、肝心の自サイトで優れたコンテンツを提供する価値(および、その結果として自然に獲得できていたかもしれない検索トラフィックやリンク)が失われてしまう。この戦略の使い方には十分に気をつけて、そのメリットとデメリットをよく考えること。

  12. DoFollowブログにばかりコメントを残す
    ※DoFollowブログ

    最近はブログのコメント欄などではリンクが自動的にnofollowになるが、そうではなく非nofollowの通常のリンクになるような設定にしているブログのこと。

    いつの間に、DoFollowブログが最新流行のリンク獲得手法になったんだろう。正直言って、DoFollowブログを使ったリンク獲得戦略で、検索順位の上位を獲得した例なんて見たことがない。それに、他のもっと価値があってスケーラブルなリンク獲得戦略をおろそかにして、そんなことにばかり力を入れるのは問題だ。

    リンクビルディングキャンペーンを始めるときは、「価値あるものはたやすく手に入らない」という不朽の名言をよく覚えておくように。

SEO初心者の誤解や間違いで、みんながよく目にするものがあったらぜひ教えてほしい。そして、これを読んでいる初心者のみんなにひと言。落ち込む必要は全然ない! 僕がオーガニック検索に携わって最初の数年間にやらかした失敗の数なんて、とてもじゃないけど数えきれないよ。2002年から2004年まで、僕はほんとに未熟だった。5~6回ほどのキャンペーンを経験し、SEO業界のすばらしい人たちにいろいろ助けてもらって、ようやく未熟な段階を抜け出せたんだ。

この記事が役に立ったらシェア!
メルマガの登録はこちら Web担当者に役立つ情報をサクッとゲット!

人気記事トップ10(過去7日間)

今日の用語

アップロード
手元のPCなどの機器から、ネットワークを介して、別のPCやファイルサーバー、ウェ ...→用語集へ

インフォメーション

RSSフィード


Web担を応援して支えてくださっている企業さま [各サービス/製品の紹介はこちらから]