グーグルのマット・カッツが指摘する、SEOにおける最も大きな間違いワースト5
海外のSEO/SEM情報を日本語でピックアップ
グーグルのマット・カッツが指摘する、SEOにおける最も大きな間違いワースト5
犯していないかチェック (Google Webmaster Help on YouTube)
グーグルのマット・カッツ氏が、自分が認識しているSEOにおける最も大きな間違いワースト5を説明した。
×サイトをクロールできない状態にしておくこと、あるいはウェブサイト自体を持たないこと
サイトを持たない会社が実際にたくさんあるが、サイトがないとSEOは始まらない。そして、検索エンジンがサイト内のコンテンツをクロールできるようにしておかなければならない。
トップページから標準的なリンクをたどっていけばサイト内の主要なページにたどり着けるようにしておかなければ、大切なページが検索でヒットしなくなる可能性もある。
×適切なキーワードがページに書かれていないこと
ユーザーが検索するキーワードを使わなければならない。たとえば“Mt. Everest Height”(エベレスト山の標高)ではなく“How high is Mt. Everest?”(エベレスト山はどのくらい高い?)と書く。
また、レストランであればメニューも書いておくといい(PDFだけではなく通常のHTMLにテキストでも書く)。営業時間も載せる。
×リンク構築についてばかり考えること
リンクを集めることばかりに意識を向けると、考え方が制限されてしまう。人の心を引き付けるコンテンツやマーケティングのことを考える。
最初に、人の心を引き付けるものや自分のサイトを利用したいと思わせる本当の理由を作り出す。次に、より広範囲に渡るマーケティングに取り組む。これには屋外の広告やゲリラマーケティングなども含まれるし、コミュニティに関わることも入ってくる。
リンクと検索エンジンのことだけを考えるのではなく、どうやってサイトを有名にできるかを考えること。
×重要なページのtitleタグとdescriptionタグについて考えないこと
後になってユーザーが思い出せないようなtitleタグは、良くない。
meta descriptionタグは検索結果のスニペットに使われることがあり、ユーザーがクリックするかどうかを決める材料になる。meta descriptionは、検索結果に表示されたときにユーザーが「自分が探している答がそのページにある」「ここは良いページに違いない」とわかるようなものすべき。
すべてのページに対してやるのは大変なことではあるが、少なくとも重要なページでは、そうすることが大切だ。
×ウェブマスター向けのリソースを使わないこと
ウェブマスターツールなど無料のツールをGoogleは提供しているし、今見ているウェブマスター向けのQ&Aビデオを公開しているので活用してほしい。
ヘルプフォーラムに参加することもできる。
その他、ウェブにはさまざまなリソースが公開されているのでそれらを利用するといい。
あなた自身に照らし合わせてみてどうだろうか? 引っかかってしまう項目があればさっそく正そう。
ペンギンアップデートからはや1年。リカバリできたサイトはほぼゼロ
回復よりもCVRアップが確実な対処策か (WebmasterWorld)
人工リンク・有料リンクやキーワードの乱用などウェブスパムに対処するためのアルゴリズム更新、通称ペンギンアップデートが導入されてから1年が過ぎた。
ペンギンアップデートで大きく順位を下げたサイトで、回復に成功した事例はいまだにほぼ皆無のようだ。
WebmasterWorldのフォーラム管理者は、次のようにコメントしている。
リカバリできたのは少数だ。明らかに多くはないし、特にECサイトではゼロだ。
私が知る限りでは、うまくいく対処策は従来のSEO手法よりもむしろコンバージョン率の最適化に注力することだと常に思える。つまり、他のサイトとの違いを際立たせるような大きな付加価値を訪問者に与えるユーザーエクスペリエンスに焦点を当てるということだ。
ペンギンに強力に睨まれてしまった場合、ランキングの回復にコストをかけても効果が出る可能性がほとんどない。それならば、サイトに訪問したユーザーを確実にコンバージョンさせることに力を入れたほうが効果的だという意味である。1つの解決策になりそうだ。
ただほとんどのトラフィックをグーグル検索に依存していて、ペンギンアップデート後に極めて壊滅的なダメージを受けたサイトでは、ユーザーを集めるための別のチャネル作りも必要になってくるだろう。
また別のフォーラム管理者は、次のようなコメントを残している。
ペンギンアップデートをはじめグーグルが今実行しているほかのいくつかのアルゴリズム更新に関して、そこから回復するのがどうして簡単ではないのかを、ソフトウェアエンジニアである私が説明しよう。
ペンギンアップデートのプログラムを実行した際に、対象となったサイトにグーグルは“フラグを立てる(システム内部的にマークを付ける)”と私は考える。いったんフラグを立てられたら、そこで終わりだ。手動による手助けなしに身をよじってそこから抜けだそうとしても無理だ。
個人的な考えになるが、リカバリのための最も手っ取り早い方法は、新しいドメイン名に移って最初の時点でサイトにフラグを立てられたと思う箇所を変更しトラフィックが増えるのを待つことだ。
リカバリのために1年間待ったのに何も起こらなかったとしたら、サイトを再構築するのに1年かかったとしても同じことになる。
今乗っている船を捨てて、危険判定や解体宣言されていない新しい船に乗り換えたほうがいいというのが、今の私の考えだ。
理論的に考えれば、ペナルティであろうがなんであろうが、グーグルはそこから簡単には抜け出せないようにしているはずだ。問題が起きないようにするなら、新しい船に移ったら、リンクやPageRankを保持するために旧サイトからはリダイレクトしないほうがいい。そんなことをしたら「おい! 俺たちは移動したぜ。またペンギンのフラグを立ててくれ。」と宣言しているようなものだ。移動してそのまま放っておくだけでいい。
回復できるかの保証がないのに多大な手間ひまをかけても無駄な作業になってしまう可能性が高い。それならばその手間ひまを、サイトをゼロから再スタートすることにかけたほうが得策だと勧めているのだ。
一般的なアルゴリズムは常に稼働しており、マイナス評価の“フィルタ”は問題点が解消されていれば再クロールと再インデックス、その後の処理によって自動的に外れる。
一方ペンギンアップデートのアルゴリズムは常に稼働しているわけではない。初回の導入以来、データ更新が2回行われただけだ。更新が行われないと検索結果には最新の状態が反映されない。つまり、いつあるかが不明な更新が行われるまでは回復のための施策がうまくいったのかいかなかったのかを知ることができないのだ。
パンダアップデートも同様に常時稼動ではなく1か月に1回程度の頻度での更新が繰り返し実施されていた。しかし現在は、常に稼働する一般的なアルゴリズムの一部に統合されている。
「Googlebotにより、サイトで膨大な数のURLが検出された」という警告メッセージが届く理由
新しいURLが突然増えてクロールに支障が出るかもしれないから (Webmasters Stack Exchange)
Googlebotにより、サイトで膨大な数のURLが検出されました
こんな警告メッセージが、グーグルウェブマスターツールに届くことがあるようだ。
何らかの理由で、それまでにグーグルが認識していたURLの数と比べて極めて多くの数のURLを発見した場合に送られるメッセージだ。
通常とは異なる状態なので、それらのURLを実際にGooglebotがクロールする前に、「サイトに問題が発生しているのかもしれないよ」とサイト管理者に通知することが目的だ。本当に問題が発生しているなら、サイトのクロールに支障をきたすことがあるかもしれない。
筆者はこういった警告メッセージがあることを知らなかった。調べてみると、考えられる原因と対処方法がヘルプに記載されていた。大規模サイトを運用しているウェブ担当者は念のため目を通しておくといい。
グーグルがgTLDとして扱うccTLDが4つ増えた
ウェブマスターツールの地域ターゲット指定の対象 (Pierre Far on Google+)
ウェブマスターツールで地域ターゲットを指定できるccTLD(国別コードトップレベルドメイン名)が増えた。今回新たに追加されたのは、次の4つだ。
- .ad
- .gg
- .io
- .su
地域ターゲットを設定できるのは、「.com」や「.net」など特定の地域に結び付けられていないgTLD(ジェネリックトップレベルドメイン名)に限られる。「.jp」や「.uk」などのccTLDはそれぞれ日本と英国のドメイン名として自動的に割り当てられ、他の地域への変更は効かない。
しかし、「.tv」や「.co」など本来は特定の国に結び付けられたドメイン名(それぞれツバル、コロンビア)であっても、開放されその国の人でなくても自由に取得できるccTLDがある。そういったccTLDは実施的にgTLDとしてみなされ、地域ターゲットをウェブマスターツールで指定できる。たとえば、「.tv」ドメイン名のサイトを日本と対象としたサイトとしてグーグルに示すことが可能だ。
地域ターゲット指定できるccTLDの全リストは英語版ヘルプを参照してほしい(この記事を公開している時点では日本語版はまだ更新されていない)。
301リダイレクトの効果がすぐに出ない理由
不正利用でないことを確かめる猶予期間 (WebmasterWorld)
301リダイレクト(一時的ではなく永続的なリダイレクト)は、(検索エンジン側に)効果が出るまでに時間がかかることがある。その原因をWebmasterWorldのフォーラム管理者は次のように推測している。
グーグルは301リダイレクトを1度見ただけですぐに確定情報として扱うことはない。信頼できるのか、不変なのかを確かめる必要がある。偽装やスパム、フィッシングのツールとして301リダイレクトがしばしば悪用されることがあるからだ。
サイトの全体的な信頼度の歴史も、ここでは関係してきそうだ。現在まで積み上げてきた信頼度が高ければ、新たな301リダイレクトはもっとずっと速やかに受け入れてもらえるだろう。
301リダイレクトの処理が遅くなるもう1つの理由としては、技術的な知識豊富なウェブマスターであっても301リダイレクトで間違いを犯してしまいそれを修正しなければならなくなる状況があることが挙げられる。つまりグーグルは301リダイレクトの指示に従うことに慎重になっている。
まとめると次のようになる。
- 悪用されることがないように警戒してすぐに処理しない。
- 信頼度が高いサイトでは速く処理される。
- 間違って設定されることがあるためあえて時間を置く。
本当かどうかはグーグルの人にしかわからないだろうが、もっともらしい理由だと筆者には思えた。
SEO Japanの
掲載記事からピックアップ
社内SEO担当者に読んでほしい記事と今注目を浴びつつあるオーサーランクについての記事を今週はピックアップ。
- インハウスSEOとして成功する秘訣
インハウスSEO担当者が活躍するのはSEOコンサルタント以上に大変!? - 究極のAuthor Rank(オーサーランク)講座
果たしてランキング要因に組み込まれるか
ソーシャルもやってます!