ヤフーのインデックス更新でペナルティ発動続出 など10記事(海外&国内SEO情報)
日本語で読めるSEO/SEM情報
- ヤフーのインデックス更新でペナルティサイト続出か
(インフォキュービックSEOブログ)ヤフーは、9月4日に約3か月ぶりとなるインデックスアップデートを発表した。激しい順位変動のほか、ペナルティフィルタの発動に特徴があるようだ。もっとも、中にはどうみても問題ないのにSERPから消滅したサイトもあるようで、「ペナルティ」と呼ぶべきではないのかもしれない。
インフォキュービックブログによれば、リカバリにはいくつかのパターンがあるそうだが、ぜひ公開してほしいものだ。
また、ウェブ力学の記事「Yahoo!ダウンペナルティ(TDP)から復活するパターンのまとめ」では、ペナルティ解除の対応策ではないのだが、こちらの記事では解除のタイミングについて解説している。何らかの参考にはなるのではないだろうか。
- グーグルのインデックス速度はダントツ
(無題なブログ)突然世に出てきた新しいキーワードを検索したところ、ヤフーとグーグルとBingのインデックスの数に、大きな違いが現れた。グーグルのインデックス数がずば抜けて多かったのだ。
グーグルは、Caffeine Update(カフェイン・アップデート)と名付けて、新しい検索インフラをテスト公開している。新システムでは、さらにインデックスの数とスピードがパワーアップするとも言われている。
- グーグルの品質に関するガイドライン違反について
(Google ウェブマスター向け 公式ヘルプ フォーラム)グーグルからガイドライン違反の通知を受けたユーザーの問い合わせに便乗して、他のユーザーが再審査リクエストが機能しているのかどうかを尋ねた。
グーグル社員のKyotaro氏の回答を引用する。
申し訳ありませんが、再審査リクエストについて個別にお答えすることはいたしておりません。
リクエストの再審査が終わった際には「再審査リクエストを処理しました。」というメッセージがウェブマスターツール上に表示されます。
再審査のプロセスには数週間がかかりますが、リクエストを送信してから数週間が経過しても何の変化も見られない場合は、以下の2つの内どちらかのケースに該当するものと思われます。
1.サイトが依然 Google のウェブマスターのためのガイドライン に違反している
2.サイトにはもともと何の問題もなく、ただ、ご期待されたランク付けにはなっていなかった
- SEMはライフタイムバリューを考慮して
(Sphinn Japan Blog)ライフタイムバリューとは、Lifetime Value(LTVとも略される)のことで、「顧客生涯価値」を意味する。「顧客との継続的な取引によって得られる利益・価値のこと」を意味するマーケティング用語である。検索エンジン、特にPPCを利用した集客で、LTVまで考慮しているウェブ担当者はどのくらいいるのだろうか?
紹介元記事では概要のみにとどまっているが、これを機にLTVを意識するようになってほしい。
- ACUOブログ力コンテスト
(ロッテ)チューインガムの老舗メーカー、「ロッテ」がおもしろい企画を始めた。「ACUO LOTTE」ともう1つ秘密のキーワード、計3キーワードでグーグルブログ検索した結果、ランキング1位だったサイト管理者に賞金100万円とACUO100個をプレゼントするというのだ。
クチコミを狙ったプロモーションも兼ねているのだろう。興味があれば参加してみてはいかがだろうか。ただし、SEO関連の仕事に就いてるならば遠慮しておこう。たとえば、この記事のタイトルを残りのキーワードを推測して「ACUO LOTTE ガム お口の恋人」とでもしておき、メインコンテンツの中から内部リンクを2~3本張っておく。キーワードさえ当たっていれば、簡単に1位を取れそうである。
海外のSEO/SEM情報を日本語でピックアップ
- URLの階層の深さとランキングの関係
(Axandra)グーグルはルートディレクトリの直下にあるページを好み、ページが多くの「/(スラッシュ)」で区切られて、深いディレクトリ階層になればなるほど重要でないとみなすという仮説がある。しかし、そんなことはなくサイト中から内部リンクが張られていて、外部リンクを得ていれば問題なくインデックスされランキングすると説明した記事。
ただし、URLは短いほうがユーザーにとって見やすく覚えやすいし、SERPでのクリック率にも良い影響を与えるそうだ。
筆者がよく取り上げるWebmasterWorldやHigh Rankings Forumでも同内容のスレッドを何度か目にしたことがあるし、SESサンノゼのセッションでも聴いたことなので、信じていいだろう。
- 302リダイレクトの取り扱いが変わった?
(Twitter)Web担でおなじみのSEOmozのランド・フィッシュキン氏がTwitterでつぶやいた。
グーグルが、ますます302を301のように取り扱うようになってきているみたいだ(リンクジュースを渡したり、転送元のURLをSERPに表示したりなど)ということに、ボク以外に誰か気づいた人はいないかい?このつぶやきに同意しているリプライが見られたので、3つほど紹介しておこう。
あぁ、少し前からそうだ。しばらくの間そんな状態だ。私も気づいていた。@mattcutts は、dullest.comにしばらくの間移転したときに302を使って、それを世の中に示した。※筆者注:グーグルのマット・カッツ氏は、今年の4月下旬から1か月ほどパーソナルブログのwww.mattcutts.com/blogをdullest.comに302リダイレクトで、一時的に移動していた。何かの検証も兼ねていたようである。
302リダイレクトは一時的な移転を表し、恒久的な移転を表す301と違い、PageRankは渡さないしSERPのURL表示は元のドメイン名のままである。本当に取り扱いを変えてきたのだろうか。
- robots.txt基礎講座
(Twitter)Googleのジョン・ミューラー氏がTwitterでつぶやいた。
robots.txtの基本 -- robots.txtで拒否したページにmetaタグを付けても意味がない。ロボットは見ることができないんだから。metaタグは、おそらくmeta robotのnoindexやnofollowなどのことを言っているのであろう。たしかにインデックスやリンクをたどることをmetaタグで禁止しても、robots.txtの指示でそのページにアクセスできないのであるから、まったく無意味である。
- robots.txtのダウンロードは1日1回
(Google Webmaster Central Help Forum)こちらもグーグルのジョン・ミューラー氏によるrobots.txtのTIPSだ。氏によると、グーグルはほとんどのサイトで、1日に1回robots.txtをチェックするそうだ。
Googleウェブマスターツールで確認したところ、どのサイトも最終ダウンロードが、確かに24時間以内であった。robots.txtの変更や間違い修正を行っても、1日以内には見てもらえるということになる。逆にいうと、最後にrobots.txtがダウンロードされた2時間後にrobots.txtを変更しても、しばらくはその内容が反映されないということにもなるが。
- すばらしいサイトからのリンク申し込みがあったけれど……
(WebmasterWorld)相互リンクを申し込んだ相手から了承の返事が来たのだが、コンテンツが貧弱で単にグーグルにキャッシュさせることだけが目的のようなサイトであったので、断ろうと思った。ところがよくよく調べてみると、PageRankが6で、非常にオーソリティのあるサイトからバックリンクが張られているサイトだった。どうやら誰かが更新せずに捨てたドメイン名を再取得したようだ。相互リンクに応じるべきか断るべきか。
このような悩ましい問題に直面したサイト管理者が、WebmsterWorldで意見を求めた。
1人のメンバーが次のようにアドバイスした。
まずWhois情報で取得年月日を調べ、次にIntenet Archiveで過去の状態を調べる。そしてバックリンクとコンテンツに怪しいところがないか調べて、再取得されたものかどうか判断する。
そのサイトからのバックリンクは、すばらしい働きをするかもしれない。しかし、以前のコンテンツと比べてお粗末だった場合には、手動・自動のチェックに引っかかり、切り捨てられることもありうる。そうなった場合、たちの悪いサイトにリンクしているということで、自分のサイトにも被害が及ぶ可能性もある。機能することもあるだろうが、危険なにおいもする。
ソーシャルもやってます!