SEO Japanの掲載記事からピックアップ
海外のSEO/SEM情報を日本語でピックアップ
- グーグルがバックリンクを認識する6つの要因
(WebmasterWorld)外部のサイトからバックリンクが張られたとしても、それを検索エンジンが直ちに認識するとは限らない。グーグルがバックリンクを認識する代表的な6つの要因をWebmasterWorldのフォーラム管理者tedsterは次のように述べている。
- リンクしているページのPageRank
- リンクしているページにほかにいくつリンクがあるか
- リンクが出現する場所がどのくらいコンテンツの先頭に近いか
- ページのテンプレート全体の中のリンクの場所 ―― たとえばフッター部のリンクはほとんど何も与えてくれないが、メインコンテンツ部の上の位置にあるリンクはもっと多くを与えてくれる
- リンクしているページやサイトに対してかかっているペナルティやフィルタ
- リンクされているページやサイトに対してかかっているペナルティやフィルタ
- グーグル社員お気に入りのウェブマスターツールの機能
(Search Engine Guide)グーグルのPR担当といえばウェブスパムチームのリーダー、マット・カッツ氏が真っ先に思い浮かぶ。しかし最近は、カンファレンスやインタビュー、ビデオなどで、ウェブマスターセントラルチームのエンジニアであるマイリー・オイェ女史の露出が増えてきた。今回ピックアップするのは、Search Engine Guideとのインタビュー記事である。
Googleウェブマスターツールについてのインタビューでかなり長いのだが、その中からマイリーさんのお気に入りの機能を紹介する。
マイリーさんのお気に入りは「HTMLの候補」である。「HTMLの候補」では、重複するmeta descriptionや重複するtitleタグを確認できる。
メインコンテンツ部分の重複を避けるのは当然だとして、meta descriptionの記述やtitleタグが同じあるいはほとんど同じになっていると重複コンテンツだとみなされてしまうことがある。CMSを使っているとmeta descriptionやtitleの重複が発生しやすい。定期的に「HTMLの候補」をチェックして、別々に認識してもらいたいページのmeta descriptionタグやtitleタグにダブりが発生していないか調べておこう。
- グーグルのSSL検索でもリファラーから検索キーワードを取得する方法があった
(Mike Cardwell on the Internet)グーグルがテスト公開しているSSL検索ではリファラーの取得ができないため、アクセス解析ツールで検索キーワードの分析が不可能になると先週のこのコーナーで説明した。
実は、回避策が1つだけある。自分のサイトでもSSLを導入して、標準でHTTPSで通信するように設定して、その状態でインデックスされるようにすることだ。HTTPSからHTTPSへの移動時にはリファラーが渡されるので、キーワードを取得できる。
とはいっても誰にでも容易に実装できるわけでもないだろう。いくつか問題点がある。
- サーバー証明書をお金を払って取得しなければならない
- SSLを導入すると暗号化・復号の処理に負荷がかかるのでサーバーのレスポンスが低下する
- ウェブサーバーがApacheでバーチャルホスト(hostヘッダー)を利用してる場合は専用のIPアドレスが必要になる(IIS6.0と7.0はホストヘッダーとの併用可)
グーグルのSSL検索はウェブ担当者にとって、やはり驚異(面倒?)になりそうだ。
- SEOmozのランドが嘆いた、「グーグルは有料リンクをなんとかできないのか」
(Rand Fishkin(randfish) on Twitter)SEOmozのランド・フィッシュキン氏がツイッターでこんなツイートを発した。
ペイドリンクのテストがとてもうまい具合にいったのがわかって、実際のところ少し悲しい。頼むよグーグルのウェブスパムチーム、もっとうまくやれるんじゃないか?SEOmozは長期的展望とリスクの観点からリンク購入をストップした。グーグルがランキングを操作するための有料リンクを禁止しているにもかかわらず、徹底できていないことを嘆いているのであろう。
SEO Japanの掲載記事からピックアップ
今週はリンクに関する記事を2本ピックアップ。
来週は、SMXシアトルに参加のため、このコーナーはお休みさせていただきます。次回6月18日の記事をお楽しみに!
ソーシャルもやってます!