CyberAgent SEO Information

【続】GoogleがJavascriptを認識し始めたことによる弊害

16 years 2ヶ月 ago
前回のエントリーの続きというか、
状況に進捗がありましたのでご報告します。

前回エントリーの

2. Javascriptで呼び出すFlashが認識されることで、ユニバーサルサーチに予期せぬ動画が出現

についてですが、

解決策として挙げていた「Googleに連絡する」
を実行したところ、
表示に変化がありました。

当初、ユニバーサルサーチの動画検索結果として、


CyberAgent SEO Information-ユニバーサル


のように表示されていたものが、連絡直後から、


CyberAgent SEO Information-複合


のような、動画サムネイル×descriptionの複合型として表示されるようになり、

また数日後、


CyberAgent SEO Information-description単体


のように、通常のテキストのみの検索結果と同じものになりました。
現在はこの状態で落ち着いているようです。

複合型で留めてもらって、テキストのみとのCTRの差などを
検証したかったというのが本音ですが、
現状、Googleが「通常の検索結果」として考えたのが
このテキスト単体型なのでしょう。

今後また表示に変化が起こる可能性があますし、
JavaScriptの記述の仕方によっては想像もつかないような
表示のされ方が他にも出てくるかもしれません。

「JavaScriptを出来るだけ使わない」

という従来のSEOの概念から、

「JavaScriptを上手に使ったSEO」

という新たな概念が、近い将来生み出されそうですね。


(坪 昌史)

GoogleがJavascriptを認識し始めたことによる弊害

16 years 3ヶ月 ago
サイト運営者の皆様はお気づきかと思いますが、
最近、GoogleがJavascriptを認識できるようになり始めています。

ただ、その精度はまだまだ低く、幾つか弊害と思われる事象が
確認できております。

現在我々で確認出来ている現象は2点

  1. Javascriptのリンクを辿れることによる404エラーが多発
  2. Javascriptで呼び出すFlashが認識されることで、ユニバーサルサーチに予期せぬ動画が出現

順に何故これが起こっているかを説明させていただきます。


1. Javascriptのリンクを辿れることによる404エラーが多発

結論から言うと、Javascriptの関数などで、動的に埋め込まれている変数を
クローラーがまだ追うことが出来ないことが問題のようです。

例えば、http://example.com/page/というURLに

<a href="javascript:jump();">リンク</a>

のようなリンクがあったとし、ここで呼び出されるjump()関数が、

function jump(){
var param = kansu();
var link_url = "./next/" + param + ".html";
location.href = link_url;
}


であるとします。
# 技術者向けでスミマセン。。。

このとき、kansu()の返り値を読み込めない場合があるようで、
遷移先を格納する変数「link_url」に「"./next/"」までしか入っていません。

そのため、上記のリンクをクリックした遷移先が、

http://example.com/page/next/

となってしまい、ここにページが無い場合には404エラーが返ってしまう
という現象となっています。

解決策としては、

・URLを実体のあるものに変える
・Javascriptを見直し、パラメータを無くす
・nofollowを記述する

などが考えられますが、まずはGoogleウェブマスターツールなどで、
404エラー発生状況を確認し、早期にこのような現象を
キャッチアップすることが必要ですね。


2. Javascriptで呼び出すFlashが認識されることで、ユニバーサルサーチに予期せぬ動画が出現

Javascriptを使用してスライドショーなどを呼び出すページが存在する
サイトで確認できている現象です。

今まではクローラーはJavascriptを読み込めなかったので
通常の検索結果として表示されていたページが、
最近突然ユニバーサルサーチに出現するようになりました。

さらに、動画ページとして認識されてしまい、ユニバーサルサーチに置き換えられたため、
通常の検索結果に該当ページが出現しなくなってしまっています。

「動画を見たい」というニーズがありそうなクエリに対する検索結果であれば良いのですが、
そうではないクエリの場合、CTRが大きく下がってしまう恐れがあるので注意が必要です。

この解決策としては、
・該当スクリプトを外部JS化し、クローラーが読み込めないようにする
・Googleに連絡する


などが挙げられます。
(なんとなく自然にGoogle側で解消されていく気もしますが。。。)

また、外部JSをパラメータ付きで呼び出す時、
①同様にパラメータがうまく読み込まれずに予期せぬ動画が
出現してしまっている現象も確認できています。

「動画が表示されてもいい」というサイト運営者も、
上記には注意が必要です。


今回は少し難しい話になったかもしれませんが、
この2点以外にもJavascriptによる予想できなかった現象が
今後含め起こる(起こっている)可能性は十分あります。

我々も早期に把握し、みなさんにフィードバックできるよう努めますが、
Javascriptを多用しているサイト運営者はウェブサイトエクスプローラーなど、
注意深く見ておく必要がありそうです。


(坪 昌史)

Yahoo!がインデックス更新・・またしなかった・・?

16 years 3ヶ月 ago

11月2日~3日にかけて、Yahoo!がインデックス更新した・・・とみせかけて、

また戻るというフェイクを“また”行いました。


10月16日頃にも起こっており、

短期間の間に2度同じ現象が起こっています。


かつて7月25日にも同じような現象がおこりましたが、

その1ヶ月と少し後に、

大規模なアルゴリズム変動が起こっています。

今回同様のフェイクを挟んで、結局結構な期間、動きがなかったなと思った矢先の大変動でした。


今回はそのフェイクの少し後に、バックリンクの数値に変化が現れるなど、

我々からするとやや不気味な動きをしているという印象です。

7月25日のように大規模な変動が起こらないとも限りません。

いずれにしても、何かの作業なりテストなりは行ったと思われるためです。

しばらくはYahoo!について注意深く見ていきたいと思います。


しかしながら、この変動⇒戻りは心臓に悪いですね。

「ランクが下がった!」⇒「戻った!」⇒「良かった」

ならまだしも、

「ランクが上がった!」⇒「戻った・・」⇒「ショボン」

というぬか喜びはちょっとショックが大きいですね。

このランクの戻り、

GoogleヨーヨーやGoogleダンスと並んで、Yahoo!フェイクとかYahoo!フェイントとか

何か名前つかないかなと思うのですが、

私はネーミングセンスがなかった模様です。。


【木村 賢】

Yahoo!が関連検索ワードのスパムフィルターを強化

16 years 3ヶ月 ago

多くの企業が頭を悩ませていた関連語検索。

ここに意図的に特定ワードを表示させ、自分のサイトに誘導するという方法を行っていたサイトがありましたが、その方法を不正として今回取締りが強化されました。


関連検索に表示させてサイトに誘導する方法としては、

比較的検索クエリ数の多い、普通にSEOを行うと難易度の高い「A」というキーワードをの関連検索に、不正に

「A」+「○○」

というものを関連語で表示させます。

先に「A ○○」という複合語の上位に自社サイトをあげておけば、

関連検索の「A ○○」の部分をクリックしたユーザーが自社サイトに誘導されるという仕組みです。


この「A」というキーワードは、一般名詞で行われることが普通ですが、

昨今では、固有名詞も目立っていました。

特に、「A 倒産」というものが目立ってきており、

一部のウェブサイトがこれらのキーワードから、

Googleアドセンスやアフィリエイトに閲覧者を誘導する手法をとっていました。

倒産の気配がなにもない「A」という企業について

「A 倒産」

という複合語で関連検索を表示させて、

「A」の商品を購入しようとしたユーザーがその表示を見て

「え?本当に?」

と心配になって関連語検索をクリックしたところ、

「A 倒産」を意図的に表示させた者のサイトが1位に表示されているという状態です。

実際は、サイトに入ると

「A であれば倒産の心配なく・・・」

などと安心して購入できる旨を謳い再度購買意欲を高めさせてアフィリエイトの成果を頂くという、

人間の心理をついた手法でした。


実際この手法でかなりの額を手にした人も居たものと思われますが、

今回のYahoo!のフィルター強化で厳しくなっていくものと思われます。

まだ、「固有名詞 倒産」などで上位表示されているものが残っているケースもありますが、

確認したところ徐々に排除されていっている模様です。

関連検索に表示させる方法によって、それが不正かどうかが判断されるわけで、

必ずしもこの方法がすべてアウトなわけではないのですが、

営業成績も問題ない企業で、他のメディアになにも噂が出ていないもの関わらず、

倒産との複合語だけが出現するのは不自然でしょう。

関連検索にこの複合語が出ることで、上場企業なら株価の低下を招くことも考えられますし、

大手企業であれば検索数も多いでしょうから、大きく名誉を毀損されたことになると思います。

法的な解釈は私にはわかりませんが、

最悪、訴えられてもおかしくないのではないかと思うこともあります。。

そういった意味でも、Yahoo!のフィルターがより強化されていくことを強く望みます。


【木村 賢】

Googleが類似画像検索公開。あの人とこの人が似ている??

16 years 3ヶ月 ago

Googleが類似画像検索を公開しました。

http://googleblog.blogspot.com/2009/10/similar-images-graduates-from-google.html (英文)


通常の画像検索だけでは見つけられなかった画像が見つけられる可能性があり、

用途はいろいろありそうですが、

単純に遊んでいて楽しめました(笑)


有名人の名前で検索すると、本人の画像と似た別人の画像も。。

(ちょっとここで具体例を紹介してしまうとまずそうなので)

「え?この人とこの人が似てるの??」

「あ、確かに言われてみると似てるかも」

と少しの間楽しんでしまいました。

ただ、特定個人の画像は類似検索が出たり出なかったりのようです。

日本の総理大臣やアメリカ大統領などでは、ほとんど類似検索へのリンクが出ませんでした。(google.co.jpにおいて)

一方、タレントやアイドルなどでは結構出てきています。


ただし、この類似検索は、単純に画像がビジュアル的に似ているというだけで出るわけではないようです。


CyberAgent SEO Information-類似画像検索1

をご覧頂くと、リンゴのケーキのようなものまで出ています。

そのワードに関連したものも出てくるようで、

いろんな意味で“類似”した検索結果が出る模様です。

ただ、


CyberAgent SEO Information-類似画像検索2

をご覧頂くと、

似た画像がずらりと並びますので、どちらかというとビジュアル的な要素が優先されていると言ってもよいかもしれません。


いろいろなワードで検索してひとしきり楽しんだあとは、この技術がオーガニック検索に流用されることを考えていかなければならないかもしれません。

bingにはVIPS(a Vision-based Page Segmentation Algorithm)が導入されていてユーザーが実際に見ているものをシミュレートして評価につなげるという機能が含まれて居ます。

Googleもリンク位置によってそのリンクの重要度を変えている節があり、

この概念がもともとなかったかと言われれば、そんなことはないと思いますが、

画像で似たものが判別できるということは、

ウェブサイト全体において、ユーザーにどのように見えているかをシミュレートすることは難しくないでしょう。

実際ウェブサイトのデザインはCSSや画像によって決められることが多いわけですが、

それらすべてを判読できるようになった場合は、

文字を画像化してある場合はaltではなくその画像の中の文字そのものを読めるようになったり、

画像についてその画像がなんなのかをインデックスしていくことは可能になるのでしょう。

HTMLレベルで最適化していくということが難しくなり、

見た目上でも最適化していかなくてはならなくなるわけですね。


まあ、当然このあたりはユーザーに見られることを意識して、ウェブサイトの本当の“効果”を考慮してウェブサイトを作ればあまり問題にならないわけですが、

一部のサイトにおいては大きなダメージを受ける可能性が出てくるのだと思います。


Googleのこういったひとつのプロダクトから、今後どういう変化が起きるか勝手に予想するのは楽しいですね。

それが当たるにせよ、当たらないにせよ・・・。

【木村 賢】

Googleスニペットに機能追加

16 years 3ヶ月 ago

Googleの公式ブログに、

Googleのスニペットにおいて追加された機能についての発表がありました。

http://googlejapan.blogspot.com/2009/10/blog-post_14.html

http://googlewebmastercentral-ja.blogspot.com/2009/10/blog-post_29.html

5月にUSで発表があった機能ですが、

日本で正式発表をしたという形になります。

実際は、日本でもここ1ヶ月くらいかなり目立って見られていましたので、

今日リリースと言うわけではないと思います。


実際の表示形式はこのようになっています。


CyberAgent SEO Information-Googleスニペット2

(「和解」って何??と興味をそそられてしまいますね・・)



CyberAgent SEO Information-Googleスニペット3

タイトル直下にもリンクがつくパターンがあります。

(ちょっと例が悪いですが・・・)


スニペット内に、ページ内リンクのリンク先がつけられています。

これまでは、CyberAgent SEO Information-Googleスニペット1
のようにサイトリンクが出てくるものはありましたが、

今回は、ページ単位へのリンクではなく、

コンテンツ単位へのリンクです。

ユーザーが求める情報に、コンテンツ単位でダイレクトにジャンプされる機能になります。

求める情報に1秒でも早くたどり着きたいユーザーには有益なものになるでしょう。


このようにスニペットにコンテンツ単位へのリンクを設置される方法ですが、

Googleウェブマスター向け公式ブログによると、

  1. まず、ページが複数のトピックから構成される場合には、各トピックを明確に異なるセクションに分けてください
  2. 次に、各セクションにわかりやすい名称(例えば「第 2 章」などではない名称)のアンカーを埋め込んでください
  3. そして、そのページ内に、各アンカーにリンクされている目次を作成してください

とのことです。

まず何よりも

「ページ内リンク」をつけなければどうにもなりません。

ページ内リンクのつけ方は、


まず、飛ばしたい先に、

<a name="アンカー名">~~~~</a>

もしくは、

<要素 name="アンカー名">~~~~</a>

(例 <h3 name="jump">ジャンプ先</a>)


を埋め込みます。

そして、飛ばし元に、

<a href="#アンカー名">~~~~</a>

(例 <a href="#jump">ジャンプ元</a>)

と入れます。

これで、飛ばし元から飛ばし先へのページ内リンクが完成します。

wikipediaのソースなどを参考にされると良いと思います。


このページ内リンク、

ユーザーの意図に反した動きをするとか、被リンク元URLとして使われてリンク効果が分散する恐れがあるのではないか?などとして、

基本的にはあまり使うべきものではないと考えられてきた方も多いと思います。

しかし、今回Googleがこの機能をスニペットに取り入れたことで、

ページ内リンクについて見直す必要がありそうです。

結構ここをクリックする人は多いのではないかと思いますので。。


なお、このページ内リンクがスニペットに出てくる条件については調査して、

またご報告したいと思います。


【木村 賢】


Twitterと検索エンジン

16 years 4ヶ月 ago

TwitterがMicrosoft、Googleと提携交渉 検索につぶやきを取り込み(ITmedia News)

とあるように、

Twitterと検索エンジン大手2社が提携交渉をしていたようですが、

Bing is Bringing Twitter Search to You(Bing Community;英語)

Tweets and updates and search, oh my!(Official Google Blog;英語)

の通り、正式発表しています。

Bingのほうは、(現状はサービス停止してしまっているようですが)、

すでに検索ができたようです。


検索エンジンは、リアルタイム検索に向けた動きを強めており、

特にGoogleはインフラ面や負荷分散などのシステム的な改善に取り組んでクロール力向上に努めているように見えました。

(過去の関連記事:Googleが新しい検索アーキテクチャーのプレビューサイト公開

そんな中で、Twitter(BingはFacebookもです)のつぶやきが検索できるようになった(なる)わけで、

今までのクロール力強化とともにこちらからもアプローチしてきたな。という感じでしょうか。

個人的には、リアルタイム検索への強化はTwitter対策なのかと思っていたのですが、

それなら提携だけしておけばある程度事が済んでしまうので、

それ以外のニュースサイトやブログなども対象にしていくのでしょう。

また、ページ更新のたびに検索ランクに変動が起こるなんていうことも起こるのかもしれません。

「今ユーザーが必要としているページを、今確実に表示させる」

ということを目標にこれからもどんどん検索エンジンは進化していくのだと思います。


Bingは、その独特なSERPsがTwitterとの提携でどのように変わっていくのか注目だと思います。

オーガニック検索の中にそのまま入れてくるということはなんとなくない気がしますし。


なお、Googleでの検索はもう少し先になる模様。

今のTwitterやFacebookの勢いを考えると、

「Googleに先行している間に、Yahoo!に導入してしまいたい」

という気持ちが働いても不思議ではないのかなと思ったり思わなかったり。。。


いずれにしても、今後も“リアルタイム検索”というキーワードには注目が必要だと思います。


【木村 賢】

Googleのランクにやや大きな変動?

16 years 4ヶ月 ago

昨日(やや少し前から)Googleにおいて少し大きめなランク変動があったようです。

しかしながら、Googleの公式ブログでは、インデックスアップデートもアルゴリズムアップデートも公表されていません。


弊社の調査では、通常値の約3倍程度の変動値を観測したのですが・・・。


変動内容を見てみると、普通のインデックス更新やアルゴリズム更新とは異なる動きをしているのが少し見えていました。

現在調査中のものも多いのですが、特に目立つ傾向としては、

・同一ドメインの中で上位に表示されるページが入れ替わる

というものがありました。

また、リダイレクトが使用されているURLでは、

・リダイレクト前のURLがインデックスされているように変化したものが多い

という傾向が出ています。

通常通りのランクチェックをしてみたら、

上位に居たのに圏外に飛んでしまった!

どうしよう・・。大変だ・・・。

そう思っていたら、別のページが出ていた!

なんてことも結構あると思います。

もちろん、通常SEOを行う場合には最適なページをLPとして設定するでしょうから、

LPが入れ替わってしまうのは良くはないのですが。


LPが変わっているということは、

被リンクの絶対数の評価が少し下がった可能性もあると思います。

(事象から見る可能性の問題です)

論理構造を重視したのか、被リンクについての扱いが変わったのか?


大きなアルゴリズム変動ではない模様ですが、少し調査してみたいと思っております。


【木村 賢】



SEOはバランス感覚が大事?

16 years 4ヶ月 ago

SEOを生業としていると、SEOを通して色々な言動を見聞きします。

その中で、SEOがうまくいかなくなるパターンとして、

すべてを

「全か無かの法則で考えてしまう」

というのがあると思います。


例えば、「リダイレクトはよくない」と言うことがあったとすると、

「リダイレクトしたら、もうSEOはできない」

となってしまったり、

「1コンテンツ1キーワードが理想的」

となったら、

「2ワードできないなら、意味がないからやらない」

となってしまったり。

最も多いのは、サイトの修正案のすべてができなければ、

ランクが上がらなくなると思ってしまうこと。

一見ここで文章にすると本当?と思ってしまいますが実際の現場では起こることが多いものです。


これは、SEOをするサイト管理者の方だけでなく、

SEO事業者でさえ陥りがちな誤りです。

この誤りが起こるのは、

「検索エンジンのランクとは複合的な要素で決まっている」

ということを見落としているためではないかと思います。


Aということができないのは、確かに100点満点にならないけれど、

Bという方法で限りなく100に近づける。

そういう努力が最後に競合との差になります。

SEOというのは絶対評価ではなく、相対評価の世界です。

そもそもウェブサイトという枠組みの中で行うもので、

そこには、表記できるコンテンツに制約があったりデザインに制約があったり、

どのサイトも少なからず制約があるはずです。

その制約の中でどれだけベストが尽くせるのかが、SEOが成功するか否かを握っているように思います。


もちろん、超難関キーワードで、コンテンツが1枚しかありませんとか、

キーワードに対応するコンテンツなんてありません

という、本質的にずれたSEOをしようとした場合は、

土台無理なケースもあります。

しかしながら、最低限の条件が整っていれば、

なんとか合格点に持っていくことというのができることが多いと思います。


制約がある中で、できることを着実にやる。また、代替案がないか探す。

これによって、無理かなあと思っていたSEOが実現できるケースはあると思います。

要0or100で考えるのではなく、バランスが大事ですね。


自戒の念もこめて・・・ですが。


【木村 賢】

Googleでインデックスを確実にブロックする方法

16 years 4ヶ月 ago

http://www.mattcutts.com/blog/robots-txt-remove-url/  (英語)


マットカッツ氏が同ブログ内の動画で、

Googleのインデックスブロックについての話をしています。


簡単に要約すると、

・robot.txtで、クローラーをブロックすればクローラーはそのページをクロールすることはない

・ただし、他のサイト(ページ)からリンクされていればSERPsに掲出される可能性はある

・SERPsに出さないためには、noindexメタタグを使用するか、Google提供の削除ツールを使おう

という感じでしょうか?

(誤訳あれば教えてください!)


確実にインデックスをブロックするには、

metaタグ内にnoindexを設定するか、削除ツールを使うこととのことですが、

robot.txtとmetaタグを共存させると、

robot.txtでクロールがブロックされてしまうので、

metaタグも読めなくなり、

結局削除ツールを使うと言う結末になるのかな?と思います。


あと、この現象からURLのリスト化は実際にそのページにアクセスしたときに行われるのではなくて、<a>タグを拾っているということが分かると思います。

Googleが、いかにリンクというものを重視しているのか分かる現象かと思います。

確認済み
3 時間 5 分 ago
サイバーエージェントSEOラボです。当ブログでは、皆様がウェブサイトを運営するにあたって必要となるSEOに関する情報をご提供して参ります。
CyberAgent SEO Information フィード を購読

人気記事トップ10

人気記事ランキングをもっと見る