先週GoogleおよびGoogleのエンジンを使用しているyahoo!Japanに大きな変動が発生したことは、
いろいろなところに話題になっています。
ここ最近では特に大きく変動したと思われるにも関わらず、
Matt Cutts氏がアルゴリズム変更等を否定したため余計に「何が起こったんだ?」と様々な憶測が飛んでいます。
弊社の変動を検知する計測システムでは、先々週にも大きな変動を検知していましたが
それと同じレベルの変動を先週にも検知しています。
12,13日は弊社システムでもGooleの日本語の検索結果のみしか変動を検知していませんので
特定条件の場合のみに動いたか、特定キーワードの上位だけが多少動いたかの可能性もあります。
(変動数値は指数化しており、上位の変動ほど大きくなるように傾斜をつけています)
一方で18日については、いずれの検索エンジンも同じように大きな動きを示しており、
確実に『変動があった』と言えるレベルになっています。
Googleは否定しているものの、アルゴリズム変更等があった可能性もあると考えて
変動したリストについて調査してみました。
なお、これらはGoogleが公式に発表しているものでは当然ありませんし、
我々が変動したURLを基に勝手に推測したものにすぎませんのでご了承ください。
(なお、今回の見解はサイバーエージェントのインターネット広告事業本部SEO局とAmeba事業本部SEOグループの共同見解になります)
1,コンテンツに重複が多いページを持つURLのランクダウン
例えばヘッダー、サイド、フッター等はコンテンツがあるけれど全ページ共通。
ユニークなのはメインエリアの画像一枚と数行のテキスト。
のようなものがサイト全体で評価を下げているケースが複数見られました。
また、例えば不動産や中古車情報のサイトでエリアを選んだ際に、複数の
「この地域のデータはありません」のような表示が出てしまうサイトも全体的に評価が下がっているようです。
また、重複率が高かったものをheadタグ内含めて重複率を下げたもののランクが戻り、
headタグ内含めて重複率が高まったもののランクが下がるというケースも見られました。
パンダアップデートでも対象になりそうな部分ではありますが、「重複」というのがひとつの鍵となっているように思います。
2,リストページのランクダウン
「ユーザーは検索結果に検索結果が出てくるのを好まない」という趣旨の発言をGoogleがしていたと思います。
このポリシーを強めたような結果が出ています。
不動産サイトなどでは、地域の物件一覧(リスト)ページが上位に来ていたものがランクダウンしていたり、
USのGoogleでもECサイトのカテゴリのリストページがランクダウンしているものが見られました。
リスト以外ではオリジナルなコンテンツがほぼないというところが問題になった可能性があります。
3,短文の寄せ集めコンテンツのランクダウン
リストページもそうかもしれませんが、短い文章が寄せ集まったコンテンツ中心のサイトのランクダウンがいくつか見られました。
例えばユーザーが短い文のコメントを残して一つのページができあがるようなTwitterのようなコンテンツや日記系のコンテンツなどがそれにあたります。
キーワードとコンテンツの関連度を非常に良くみるようになったGoogleにとって、雑多なテーマを寄せ集めたコンテンツは、
どんなキーワードで上げて良いか分からないコンテンツ=上げる価値のないコンテンツ
としてサイト全体の評価(流入)を下げる結果になると思われます。
4,上位表示URLの入れ替わり
上位表示されているURLが同一ドメイン内で入れ替わっているものも今回はかなり多くありました。
入れ替わりの傾向としては、
・リストページ(ジャンルページ・エリアページ等)から詳細ページ(商品や物件の詳細ページ)や読み物系編集コンテンツページに入れ替わる
・画像や動画などをメインに据えたコンテンツからテキストが多いページに入れ替わる
・被リンク数の増加率が高いページから被リンク総数が多いページに入れ替わる
等がありました。
基本的には、1,2で評価が下がったようなコンテンツが下がり、かわりにオリジナル性が高いテキスト情報が多めのコンテンツがランクアップしているように思います。
その他、ハミングバードの影響かクエリ解釈がいくつか変わったと思われるものがあったり、
リンクをはじめとした手動ペナルティ(アクション)と思われるものがあったりしました。
繰り返しますがGoogleはアルゴリズム変更を否定していますし、渡辺隆広さんも
ブログの中で(Matt Cuttsは検索アルゴリズム変更を否定、しかし…Googleで大規模な検索順位変動が発生)
個人的には、ざっと見た感じアルゴリズムで何か変えたような印象は受けません。リンクの評価方法を変えたようにも見えませんし、コンテンツの分析や関連性を変えたようにも見えないです。トラフィックが減っているようにも、増えているようにも見えません。
アメーバの利用規約違反報告に、「SEOスパム」を追加しました。
http://helps.ameba.jp/inq/inquiry/vio
すでにいくつかのブログ等でとりあげて頂きましたが、
少しその理由について書きたいと思います。
アメブロに限らず、多くのUGCはスパム投稿に頭を悩ませています。
それによって、例えばサイト内検索の結果が不適切なものになってしまったり、
ユーザー様が戸惑われたりするケースがあります。
さらにドメイン全体に対してSEOの観点からも悪影響を及ぼす可能性もあります。
(ほとんどの場合スパム行為を行ったそのアカウント単位で処理されているようですが)
特に目立つスパム(Googleのガイドラインに違反する可能性がある)投稿は、
①アフィリエイトのみが目的になっているもの
アフィリエイトのみが目的になっておりオリジナルのコンテンツがまったく存在しないもの。
広告のみの掲載か、元サイトの文章をそのままコピーするものでオリジナル性がまったくないものが多数です。
②SEOの人工(自作自演)リンクのリンク元になっているもの
ブラックハットなSEOの温床となっているブログ等が残念ながら存在しています。
ブログサービス様によっては発リンクのすべてnofollowにしています。
アメーバブログでも一部はnofollowにさせていただいています。
③被リンクスパム
②のようなリンクを受けているスパムで、2年間くらいからGoogleが手動による対応を強めているものです。
SEO会社に任せていたらアメブロから変なリンクがついていた!という場合にも通報して頂けます。
ただし、リンク元のページそのものがなくなる場合、リンクが削除されたとみなされなかったり、認識するのに時間がかかるケースが過去に数例ありましたので、必ずしもこれでペナルティを解除できるわけではないことはご理解ください。
④リダイレクトスパム
当該ブログに行くとすぐにリダイレクトされて別のサイトに誘導されるという悪質なスパムです。
少数ですが残念ながら存在していたことがあります。
⑤スクレイピングコンテンツ
他のコンテンツをコピーしてあたかも自分のコンテンツかのように見せたり、引用だけでコンテンツと見せるようなものです。
Googleはオリジナルコンテンツしか評価しないためSEOで成功する可能性はほぼありませんが、アフィリエイトリンクへの誘導を図るようなUGCコンテンツによく見られます。
⑥その他
その他にもSEOスパムであったり、SEOスパムを行うためであったり、SEOをかけたうえでガイドライン違反をしたりするUGCコンテンツが多々あります。
また、それらは新たな手法がどんどん生み出されています
このようなものは他のユーザー様や一般の閲覧されるユーザー様に悪影響を及ぼす恐れがあります。
怪しいな?と思うものは是非フォームからご連絡いただければと思います。
なお、この通報によって必ずしもその投稿が削除されたり、警告されたりするものではありません。
我々としてはその記事そのものに、
・スパムの可能性があること
・少なくともユーザー様のどなたかは不快に思う可能性があること
を認識します。
そのうえで利用規約に違反していると判断できたものに直接的に対応をさせて頂きます。
なおかつ、そのような報告受けたものの特徴を機械学習して、
今後投稿されるもので、上記のようなスパムの可能性があるものを自動的に抽出しやすくしています。この基準(アルゴリズム)は通報して頂くものが増えれば増えるほど精度が高まると考えています。
一般論として、UGCでこのような行為を行ってもほぼ効果はないはずです。
Googleは非常に有能な検索エンジンであり、日々様々なスパム対策を行っています。
先に記述したようなある意味古典的とも言えるスパム行為は、すでにほとんどGoogleが対応済のものです。
上記のような行為は無駄に終わる可能性が高いことからも現在では避けるべきことかと思います。
それらの時間はGoogleからも人からも評価される質の良いコンテンツを作る時間に割いたほうが効率的になってきていると思います。
繰り返しますが、これらの機能強化は報告いただいたものを削除することだけを目的にしているわけではありません。
なるべく多くのユーザーの方が気持ちよくサービスを使っていただけるということと、報告頂くコンテンツの内容によってUGCと検索エンジンの関係性を考えさせていただければと思っております。
http://helps.ameba.jp/inq/inquiry/vio
Twitter Google+
Author Rankという言葉が10月に行われたPubconでも盛んに聞かれました。
Author Rankとは、簡単に言ってしまえばコンテンツやウェブサイトの著者の価値のことであり、
今後Googleが検索のランク付けに使用してくると予想される要素です。
Googleは現在は「何が書いてあるか?」「そのコンテンツは信頼性が高いか?」を判断して検索結果のランク付けをしていますが、
ここに「誰が書いているか?」が入ってくるわけです。
「ウェブサイトのオーソリティ」から「著者のオーソリティ」に評価が移ってくるとも言えるかもしれません。
確かに、ある筋の権威ある人は自サイトだけでなく様々なメディアに寄稿をすることが多々あります。
そのときに現在のアルゴリズムではメディアの強さに左右されて有用な記事が検索結果の下位に埋もれてしまうということが起きないとは限りません。
また、逆にまったくその業界で知識がない人が何かの間違いで力のあるメディアに寄稿してその信憑性のない記事が検索で上位に出てしまうということも起こり得ます。
Author Rankをアルゴリズムに取り込むことでこれらの問題が解消される可能性が出てくると思われます。
Author Rankは、その名の通り「rel="author"」を使用した著者情報を基にするとみられています。
現時点でこのタグが影響するのは、このように
検索結果に著者情報が掲載される場合です。
ちなみに写真は顔かどうかを認識して表示されます。
が、Pubconで得た情報だと一度顔写真を認識させれば顔写真以外の画像に変更すればそれが表示される・・・
というものがありました。
おそらく表だってそういう発言があれば修正されていると思われますが。
この検索結果の著者情報について、15%が削除されたというニュースがありました。
Google、著者情報の写真を検索結果に表示しない措置を実行。15%程度が消滅か?(海外SEO情報ブログ)
Google、検索結果から著者の顔写真表示を15%削減 - 低品質サイトが対象(SEMリサーチ)
何を基にして削除したかははっきりしませんが、場合によってはすでにAuthor Rankをある程度みていてそこの情報も基にしているという可能性もあるように思います。
この動きを見ても近いうちにAuhor Rankが導入されるのではないか?とも考えられます。
Author Rankは先述した通り、著者の価値を数値化するものです。
では、何が影響してくるのか?ですが、あくまで予想&他記事を参考&Pubconで言われていたことが中心ですが
(そういえばブログが復活してからはこういう妄想系記事ばかりになっていますね;反省)
・rel="author"で紐付けているGoogle+でのアクティブ度合
・rel="author"で紐付けているGoogle+でのフォロワー数
・rel="author"で紐付けているGoogle+でのフォロワーのフォロワー数等(フォロワーの強さの合計)
・rel="author"で紐付けているGoogle+でのフォロー数とフォロワー数の比率
・rel="author"で紐付けているGoogle+での投稿に対する他ユーザーの反応(+数やコメント)
・Google+アカウントの「寄稿先」のアクティブ度
・Google+アカウントの「寄稿先」のページやサイトの信頼性(オーソリティ)
・各分野での権威ある人からの評価(その人とつながっているか?関わりはどの程度か?)
・FacebookやTwitterでの権威やアクティブ度(?)
いずれもはっきりしたことは分かりません。
Author RankはAgent Rankという特許技術を基にしていると思われますが、
特許内容は必ず使われるとは限りませんし、特許内容だけが使われるとも限りません。
よって、これは完全なる予想です。
ただ、今存在するシグナルを使うとしたらこのような形になるのではないでしょうか?
地域性が重要視されるようなキーワードに対しては居住エリアなども関係するかもしれませんし、
対象年齢が絞られるようなキーワードだと、その著者の年齢も影響を及ぼすかもしれません。
ひょっとしたらGoogle+のプロフィールも影響を及ぼす可能性も否定できません。
いずれにしてもGoogle+を中心もしくはハブとした情報を基にしてAuthor Rankは決定されると思われます。
もちろんこれらは今すぐどうこうというわけではありませんが、
仮にAuthor Rankがアルゴリズムの一部として導入された場合を想定して、
やっておいた方がよさそうなことを挙げると、
・Google+のアカウント運用、しかもちゃんと使う
・Google+の投稿の方向性を絞る(雑多にせずに専門分野に特化してみる)
・Google+に自分で運用している他サイトを「寄稿先」に登録する
・寄稿先のサイトのSEOは普通にがんばる(特にオーソリティが高まるように;ナチュラルリンクが多数集まるように良質なコンテンツを提供“し続け”る)
・Facebook,Twitter等の他ソーシャルメディアでも信頼度を高める
実際私もその時のために完全に手をつけていなかったGoogle+をボチボチ再開し、このブログも再開し、Facebook一辺倒だったものからTwitterも再開し、、、
というようにしてみました。
正直しんどい(笑)
ですあ、ソーシャルならびにサイトでの信頼度を高めるのは一朝一夕にできるものではないため、
ある程度仕込んでおくことは重要だと思います。
無論、ソーシャルもサイトの運用もそのために行うものではないですしそこを意識しすぎるのは誤りです。
なので、「今後のこと」をモチベーションにして運用していくくらいが良いのではないでしょうか?
なお、これらのことはあくまで「著者」という「人」に紐付くものであり、
"rel="publisher"がどう影響しそうかなどの情報は今のところあまりありません。
現時点では、Author Rankが検索順位に影響及ぼしそうね。という推測の領域を出ず、
その中ではあくまで「人」にフォーカスされているだけです。
これを「組織」や「団体」に広げた場合にどうなりそうか?というのは時間があるときに考えてみたいと思います。
ここ数日Googleは大きく変動しています。
次回はこの数日の変動についてまとめられたらと思います。
そろそろ現実的な記事を書かなければ。。「もしも」的記事は当分控えておきます。。。
木村賢 tiwtter
リハビリ第二弾はソーシャルシグナルとSEOについて書いてみたいと思います。
データは事実ですが、そこからの考察は完全なる独断と偏見ですので苦情は受け付けておりませんw
ソーシャルシグナルとGoogleのランキングの関係性については、
いろいろなところで語られています。
・ソーシャルシグナルはランクとの相関がある
・ソーシャルシグナルはランク付けに使っていない
・本当はソーシャルシグナルをランク付けに使っているはずだ
・ソーシャルシグナルが多いサイトは元々高品質だからランクがはじめから高い
etc..
いろいろな意見があり、いろんな検証データがあるのが現状だと思います。
私も京都大学との共同研究の中でソーシャルシグナルとランクとの関連性を計測していますが、
相関がないとは言えないデータが出ているのが現状です。
※グラフの厳密な見方の説明は省かせて頂きますが、基本的に赤色部分が多いほど勝率が高くなる=ランクが高くなるというグラフです。横軸はほぼそれらのシグナル数(ただし対数)と考えて差し支えないデータになっています。(厳密に言うと違いますがここでは詳細なデータの説明は省かせて頂きます)
こちらはTwitterのツイート数(リンクが掲載されてツイートされた数)とランクの関係です。
Twitterは現在発リンクにはnofollowが入りますので被リンクとしてリンクジュースが流れてきません。
しかしながらTwitterのツイート数との相関はあると言ってかまわないようなデータが出ています。
このデータから考えられることですが、
・nofollowだけれども実はシグナルとして受け取っている
・TwitterカードなどAPIで外部サイトに掲載される場合はdofollowになる
・はてなブックマークなどTwitterと連動するサービスからのリンクが増える
・Twitterでよくシェアされるコンテンツを機械学習してアルゴリズムに組み込んでいる
・たまたま偶然
・シェアされるコンテンツはもともと優れているから
次にfacebookとランクの相関関係を表すグラフです。
こちらも数値が大きいところが不安定ながら相関がありそうな結果です。
なお、facebookのシグナルとしては、シェアされた数といいね数がカウントされています。
こちらも
・実はシグナルを使っている
・Facebookでよくシェアされるコンテンツを機械学習してアルゴリズムに組み込んでいる
・シェアされるコンテンツはもともと優れているから
ということが考えられます。
最後にGoogle+です。
こちらは他の2つに比べてはっきりと相関関係が見られるグラフになっています。
・Google+はオリジナル(シェア)ではないもののリンクはdofollowであり直リンク効果である
・実はシグナルを使っている
・Google+でよくシェアされるコンテンツを機械学習してアルゴリズムに組み込んでいる
・シェアされるコンテンツはもともと優れているから
の3つが考えられるかと思います。
いずれしても「実は・・・」みたいな話はありますがGoogleが公式に否定していることなので
一応信じることにして(笑)ではなぜ相関が出るのか?ですが個人的に
・よくシェアされるコンテンツを機械学習してアルゴリズムに組み込んでいる
という可能性は高いと思っています。
Googleはユーザーテストの結果や一時期はChromeの拡張機能からの情報を機械学習してアルゴリズムに反映させていたはずです。
機械学習の優秀な人材が様々な大学からGoogleに入っているそうですし、かなりの高い精度でソーシャルメディアで人気がある・指示される(=世の中で人気がある、指示される)コンテンツの特徴を把握してアルゴリズムに反映しているのではないでしょうか?
あくまで個人的な考えですが、2014年はソーシャルシグナルをこのような間接的な形だけでなく、直接的にも使用してくる可能性は高いと思っています。
もちろんそれにはGoogle+を用いる場合は、Google+の普及が前提ですが、Author Rankと絡めながら新しいアルゴリズムが導入される確率は高いと思っています。
Author Rankについては次回、もしくは近いうちに考察を書きたいと思います。
木村賢 twitter Google+
久々にブログを書いてみます。
リハビリ開始という感じでゆるめの「いまさら」な記事から。ハミングバードについて勝手な考察です。
ハミングバードとは?ハミングバードの影響は?
ハミングバードがリリースされて数か月が経とうとしています。
日本語に導入されているのか?されていないのか?
もはっきりしたことは分かりませんが、開発者には日本人の方が含まれているということなので
まったくないということはない、というのを期待したいと思っています。
ハミングバードは過去のGoogleの検索におけるもっとも大きな変更とのことでリリースされています。
「過去のGoogleの検索おけるもっとも大きな変更」
と書くと、どれだけ大きなランク変動があったんだ!と思いがちですが(私もその一人です)
実際にはGoogleのランクそのものは決して大きな変動があったとは言えないと思います。
世界の検索クエリの90%に影響を及ぼしたとGoogleが発表しているわりに、
まったく騒がれていないのがこのハミングバードです。
8月の各検索エンジンのランク変動データを見てみると、
8/17(データ自体は8/16のもの)にgoogle.comにおいて大きな変動数値の山があるので、
ここで何かがあった可能性はあります。
ただ、世界的にも大きく騒がれなかったこと、
日本では騒がれてもいませんし、データ上も大きな動きがないことから、
そこまでアルゴリズム変更そのものは現時点で気にするべきものではないと思います。
90%の影響と言っても何に対する90%なのか、またそれぞれどの程度変化したのかよくわかりませんし、
ひょっとしたら90%の検索クエリに対して、どこかにユニバーサルサーチの挿し込まれ方が変わったとか、
20位以降のランクが低いところで変わったのかもしれません。
その後の数々の情報から、ハミングバードは
検索プラットフォームの刷新であり、
特にスマートフォンでの音声検索に見られる、複雑な検索クエリを意識した
クエリの解釈の変更を中心にしたアルゴリズム変更であると言われています。
例えばこれまで
「渋谷駅近くのおいしいラーメンを食べたい」
と検索すると
「渋谷駅」「近く」「おいしい」「ラーメン」「食べたい」
が入ったページを中心に検索結果を生成していました。
これが様々なハミングバードの状況から勘案するに、
「この人は渋谷駅のおいしいラーメンの情報サイトを探しているんだ!」
というクエリの解釈をして、
「渋谷駅」「おいしい」「ラーメン」
に近い結果を返すということになるようです。
これは非常に理にかなった変更であり、より検索ユーザーの意図を汲んだものになると思われます。
ただし、実際のところ日本語ではそこまで精度があがっているようにも思えず、
(もしくは導入されていないという方もいらっしゃいますが)
「埼玉県川口市のラーメン」
で検索すると、全文検索状態の検索結果のままでした。
そのほかの言語でもこのような状態は見られており、ハミングバードが入っていたとしても精度はこれからという感じでしょうか?
ハミングバードへの対策
実際に大きな動きがなかったものでもあり、
今まで通り、良質なコンテンツを作り構造含め良質な使い勝手の良いサイトに仕上げていくことに変化はないと思われます。
その中で今後さらに解釈が進んだ場合意識しておいたほうがよさそうなことですが、
・共起語、関連語
・クエリや単語の意図
の2点があるかと思います。
1,共起語・関連語
「最も痩せやすいダイエット方法」というクエリがあったとすると、ハミングバードによってクエリを解釈した場合
「最も」→「一番」「最高」
「痩せやすい」→「効果的」「効果がある」「痩せられる」
「ダイエット方法」→「ダイエット」
などと言い換えや解釈を行って。これらを組み合わせた中での最良の結果を出してくる可能性があります。
この際、共起語と言われる、ある言葉と良く組み合わせで使われる言葉(「ハム」と「チーズ」 とか 「サッカー」と「ゴール」など)や
類義語・関連語が存在していると上記の解釈がしやすくなる、もしくは上記の意味にへの適合度が高いと判断される可能性があると思われます。
そのため、共起語や関連語を記述していくことでランクが上がる可能性(というよりもむしろランキングが上がる機会)が増すかもしれません。
なお、直近のランクとページ内のキーワード数を分析してみると、
ページ内単語数がある一定量を超えるとランクが不安定になるのですが、
それもユニーク単語数が多い場合は問題なくなるなどの傾向が出ています。
これは、英語では良くあることですが同じ単語の繰り返しではなく関連語や類義語を使った「言い換え」をGoogleが好んでいると言えるのではないでしょうか?
2,クエリや単語の意図
「渋谷でおいしいイタリアン」のようなクエリがあった場合、競合となるのは
「渋谷区 おいしい イタリアン」「渋谷駅 おいしい イタリアン」含まれると考える必要があります。
また(現状ではまだはっきりこの傾向はないですが)Googleが、
「普通、『渋谷』と言ったら『渋谷駅』を指すであろう」と「渋谷区」の情報を出さず「渋谷駅」に限定していくかもしれません。
クエリに対して何かしらの“限定”を付け加える可能性もあるため注意が必要だと思われます。
ただ、いずれにしても現在の日本語の検索においては大きな影響がはっきり出ているわけではなく
結局クエリに適合した、またクエリに対してどういうとが含まれているかに適合したページが上がってきているに過ぎません。
それらに対応する当たり前のSEOをやっておけば特に恐れるものではない、というのがハミングバードではないかなと思っています。
※なおここで説明したことについてはオーガニックサーチ部分に特化した、ハミングバードのほんの一部分だけについてしか解説しきれていないことを付記しておきます
今回は完全に「いまさら」な記事でリハビリしましたので、次回から徐々に新しい情報も取り込めたらと思っています。よろしくお願いします。
2013年11月13日(水)14日(木)に開催される、Web担当者Forumミーティング2013Autumnにて基調講演をさせていただくことになりました。
最新グーグルSEO 要因と順位の関係7つのポイント~京都大学との共同研究によるデータ分析にみる
サイバーエージェントが、2012年より京都大学経済学研究科 飯山将晃准教授と共同で行っている「機械学習によるWebサイトコンテンツと検索順位結果との関係に関する共同研究」の内容をもとに、それぞれの要因が検索順位とどう関係しているかを解説します。被リンク数、発リンク数、インデックス数、ページの単語数や文字数HTMLの文法など特に重要だと思われる項目について実データをもとに解説します。
詳細はhttp://web-tan.forum.impressrd.jp/events/201311
内容はまだまだこれから詰める必要はありますが、以前のセミナーでもふれた、京都大学との共同研究の分析結果から導き出された各項目とランクの相関の大きなもの7つに絞って、それらがランクと具体的にどのような因果関係がありそうか、またそれらを最適な形にするにはどういうアプローチをとればよいのか?を解説したいと思っています。
(参考;Random forstから導き出したimportance)
分析結果を解説するだけではなく、実際にどのような考え方を持って、具体的に何をすべきなのかを説明できればと思っておりますのでご興味のある方は是非お越しください。
なお、告知ばかりのブログになってしまいましたが近々デザインも一新して更新再開させていただきたいと思いますので、またよろしくお願いします。
http://web-tan.forum.impressrd.jp/events/201311
※良く見たら私は大トリなんですね。。
下記内容にて、SEOセミナーを開催することになりましたのでお知らせさせて頂きます。
京都大学との共同研究によるデータ分析とGoogleの変化から見る最新SEO動向
[背景]
サイバーエージェントでは、2012年より京都大学経済学研究科 飯山将晃准教授と共同で、「機械学習によるWebサイトコンテンツと検索順位結果との関係に関する共同研究」を行ってまいりました。本セミナーは、2013年3月に東京・大阪・名古屋・福岡の4ヶ所で実施し、累計500名以上の方にご参加頂いたSEOセミナーの第2弾となります。
[内容]
今回は2部構成となっており、第一部は、最近変化の激しいGoogle検索において『いまSEOで行うべき施策の優先度』」 について、ご報告いたします。第二部は、検索需要の伸びが著しいスマートフォン検索における、Google検索アルゴリズムとSEOの関連性について、弊社見解及び行うべき施策をお伝えいたします。
第1部 京都大学との共同研究によるデータ分析から見る最新SEO動向
第2部 いま行うべきスマートフォンSEO
※プログラムの内容は予告なしに一部変更になる事がございます。予めご了承ください。
[講師]
木村 賢
株式会社サイバーエージェント
アメーバ事業本部プロモーション室SEO戦略グループ
京都大学 共同研究員
鉄道会社系のSIerにて、宿泊予約サイト・観光情報サイト・官公庁サイトのウェブマスター、プロモーション、SEO担当を経て、2003年サイバーエージェント入社。
SEO事業を立ち上げ、ANA・ヤマハ発動機等多数企業のコンサルティングを担当。
CSS Nite LP10,24等国内講演多数。CSS Nite in Seoulでは日本人で初めて海外でのSEO講演を行う。
勝浦 和馬
株式会社サイバーエージェント
インターネット広告事業本部SEO局
エグゼクティブコンサルタント
2008年10月に入社。大手人材サービスサイト、不動産メディアサイト等多数のウェブサイトのSEOコンサルティングを担当。得意分野:Googleアルゴリズムの解析と、その解析結果を元にした大規模DBサイトのSEOコンサルティング。
[セミナー対象者]
本セミナーは、SEOを実施中、または実施をご検討中の法人様を対象とさせて頂きます。
[受講料]
無料・事前登録制
・定員等の都合により、締切前にお申し込みいただいてもご参加をお断りする場合がございます。
・お申し込み状況により、同一会社様の参加人数を制限させていただく場合がございます。
・今回、法人様対象のセミナーとなっております。個人のお客様からのお申し込みは受付けておりません。
・今回、無料セミナーであるため、同業他社様からのお申し込みは、お断りさせていただきます。
・参加される方には事前に「受講票」をお渡しいたします。当日はお名刺1枚と受講票をご持参下さいませ。
[セミナー詳細情報]
サイバーエージェント セミナー情報
●東京会場
[開催日時・場所]
7月24日(水) 17:00~19:00(16:30開場)
サイバーエージェント東京本社 渋谷マークシティ13Fセミナールーム
東京都道玄坂1-12-1 渋谷マークシティウエスト13F
[お申込み締め切り]
東京会場・大阪会場とも、7月17日(水)
お申込み多数の場合、お早めに締め切らせて頂く場合がございます。
[お申込み]
◯東京会場 お申込みフォーム
●大阪会場
[開催日時・場所]
7月23日(火)13:30~15:30(13:00開場)
サイバーエージェント大阪支社 大阪富国生命ビル 18階
大阪府大阪市北区小松原町2番4号 大阪富国生命ビル18F
[お申込み締め切り]
東京会場・大阪会場とも、7月17日(水)
お申込み多数の場合、お早めに締め切らせて頂く場合がございます。
[お申込み]
◯大阪会場 セミナー案内 ※サイト内で申し込み方法をご案内しております。
3/4(月)3/7(木)の東京・名古屋のSEOセミナーですが、
いずれの会場も満席となり、直前で大変恐縮ですが抽選の結果、
一部の方にお断りのメールを順次お送りさせて頂いております。
東京会場は、当初予定の10倍近い座席をご用意させて頂きましたが、
多くの方にご参加頂くことができない結果となりましたことを心よりお詫び申し上げます。
今回は京都大学との共同研究についてはおおまかな部分のご報告となります。
次回以降、様々な要素をより深く解析した結果をご報告していきたいと思っておりますので
今回抽選に漏れてしまった方も、もしよろしければまた次回にご応募頂けますと幸いです。
また、同業者の方も合わせて今回はお断りとさせて頂いた場合がございます。
同業者の方とは、また別の機会で情報交換をさせて頂ければと思っております。
お問い合わせ頂いた諸先輩方、ありがとうございました。
また、このようなご連絡が直前になってしまったことを重ねてお詫び申し上げます。
今後のセミナー運営においては改善をさせて頂きたいと思います。
※なお、お座席の確保ができた方についてもご連絡メールをさせて頂いております。
※3/2中にご連絡がいっていない方はご登録頂いたメールアドレスが誤っているか、弊社からのメールを正常に受信できていない可能性がございますので、大変お手数ですが、
seminar_seo@cyberagent.co.jp
までお問い合わせいただけますと幸いです。
サイバーエージェントSEO局
SEOセミナー開催についてご案内しているように、来週より順次セミナーを開催させて頂きます。
今回のセミナーは、データ分析をもとにしたSEOの話を含むわけですが、
そもそもSEOにおけるデータ分析の考え方について書きたいと思います。
CSS Niteで渡辺隆広さんも仰っていましたが、多くの人にとってSEOに取り組むうえで
アルゴリズムをキャッチするためのデータ分析や解析は不要だと思います。
かつては、キーワード含有率何%が一番効果が良いとか、
h1ではなくてh2にキーワードが一回入っているのが良いとか
そういう都市伝説的なアルゴリズムがあったように思います。
(もう昔のことで忘れましたし、確かにそれに従って効果も出ていたことがありますが、たまたまだったのかもしれません)
しかしながら今は、アルゴリズムもかなり複雑になり、Aがαという数値だからランクが上がるとかいう単純な話ばかりではなくなったと思います。
複雑化したGoogleは、キーワードとコンテンツの関連度をより深く認識するために、
キーワード云々の関係性だけではなく、キーワードに近い領域の情報を判断したり、
キーワードに属する情報を判断したりすることで、
ユーザーが欲している可能性のあるコンテンツを持つURLや、そこにたどり着きやすいURLを上位に表示できるように変化してきています。
その中では、確かに「コンテンツ」というものが最強であり、
「コンテンツ」がなければランクが上がらないというのは周知の事実ですし、このブログでも何度も触れてきました。
属に言う、「Content is King」というやつです。
では、なぜ我々がわざわざ京都大学の力まで借りてデータの分析からアルゴリズムを解析しようとしているのか?ですが、(当然バリューを高めたいとか、好奇心とかは否定しませんが)
大きく2つを考えています。
ひとつめは、間違いのないSEOをしたいということです。
複雑化したGoogleは、パンダアップデートやペンギンアップデートを導入し、低品質なサイトのランクを上げない努力をしています。また、人工リンクに対してペナルティを与えることで、低品質なサイトが上がってこないように防御しています。
このアルゴリズムが導入されたことで、サイト上やSEO上で「してはいけないこと」や「やったら危険なこと」が増えたと思います。
例えば、スクレイピング(ミラー,重複)コンテンツはパンダアップデートでランクダウンする可能性があります。(実際はパンダでなくても落ちていると思いますが)
とは言え、なんらかの理由でコンテンツを重複させなければいけなかったり、別サイトから引用しなかったりしなければいけないケースがあると思います。
その際に、どうすれば良いのか?どうしてはいけないのか?
それをデータという根拠を持って理解しておくことで、最大限間違いを防ぐことができると考えています。
「やってはいけないこと」が分かれば対処法が見えてきます。場合によっては危険な部分にnoindexを入れるということだってできるでしょう。
ただ、そういう行動には勇気が必要です。そのための根拠をしっかりと持ち、間違いをおかさないということを果たしたいと考えています。
ふたつめは、無駄のないSEOをしたいということです。
こちらは実際に京都大学のほうで分析してもらってもので、
我々が考えるランク決定因子となっているであろうと思われるもののうち、数値化できるものの重要度を分析したものです。
セミナーでは、どのような項目が重要なのかを説明したいと思いますが、
ここで説明させて頂くのはもうちょっと待ってください。
セミナーで空席が目立つのは悲しいので(笑)
こちらを見ると何が分かるかというと、SEOで行うべき優先度が分かります。
まったく効かないことをやってもそれはSEOの成果に対しては、時間と労力の無駄になってしまいます。
多くの企業のSEO担当者やSEO会社の人間は皆多忙だと思います。
特に各サイトのSEO担当者はSEOだけを担当している方は少なく、リスティングやら制作やら運用やら様々なことを担当されていることが多いと思います。
そのような場合、やるべきことをSEO会社から言われたけど、なかなか実行に移せないというケースもよくあることです。
そんな状況で、無駄な時間や工数をとられるのは非常にもったいない。
なので、最短距離で効果を出すために、重要な項目をはっきりさせておくということは非常に重要だと思っています。
ですので、このデータ分析で言えば、分析能力を高めて施策の精度を上げるというよりは運用効率を上げることが目的なわけです。
もちろん、施策の精度を高めて「何をどうすればもっと効果が高まるか」ということは重要ですが、それ以上にこの2点には気を配っていきたいと思っています。
実際、何かをすればランクが上がるというところは、先ほどのコンテンツ部分か、ぶっちゃけリンクに依るところが大きいのが事実でしょう。(データ分析+実感値で)
なので、データ分析によって分かることが最も役立つのは、
・間違いのないSEOを行う
・無駄のないSEOを行う
の2点を念頭にいれたいと思っています。
なお、セミナーではこの項目別の重要度の話と、それぞれの最適値がどうなっているのか(これは予測部分が中心ですが)、さらにはそれらを理想的な形にしていく方法について時間が許す限り皆様と考えていきたいと思っています。
なお、このセミナーはビッグデータの解析手法についてのセミナーではありませんので、
データ分析手法についてはほとんどふれませんし、それらをご質問頂いても回答できませんのでご了承ください。
あと、トレンドについてお話するときに、どうしてもリンクペナルティの話に触れざるを得ないのですが、ここらへんは今回はかなり薄くします。
リンクペナルティまわりのところは、それだけで1回セミナーやらないと厳しいくらいなので(笑)
では、最後に宣伝になりますが、ご興味おありの方は、是非セミナーにお越し下さい。
SEOセミナー開催について
※大変申し訳ありませんが無料セミナーにつき、同業者の方はご参加いただけません。すいません。
ちなみに、京都大学との共同研究は現在進行形どころか始まったばかりです。今回のセミナーで「これだけ??」と思う方もいらっしゃるかもしれませんが(逃げ?w)2回目3回目と、研究が進むにつれて分かってきたことをどんどんセミナーしていきたいので、初回は広い心で聞いて頂ければと思います。
木村賢
※名古屋開催に関しては、こちらをご参照下さい
京都大学との共同研究によるデータ分析とGoogleの変化から見る最新SEO動向(名古屋)
東京開催分に関して詳細をこちらに記載させて頂きます。
京都大学との共同研究によるデータ分析とGoogleの変化から見る最新SEO動向
[背景]
2012年、Googleはパンダアップデートやペンギンアップデート、手動ペナルティの強化など、自然検索領域においても様々な改良を加えております。
サイバーエージェントSEO局では、2012年より京都大学経済学研究科 飯山将晃准教授と共同で、「機械学習によるWebサイトコンテンツと検索順位結果との関係に関する共同研究」を行って参りましたが、このたび、その共同研究のデータ分析結果と2012年に起こった、パンダアップデート・ペンギンアップデート・各種ペナルティの発動などの状況をふまえ、Googleの目指している方向性と2013年に行うべきSEO施策について解説していきます。
※WEB広告代理店、SEOサービス会社、WEB制作会社等、同業他社の方の参加はお断りさせて頂く場合があります
[内容]
1,2012年に起こったGoogleの変化
パンダアップデート・ペンギンアップデート・リンク警告など大きな変化が起こった2012年のGoogleのアルゴリズムトレンドをご説明いたします。
2,データから見るGoogleの重要視している項目
2012年の大きな変化の後、Google掲載順位をサイト内部外部の数値状況を分析した結果どのようになっているのかを解説します。 特に、Googleが重要視している要因について解説します。
3,項目別数値とランクの優位性
各項目ごとに数値の変化によってどのようなランキングの優位性があるのかを、いくつかの例を紹介しながら解説します。
4,データから見るGoogleのアルゴリズムの予測
データから見てとれる、Googleが重要視しつつある項目から今後の流れを予測、解説します。
5,2013年に行うべきSEO手法
Googleの現状や予測から、今後行うべきSEOの手法について解説します。 サイト内特にコンテンツの考え方やリンクの増やし方について解説します。
[開催日時]
2013年3月4日(月) 17:00~19:00(16:30開場)
[申込締め切り]
2013年3月1日(金)
お申込み多数の場合お早めに締め切らせて頂く場合があります
[場所]
渋谷マークシティ13F サイバーエージェントセミナールーム
東京都道玄坂1-12-1 渋谷マークシティウエスト13F
[受講料]
無料
[定員]
50名(増席の場合あり)
[講師]
木村 賢
株式会社サイバーエージェント インターネット広告事業本部 SEO局
主席研究員
京都大学研究員
サイバーエージェント西日本セミナーサイトをご参照ください
[お申込み方法]
seminar_seo@cyberagent.co.jp
に御社名/URL/参加者名/部署名/ご連絡先お電話番号/メールアドレスを明記してお送り下さい
お申込み多数の場合は抽選となります。
ご連絡はメールにてお送りさせて頂きます。
なお、お問合わせに関しても上記メールアドレスまでお送りください。
大阪・名古屋・福岡地区のお申込みならび参考情報は、
サイバーエージェント西日本セミナーサイトをご覧ください。
久々のブログが告知ですいません。
下記内容にて、SEOセミナーを開催することになりましたのでお知らせさせて頂きます。
サイバーエージェントSEO局では、2012年より京都大学経済学研究科 飯山将晃准教授と共同で、「機械学習によるWebサイトコンテンツと検索順位結果との関係に関する共同研究」を行って参りましたが、このたび、その共同研究のデータ分析結果と2012年に起こった、パンダアップデート・ペンギンアップデート・各種ペナルティの発動などの状況をふまえ、Googleの目指している方向性と2013年に行うべきSEO施策について解説していきます。
当セミナーでは、京都大学との共同研究により判明したGoogleが重要視する項目の傾向や、昨今話題のソーシャルシグナルの重要性についても分析結果を公表しながら、その対策方法についても解説して参ります。
[セミナー内容]
京都大学との共同研究によるデータ分析とGoogleの変化から見る最新SEO動向
1,2012年に起こったGoogleの変化
パンダアップデート・ペンギンアップデート・リンク警告など大きな変化が起こった2012年のGoogleのアルゴリズムトレンドをご説明いたします。
2,データから見るGoogleの重要視している項目
2012年の大きな変化の後、Google掲載順位をサイト内部外部の数値状況を分析した結果どのようになっているのかを解説します。特に、Googleが重要視している要因について解説します。
3,項目別数値とランクの優位性
各項目ごとに数値の変化によってどのようなランキングの優位性があるのかを、いくつかの例を紹介しながら解説します。
4,データから見るGoogleのアルゴリズムの予測
データから見てとれる、Googleが重要視しつつある項目から今後の流れを予測、解説します。
5,2013年に行うべきSEO手法
Googleの現状や予測から、今後行うべきSEOの手法について解説します。サイト内特にコンテンツの考え方やリンクの増やし方について解説します。また、昨今重要度が増しているソーシャルシグナルの増やし方についても解説していきます。
[日程詳細]
大阪会場
2013年2月19日(火) 14:00~16:00
会場:サイバーエージェント大阪支社 セミナールーム
大阪府大阪市北区小松原町2番4号 大阪富国生命ビル18階
申込み締め切り日 2/17(月);ただし定員になり次第終了
福岡会場
2013年2月20日(水) 15:00~17:00
会場:アーバン・オフィス 天神
福岡市中央区天神1丁目3番38号 天神121ビル 13階
申込み締め切り日 2/17(月);ただし定員になり次第終了
東京会場
2013年3月4日(月) 17:00~19:00
会場:サイバーエージェント 渋谷マークシティ13Fセミナールーム
東京都渋谷区道玄坂1-12-1渋谷マークシティウエスト13F
申込み締め切り日 3/1(金);ただし定員になり次第終了
名古屋会場
2013年3月7日(木) 14:00~16:00
会場:錦パークビル3F
愛知県名古屋市中区錦2丁目4-3
申込み締め切り日 3/5(火);ただし定員になり次第終了
あけましておめでとうございます。
2013年もよろしくお願いいたします。
さて、パンダアップデート、ペンギンアップデートをはじめとして大きな動きを見せた2012年のGoogleでしたが、2013年のGoogleはどうなっていくでしょうか?
勝手ながら予想をさせていただきます。
なお、これは個人的な予想ですので外れた場合でも責任は負いかねますのでご了承ください(笑)
Googleアルゴリズムの進化
Googleアルゴリズムは昨年はパンダアップデート(世界的には一昨年)、ペンギンアップデート、EMDアップデートなどの新しいアルゴリズムが導入されました。いずれも、意図的にランクを引き上げようとしていて、品質が高くないページのランクを下げるアルゴリズムですが、今年は基本的にこの流れが踏襲されるのではないでしょうか?
Googleのアルゴリズムは、膨大なユーザーテストを元にして行われていると思われます。その中でどのようなページが上位表示されることがユーザーのメリットになるのかを検証し、アルゴリズムを追加、変更、調整していると思われます。
「ユーザーはこういうページを望んでいるであろう」という仮説ではない、
「ユーザーはこういうページを望んでいた」という検証結果に基づいたアルゴリズムになっていると言えます。
User Intentに対して、どのような結果になるのが良いのか検証結果をもとにしてさらに検索結果の精度を高めていくと思われます。
そのためには、パンダ・ペンギンの精度の向上はもちろんですが、それ以外にも言語解析的なアプローチはもっと進化するのではないでしょうか?
たとえば「サッカー」と検索してくる人は、国内のサッカー情報が知りたいのか?海外のサッカー情報を知りたいのか?わからない。さらに国内でもJリーグなのか、高校サッカーなのか、なでしこなのか?代表なのか?、、、海外でもプレミアリーグなのか、セリエAなのか??などなど。はたまた、チームを登録したいとか審判になりたいとか、、いろいろなUser Intentが考えられます。
それをなるべく広く満たせるサイトが上位表示されるという性質が色濃くなる可能性もあると思いますし、QDDアルゴリズムのように1ページ目にそれぞれの特徴を持ったサイトが並ぶことで多様性を確保してUser Intentを満たすという可能性もあると思います。
いずれにしても、ユーザーの意図を満たす可能性が最も高くなるように検索結果は作られると思われますので、例えば「サッカー」と検索する人に、レジの後ろのほうで袋詰めなどの作業をする人(この人をサッカーと言います;参考URL)のことを出そうとしても、それを求める人が少ないため難しくなるわけです。
これを考慮すると共起語が重要視されるかも?という話とつながっていくと思うのですが、ユーザーがそのキーワードに対して求めていることや情報を意識して、それらをなるべく網羅できるようにしてあげると良いと思います。
「自動車保険」であれば、申込みができるだけでなく、「選び方」が解説されていたり、「見積もり」が取れたり、「補償」内容が分かったり、ひょっとしたら「一括見積」ができることが求められているかもしれません。
各サイトによって当然できることは限られるものの、なるべく多くの情報を網羅すべきというのは昨年までの流れとなんら変化ないことだと思われます。
そして、その網羅を考える中で共起語を意識すると考えやすいのかなというふうに思います。
これは個人的見解ですが、共起語が重要であるというのは、ユーザーの意図を網羅できるようにサイトやコンテンツを作っていくと結果として共起語が含まれるようになるからということではないかと思っています。
(この内容については本年の京都大学との共同研究の題材の一つにしようと思っています)
一方で、パンダ・ペンギンなどの精度向上は必ず行われると思います。ある程度パンダのアルゴリズム自体は完成形に近いのかもしれませんが、緩やかにでもより厳格なものになっていくと思います。
いずれも、ユーザーが満足できる結果を満たすものを実現するために機械的な進化をしていくのは間違いないでしょう。
手動ペナルティの変化
リンク否認ツールが出たことで、手動ペナルティ(アクション)周りにも何らかの変化が出る可能性があると思います。
リンク否認ツールでのリカバリ例が多数報告されており、実際にこのツールが稼働していることが証明されていると思いますが、そのぶんリンクに対するペナルティへの躊躇がなくなる可能性もあります。
また、否認ツールがあるからという「ヤリ得」みたいことにならないように、数回ペナルティがかかると、より重いステージに移行するなどの可能性もあるでしょう。
ただ、一方で第三者のサイトをスパムリンクで攻撃する逆SEO的なものも実際存在することから、先述の対応が難しい可能性もあります。
このあたりは、Googleの動きを注意深く見守る必要があります。
現在のGoogleはペンギンもそうですが、古くに行われていた質の悪いSEOによってペナルティを受けてしまうケースが散見されます。
その中にユーザーのためになる高品質なサイトも含まれています。
願わくば、ある一定時期から過去のものについては無効化だけに留めるなどの温情判決をしてもらえればなと思うことがあります。
そのほうが検索ユーザーにとってもメリットがあると思うのですが。。。
(そのうえで、品質が低いサイトは当然パンダ等で落とすということで・・・)
なお、リンクについてはアルゴリズムでの処理もより進化はしていくと思います。
まだまだ、不自然な人工リンクを判別しきれる状態になっていないと思うのですが、「こういうトリガーで判断できるはず」と思える部分はまだあると思います。
そういう、まだ対処できるけれどもしていない部分について細かく対応していくのではないでしょうか?
Search Plus Your Worldの進化と拡大
米国で導入されているSearch plus Your World(SPYW)が拡大されることも予想されます。
よりパーソナライズドが強化される可能性は高いと思います。
SPYWはGoogle+と連動して、その個人だけでなく周囲の人の意見や嗜好性も検索結果に影響してくるわけですが、日本はGoogle+がそれほど活発に稼働していませんのでどうでしょうか。。
ソーシャルと検索の距離を縮めていくということは正しい方向性だと思いますので、今後の動きに注目したいと思います。
パーソナライズドは特にスマートフォンでも利便性が高そうですしね。
スマートフォンへの対応強化
スマートフォン専用の検索結果になるということは考えにくいことだと思います。
Googleはレスポンシブウェブデザインを推奨していることでも分かるように、デバイスごとに別々のサイトを出していくことを推奨していないと思います。
現在「スマートフォンの検索結果はPCサイトが出てくる」という言い方をする人がいますが、スマートフォンサイトとPCサイトを別々に作っている場合、単純にPCサイトのほうが情報量が多く質が高いと判断されるためにPCサイトが上位に出てくると考えるのが正しいように思います。
一方で、ユニバーサルサーチのところは徐々に変化が出てきています。
スマートフォンの良いところはPCに比べてどこでも人に密着していることだと思います。
そういう意味で、パーソナライズドだったり、位置情報に最適化された結果というのは利便性も高くGoogleも進化させていくことを考えているのではないでしょうか?
これらはほんの一例ですが、Googleを使う人すべてがその人の欲求を1秒でも早く満たせるようにすることがGoogleが考えていることだと思いますので、その意識でSEOをすべきだと思います。
もっと言えば、そのSEOが正しかったかどうか決めるのはSEO屋でもそのクライアントやウェブサイト管理者でもなく、むしろGoogleだけでもなく、Googleを使うユーザーだと言えるかもしれません。
2013年も当ブログならびにサイバーエージェントのSEOをよろしくお願いいたします。
rel=author">木村賢
2012年も仕事納めを迎えました。
1年の締めくくりとして、本年大きなインパクトを残した、パンダアップデート・ペンギンアップデート・手動ペナルティの3点について振り返ってみたいと思います。
1,パンダアップデート
ついに日本にもパンダアップデートがやってきました。
日本では7月18日に導入されました。
USでは2011年2月24日の導入ですので、約1年半遅れての導入となりました。
パンダアップデートについては、改めて触れる必要もないかもしれませんが、
薄っぺらい、内容のないコンテンツのランクを下げることで、品質の高いコンテンツが相対的にランクアップするというアルゴリズムです。
常時稼働するアルゴリズムではなく、データリフレッシュによって新たにパンダアップデートでランクダウンするサイトやリカバリするサイトが出現します。
こちらは7月の検索エンジンの変動を指数化したデータです。
19日に取得したデータ(18日に変動したデータ)が飛び抜けて大きくなっており、日本でも少なからずパンダアップデートの影響があったと言えると思われます。
(青がGoogle,赤がYahoo!)
実際に日本では、特にスクレイピング(ミラー)コンテンツがランクダウンした印象があります。
そのほか、例えば電話番号と住所だけでページ構成されているようなDB情報だけで構成されたコンテンツや広告ばかりのコンテンツなどにもランクダウンが見られました。
“汗かいて”コンテンツやサイトの構築、運営をするということを認識する一年になったと思います。
参考過去記事:日本のパンダアップデートの概況
2,ペンギンアップデート
4月24日に導入された新しいGoogleアルゴリズムです。
リンクスパムに対して厳しかった印象がありますが、実際にはキーワードスタッフィング(詰め込み)などのサイト内のスパムやガイドライン違反に対しても効力を発揮していました。
弊社で確認した中では、だいぶ古くに登録されたであろう自動登録型のリンク集やディレクトリ集からのリンクが原因ではないかと思われるランクダウンが多く見られました。
また、ペンギンアップデートではアフィリエイトサイトのランクダウンも目立った印象です。
このデータを見ると26日のところが突出しています。(取得日は25日;日本時間)
24日から25日にかけて変動したとみても良いかと思います。
ただ、いずれにしてもペンギンアップデートの影響は限定的で(言い方は悪いですが)やや古典的(かつブラック)なSEOをしていなければ影響はなかったと思います。
参考過去記事:過去のSEO施策に注意~ペンギンアップデート
3,手動ペナルティや警告・注意の多発
昨年からあった問題ですが、2012年はこのGoogleが与えた手動でのペナルティや警告に悩まされた方も多かったのではないでしょうか?
Googleが推奨しない人工リンクが向けられているサイトに対して、
注意や警告や手動ペナルティ(アクション)が行われるものです。
一度かかってしまうと、リカバリに非常に苦労するもので、中には大事に育てたドメインを捨てざるを得なかったというケースも確認されています。
基本、すべての人工リンクを外して再審査リクエストを出せばペナルティ状態は脱すると思いますが、ブログリンクをはじめとして“外せないリンク”があった場合、Googleはその旨を記載して再審査リクエストを出すように指示していましたが、実際には回復する見込みがほぼありませんでした。
それが、10月にラスベガスで行われたPUBCONにてMatt Cutts氏が(うれしそうに)リンク否認ツールのリリースについて発表しています。
以降、このリンク否認ツールを使ってのペナルティ状態からのリカバリ例が増えてきています。
参考過去記事:
ウェブマスターツール警告文の大量送信についてGoogleが公式見解発表
Googleの大量警告に関して推測
ペナルティからの回復の現状
Googleがリンク無効化ツールをリリース
Googleリンク否認(無効化ツール)について
リンク否認ツールによるペナルティリカバリー例
ここに書いた以外にも、EMDアップデートであったり、ソーシャルシグナルの話であったり、ナレッジグラフであったりと話題に事欠かないGoogleの動きでした。
とは言っても、例年に比べて全体的にGoogleの変動を指数化してあらわすと過去最小クラスと言えると思います。
アップデートは多かったけれど、ひとつひとつの影響が限定的だったということですね。
(「限定的」の範囲としては低品質コンテンツを持つサイトだったり、人工リンクが向けられているサイトということです。)
さて、2013年はこのパンダアップデートとペンギンアップデートが徐々にブラッシュアップされながら繰り返されていくのではないでしょうか?
さらには、PUBCONでも話題になっていたソーシャルシグナルの影響についても興味深いところですし、あちこちで言われている(けれど引っ張られ過ぎるのは問題だと思いますが)共起語の問題も気になります。
いろいろ話題を提供してくれた2012年のGoogle、2013年もその活躍(?)に期待したいと思います。
さて2012年も、当ブログならびに弊社SEO事業につきましてご愛顧賜りまして誠にありがとうございました。
今年は、CSS Nite LP24に登壇させて頂いたり、ラスベガスで行われたPUBCONにも参加できて、貴重な体験をいくつかさせて頂きました。
いろいろとお世話になった皆様、ご迷惑おかけした皆様この場を借りてお礼とお詫びを申し上げます。
ありがとうございました。そして申し訳ありませんでした。
2013年も何卒よろしく御願いいたします。
良いお年をお迎え下さい。
すでにいろいろなところで語られていますが、リンク否認ツールを使って
ペナルティ状態から回復する例が増えています。
そこで現在確認できているリカバリ例を挙げて簡単な考察をしたいと思います。
なお、まだまだサンプル数が少ないのでこちらの内容は「考察」レベルにとどまります。
まだ「正解」と言えるほどの状態ではないことをご理解頂ければと思います。
こちらは実際にリンク否認ツールを使ってリカバリした例です。
X軸は週、Y軸はランクになります。
3週の部分あたりで警告が来て、その後ランクが下がりました。
リンクを外せるものを外しながら再審査リクエストをかけたとのことですが、
その後回復せずに、11週目くらいで否認ツールを使用しています。
その後約1週間が経過して200位圏外から10位台後半にまでランクが回復してきています。
リンク否認ツールを使用した際には、
このようなメッセージが届きます。
否認ツールを使用したことの確認メッセージですが、数件こちらが届かない例もありました。
また、その場合はすべて再審査によって不合格になっています。
否認ツールが正常に稼働しなかった恐れがありますので、このメッセージが来ていない場合は再度否認ツールを使ったほうが良さそうです。
さて、否認ツールを使用してリカバリした例としなかった例が出て来ているのですが、
その例をいくつか示します。
<否認ツールを使ってペナルティから回復した例1>
元々あったリンクはSEO会社保有サイトの人工リンク、グループ間リンク(アンカーはキーワード)、様々な有料ディレクトリ登録。
否認ツール使用前に、SEO会社保有サイトの人工リンクはすべて削除。
グループ間の調整がつかず、グループ間リンクと有料ディレクトリを否認ツールで申請した結果、再審査に合格してペナルティ状態から回復。
<<否認ツールを使ってペナルティから回復した例2>
元々あったリンクはSEO会社保有サイトの人工リンク、グループ間リンク(アンカーはキーワード)、様々な有料ディレクトリ登録、ブログリンク(Pay Per Post)。
否認ツール使用前に、SEO会社保有サイトの人工リンク、グループ間リンクは削除。
ブログリンクは削除できなかったため、ディレクトリとともに否認ツールで送信。
再審査の結果合格してペナルティ状態から回復。
<否認ツールを使ってペナルティから回復しなかった例1>
元々あったリンクはSEO会社保有サイトの人工リンク、様々な有料ディレクトリ登録、ブログリンク(Pay Per Post)。
過去のSEO会社が連絡がつかず、人工リンクはすべて外せないまま、否認ツールを使用して再審査。
外せない状態の旨連絡するも不合格。
<否認ツールを使ってペナルティから回復しなかった例2>
元々あったリンクはSEO会社保有サイトの人工リンク、様々な有料ディレクトリ登録、ブログリンク(Pay Per Post)。
否認ツール使用前に、SEO会社保有サイトの人工リンク、一部のディレクトリを削除。
外せないリンクだけを否認ツールで送信して再審査するも不合格。
さて、似たような状況でも合格する場合と不合格の場合があるので、
これまでの例から見ると
「自力で削除できたリンクの量、もしくは割合」
がある程度影響している気がします。
回復例1では、そもそも自力で外せることが多いであろうグループ間リンクが残っていたにもかかわらず否認ツールを使用して合格しています。
一方で回復不可例2では、完全に外せないPay Per Postのみしかリンクが残っていなかったにも関わらず回復しませんでした。ちなみに、この例ではリンクのうちの大半がブログリンクになっており、自力で削除できたものは10~20%と低い割合になっていました。
その他の例を見ても、
「必ずしも外せるリンクが残っているからと言って不合格になるわけではない」
ということと、
「外せないリンクだけにして否認ツールを使用しても合格するとは限らない」
ということが言えると思います。
とは言ってもこれは弊社でリカバリーのお手伝いをさせて頂いた例であり、はじめに記載した通り、まだまだサンプル数としては足りないと思っております。
今後も各所からサンプルを集めて検証していきたいと思います。
ひとつ言えるのは、「なるべく多く自力でリンクを外す」ということがペナルティリカバリの近道だと思われますので、これだけはしっかりと行っていくべきだと思います。
なお、弊社ではこのようなリカバリのお手伝いも引き続き行わせて頂いておりますので、ご興味ある方は当ブログのメッセージやTwitterのメッセージ等でご連絡頂ければと思います。
(状況によってお手伝いできない場合もございますのでご了承ください)
だいぶたってしまいましたが、11月のSEO、検索エンジンの動きについてまとめたいと思います。
が、先に言っておきますが過去を振り返るだけでは正直何も意味がないと思います。
過去を振り返りながらGoogleが考えていることを予想して動くということが重要です。
ここに書いたことがウェブ運営の方向性を決めるのに少しでも役立てば幸いです。
さて、11月ですがまずおなじみの変動推移グラフです。
11月2日付近、11月22日付近に大きな山があります。
11月にあったイベントと照らし合わせてみたいと思います。
11/5-6頃 パンダアップデート
11/21-22頃 パンダアップデート
11/22日付近の大きな山とパンダアップデートが重なっています。
一方で、11/5付近には山がありません。
実際に山が飛び抜けている部分について見てみると、大きく変動しているのは30位以降の中位がほとんどでした。
そして、それらの多くはドメインフィルター崩壊中というエントリーで記したように、
突如40位~60位程度に大量に同一ドメインが入ってきたり、
40位~70位間に大量に存在していた同一ドメインがその競合サイトに一気に置き換わってしまったりという現象が起こっていました。
そのため、数値としては大きくなってしまったものと思われます。
なお、この現象は11/2付近でも多く見られました。
これ以外に見られた変化としては、
Aというサイトが、そのサイトと似た情報をB,C,Dというポータルに配信していた場合に、
Aという本サイトのランクが落ちて、B,Cだけが生き残るというような、
元ネタサイトが落ちてドメインオーソリティが高いポータルサイトがランクアップするというものもいくつか確認されました。
なお、パンダアップデートの付近ではSEO会社が制作したと思われる“リンク用”サイトが今までなぜか(おそらくオールドドメインのオーソリティ)でランクアップしたものがコンテンツの薄さでランクダウンしているものも複数確認できました。
これはパンダアップデートの特徴そのものではあります。
これ以外にも、少し山が大きくなった部分ではペナルティを受けていたと思われるサイトの復活が見られていました。
弊社でもすでに複数確認できていますが、Googleのリンク否認ツールを使ったペナルティからのリカバリが出始めています。
そのためこれらが多く重なった場合には変動指数が大きくなる場合があります。
その他、
11/28 Gogoleがスマートフォンサイト変換ツール「GOMO」リリース
というものがありましたが、
これは、GoogleがPCサイトのスマホ最適化ツールをリリースで書きましたのでご覧ください。
9,10月は非常におとなしい変動の月だったので、それに比べれば全体的に動きましたが上位にあまり大きな変化がなかった1ヶ月でもあり、ランク変動が起きたことに気づく(一般の)方は少なかったのではないでしょうか?
一部のビッグワードの上位に大きな変化があったりもしたので、中には気づいた人もいたと思いますが、相変わらず何か新たな対策を講じなければいけないような変化は起きていないと思います。
12月もこの流れは変わらないのかなと個人的には思っていますが、
今話題の共起語であったり、ソーシャルシグナルであったりは常にウォッチしておきたいと思います。
ナレッジグラフ "モノ" を認識する検索エンジンに向けて(Google Japan Blog)
12月5日にGoogleがナレッジグラフが日本でも導入されたことを発表しました。
(この時点では出ない人のほうが多かったのではないでしょうか?)
USでは5月16日時点で導入されていたナッレッジグラフですが、そこで語られていた「エンティティ」は、日本語では「モノ」と訳されて発表されました。
私の環境では、まずスマートフォンのGooge検索結果でiOS、Androidともに表示されました。
その後PC環境でも導入されていることが確認されました。
ナレッジグラフの表示はそれぞれの環境によって早かった人から遅かった人までまちまちのようです。
上記のように表示されています。
芸能人やスポーツ選手などの著名人をはじめとして、観光地や都道府県などの地名やスポット、
建物etc...
Googleが特定の「モノ」として認識したものに対して出ています。
情報はWikipediaから引用されていますが、これは「知る」というUser Intentを持つ人にとっては、別のサイトを見る必要がなく、ナレッジグラフを見て終わりという人も出てくる可能性があります。
また、Wikipediaへのリンクが張られていますので、ここからWikipediaに直行する人も増えるのかもしれません。
あとこちらはナレッジグラフではなくてユニバーサルの拡張というのが正しいのかもしれませんが、
(私は気づきませんでしたが1ヶ月くらい前から出ていたそうです)
ホテル名で検索した場合に、金額部分をクリックするとグローバル展開している宿泊予約サイトが数社表示されてそのまま予約できてしまいます。
日本のサービスが不利になる可能性があり、やや納得いかない(?)結果に思えます。
(が、現在出てくるホテルは限られているかもしれません。私の環境では出てくるのは極わずかです。)
なお、午前中に検索した際は誤りだったのですが、
現在では修正されました。
問題の報告ができるのですが、その反映が思いのほか早いのかもしれません。
さてさて、このナレッジグラフがSEOに与える影響ですが、
オーガニックサーチのランクに影響が出るわけではありません。
ただし、ユーザー行動が変化する可能性があり、
特にUser Intentが「知る」ことだとどの検索結果もクリックしない、
もしくはWikipediaへのリンクをクリックするだけということもあるかもしれません。
私たちもこれらのCTRについて注意を払っていきたいと思いますが、
ウェブ運営される方もアクセス数の増減に注意して頂ければと思います。
PCサイトをスマホに最適化するツール、Googleがリリース 1年間無料(ITmediaニュース)
こんなニュースが流れて来ました。
GOMOというツール で、
このような画面から、
URLを入力します。
すると、こんな画面や
こんな画面が現れて、
次のように、スマホサイトのデザインができあがります。
デザインを調整すると、こんな感じになったりします。
この後、少しデザイン調整が行えて、、、、
アカウントを作成するとURLが発行されます。
実際にこのURLをスマホで見ると、
このようになりました。
(現在は落としてあります)
このように簡単にスマホサイトが作成できます。
ちなみにリンクをたどってもしっかりスマホサイトになっています。
実際はデザインが崩れてしまうところも多々あり、最適化と言えるかは定かではありませんが、
簡単にスマホサイト化できることは確かです。
数分あればできてしまいます。
ただし、このスマホサイトは最終的にPCサイトからのリダイレクト設定をすることになります。
つまりは、Googleが推奨するレスポンシブウェブデザインになるわけではありません。
中身まで私は良く見れていませんが、コンテンツが同じで別URLになるように思います。
(HTMLはこれからチェックしますが、チェックした方教えてください)
さて、こちらちょっと心配なのは第三者でも勝手にこのツールでスマホサイトを作り、URLの発行まではできてしまいます。
当然リダイレクト設定はできませんが、スマホミラーサイトができてしまうことに。。
実際に公開した際には、インデックス対象にはならないとは思うものの、
ちょっと気持ち悪いなという方はいらっしゃるかもしれませんね。
悪用される可能性もなくはないのかなと。(防止する機能がどこまであるのか分かりませんが)
Googleは基本スタンスとして、オーガニックサーチにおいては、
ウェブサイトでデザイン以外にデバイスによる違いをつけないことが理想であるとしていると思います。
そういった意味で、PCと同様のコンテンツがスマホに最適化されるということはGoogleの理念にかなったものと言えると思いますが、URLがインデックス時に同処理されるのか等、もう少し調査したほうが良いかもしれません。
規約含めもう少し調査して、またこちらでご報告できればと思います。
なお、スマホでのSEOというのは今はどうしてもPC版が強いことからPCサイトを強化してそこからスマホサイトに流すという考え方になると思いますが、
そもそもレスポンシブであればそれを考える手間も省けますね。
あと、ユニバーサル等の諸処機能やプロダクトにおいてはGoogleはスマホとPCで差異をつけていく傾向にあるようです。
こちらはまた別の機会にご紹介できればと思います。
Googleのドメインフィルターがかれこれ1年くらいおかしなことになっているのは、
いろいろなところで話されていることです。
(ドメインフィルターとは、同じドメインが同一SERPsで並びすぎないようにすることです;通常は3個以上や4個以上)
最近でも、11/22付近で大きくランク変動が起こった際に、
またドメインフィルターの挙動のおかしさがあらわになる現象がありました。
もうすでに驚くことではありませんが、
4ページ目以降を中心に同一サイトが多数並ぶ現象が起きています。
中には数十位に渡って同一ドメインが並ぶケースもあります。
※こちらに出ているサイトが悪いことをしているわけではなく、Googleが“おかしなこと”になっているということをご理解ください
こちらは「ホテル 新大阪」の検索結果ですが、6ページ目で同一ドメインが並んでいます。
11/22には、このドメインフィルターが“壊れた”状態のものにおいて、
多数同一ドメインが並んでいるところが、別の多数の同一ドメインに入れ替わるという現象が起きています。
考えてみると、ドメインフィルターをきちんとかけることはGoogleにとってたやすいことのように思われます。
なのにドメインフィルターがおかしな状況が放置され続けているのです。
さて、なぜでしょうか?
考えられるのは、
・4ページ目以降など見る人はいないためユーザビリティに影響がないから放置している
・深いページはSEO関係者ばかりが見たり調査に使ったりするため混乱をさせる意図
・同一のものが並ぶという不便さをもって、スクレイピングコンテンツの無意味さを伝える?
はて、結局わかりませんが、
通常検索エンジンを使うにはあまり影響はないということは間違いないでしょう。
これが1ページ目までナビゲーショナルクエリ以外でドメインフィルターが外れてしまったら困りものですが、今のままであればSEOを行ううえではさほど困ることもないでしょう。
あまりGoogleのおかしな挙動に惑わされずに、本質的なSEOを行っていくことがウェブサイトの運営者としては大切ですね。
(SEO業者はそういうのを追いかけることも趣味仕事の範疇ですが)