CyberAgent SEO Information

2014年私的SEO振り返り

11 years 1ヶ月 ago

2014年も大晦日。
今年はブログもほとんど更新せず、アメブロのSEO担当としてそれで大丈夫なのか?と思うところではありますが、
最終日くらい2014年を振り返る記事を書きたいと思います。

あくまで個人的なSEO振り返りなので、そんなこと知るか!という内容が含まれるかもしれませんがご了承ください。

全体的な振り返りは以下の記事のほうが詳しいと思いますので
そちらを参考にして頂ければと思います。

2014年総括 Google 検索アルゴリズムのアップデートまとめ
アイレップ、2014年 SEM10大ニュースを発表 「忘れられる権利」など
ともにSEMリサーチより

海外SEO情報ブログより

また、Algorooで確認するのも良いと思います。日本とは若干異なるものもありますが。

ではここからは個人的な今年のベスト5です。

1,GooglebotがJavaScriptを実行できるようになったこと
ちょっとこの書き方は語弊があるかもしれません。
「Googlebotがレンダリングを行い、その結果を評価するようになった。」
が正しいかな?とも思います。
これまで私もAjax等を使っているサイトに関しては、
わざわざPhantomJSなどを使ってHTMLスナップショットをとって、
Googlebotにはそれを見せる・・・みたいな面倒なことを行っていました。
が、気づけばそのほうが表示が遅いためマイナスになるように・・・。
わざわざがんばってやっていたのにいつの間に・・・という感じでしたが、
まあ新たに作るサイトに関しては無駄な作業が必要なくなったのは喜ばしいことかと思います。
むしろ今までこれを行わなかったことが不思議ではありますが、Googleは至る所で
Googlebotのレンダリングはモダンブラウザと同等と話しており、
その結果が評価されるようになっています。
かと言って、HTMLを見ないということでもなく、レンダリングした結果とHTMLとの両方を見ているという認識で良いと思います。

まだ顕著に傾向が見られるものではありませんが、
今後はh1,h2のようなタグではなく、
実際に表示した結果としてのフォントサイズであるとか、
表示位置によって重要な部分とそうでない部分を認識していく傾向が強まるのではないかと思います。

また、これにあわせてfetch as Googleを頻繁に使うようになったのも今年のSEOとしては大きな変化かと思います。
実際に動的にコンテンツを出力するケースでbotがレンダリングすると真っ白になってしまっているケースや
CSS・JavaScriptに対してクローラーをブロックしてしまって正確にレンダリングできないケースをいくつか見たことがありますが
それらを発見するためにも、きちんとfetch as Googleは実施しておきたいところです。

なお、レンダリングがうまくできていない例があればフォーラムなどを通じてGoogleに連絡して欲しいとのことです。


2,Authorshipの廃止
Googleが突如のAuthorship廃止を決定しました。
それまでのAuthorship推しが強かったため、驚きと批判が巻き起こったわけですが、
誰が書いた?というものはその他のシグナルで認識しており、
rel=authorが効かないというだけの話なので、
著者の信頼性を高めていく重要性というのは根本的に変わっていないと思います。
Googleが推奨していることに対して今後SEO担当者が開発担当やウェブマスターなどを説得しにくくなるということは避けられないことで、頭を痛めているSEO担当者は多いのではないかと思います。
来年はこのようなことがないように切に祈りたいところです。

3,Googleとウェブマスターの距離が近づく
これは2年くらい前からそうだと思いますが、
特にサーチクオリティチームとウェブマスターの距離が近づいているという印象があります。
私のようなホスティングサービスは、
Webmaster Meetup @Google for Service Providersや
Hosting Meetupにて直接Googleのサーチクオリティチームに質問する機会がありました。(Webmaster Meetup @Google for Service Providersではベストプラクティスをお話させて頂く機会まで頂き、恐縮です・・・)
また、CSS Nite LP36ではライブ ウェブマスター ハングアウトにて、サーチクオリティチームの方々が大人数の前で質問に回答するという事もありました。
また、ウェブマスターフォーラムにも度々Googleの方が登場されますし、基本的にすべての質問に目を通してらっしゃるそうです。
ウェブマスターハングアウトも頻繁に行われていますし、
数年前には考えられないくらい、ウェブマスターとGoogleの距離が近づいています。
私も直接金谷さん、田中さん、長山さんとお話させて頂く中で、本当にGoogleがウェブマスターとの距離を縮め、ウェブマスターとともによりよい検索結果を作ろうとされているのが分かりました。
来年からもこの流れは続くことを期待していますし、海外のカンファレンスのようにいろいろなイベントにGoogleの方が参加して頂けることを祈っています。

4,パンダアップデート・ペンギンアップデートの実施

毎年あることではありますが、今年は1年通して大きく変動した要因として
この2つのアップデートは大きかったのではないかと思います。
大きく逆風になったサイト、追い風になったサイト両極端かと。
この2つのアップデートは基本的に常時稼働するアルゴリズムとして組み込まれていくはずです。
様々な角度での「品質」にGoogleがより本気になっている証拠かと思います。
この傾向は来年以降も続くものと思います。

5,外部リンクスパム系の手動アクションが減る

外部リンクスパム系の手動アクションが昨年の中盤からめっきり減少し、
後半はほとんど出ていないのではないかと思います。
これは、外部リンクスパム系に甘くなったということでは当然なく、
外部リンクスパムをアルゴリズムで自動的に判別できるようになったのではないかと思います。
人工リンクが効きにくくなっているのは確かだと思われ(その中でもリンクの神様みたいな方は存在します。それはそれですごいなと思いますが。)これまでに集めた手動アクションのリストであったり、通報リストから機械学習した結果をアルゴリズムに組み込むことである程度のリンクスパムを取り締まることが可能になったのではないでしょうか。
機械学習はその精度がどんどん上がっていく可能性が高いので、人工リンクは益々厳しい状況になると思われます。
一方でナチュラルなリンクの効果は相対的に高まることも考えられ、そういう意味でもより良質なコンテンツを提供しソーシャルシグナルや被リンクを獲得するということが重要になると思います。

2014年はコンテンツSEO元年と言ってもいいくらいに、
SEOの施策の方向性が業界で変わった1年だと思います。
(もちろん2013年もその傾向はありましたが)
来年以降もこの傾向は続くと思いますし、そこに本格的に挑戦していくSEO会社やSEO担当者は多くなると思います。
私自身この分野は駆け出しでもありますし試行錯誤の毎日ではありますが、
来年こそはもう少し定期的にちゃんとブログを更新したいと思います。

そもそも、総更新回数と検索流入は相関がある!とか言っておきながら自分のブログを更新しないアメブロSEO担当者ではダメダメですのでがんばります。
2014年はウェブマスターツール導入やスパム対策への強化等をブロガーのみなさんとともにSEOに取り組むこともできました。来年も皆様のご要望や厳しいご意見をお聞きしながら、さらにブロガーの皆様のメリットになるSEOをご提供させて頂く所存ですので引き続きよろしくお願いいたします。
皆様良いお年をお過ごしください。
本年もありがとうございました。

(一部若干酔っ払いながら書いてしまいましたので支離滅裂な内容になっているかもしれません。申し訳ありません。。年明けはきちんと2015年予測を書きたいと思います・・・。)

木村賢

ホスティングサービスでのGoogleウェブマスターツールの使い方

11 years 4ヶ月 ago
2014年10月16日にアメーバブログにおいてもGoogleウェブマスターツールがお使い頂けるようになった関係でホスティングサービスにおいてのウェブマスターツールの使い方について書きたいと思います。
ここでのホスティングサービスとは、アメブロをはじめ各ブログサービスやホームページスペース等を指します。
今回はHostingサービスの中でもhttp://ameblo.jp/ユーザーIDのようにサブディレクトリの形式でURLが提供されるサービスでのウェブマスターツールの使い方をご説明します。
(要するにアメブロでのウェブマスターツールの使い方ってことですが;笑)
一部のアメブロユーザー様からは私のソーシャルアカウントにhead内の編集を自由にできるようにして欲しい等のご希望を頂きましたが様々な事情を考慮して今回は管理画面上からウェブマスターツールを設定して頂く機能に制限させて頂いております。ご了承ください。
ウェブマスターツールの使い方については基本はGoogleが公式に提供している
ウェブマスター ツール ヘルプセンター
をご一読頂くのが良いと思います。

http://ameblo.jp/ユーザーID などのサブディレクトリ形式でURLが指定されるものはウェブマスターツールの使用が一部制限されます。
また、アメブロもそうですが、SEO上の都合やインフラの事情でURLを意図的にGoogleにインデックスさせていない部分等があったり、それらの設定が閲覧できる状態ではあったりしますが、通常設定の変更はできません。
(なお、現在のアメブロがSEO上においてベストな状態でない部分もまだありSEO担当者として心苦しいところではあります。一部ウェブマスターツール上においても変更が推奨されるような表示が出る場合があるかもしれませんが、より検索エンジンに最適化された構造になるとうにSEO担当者として今後も努力していきたいと思います。)

前置きが長くなりましたがGoogleウェブマスターツールの画面に従っていくつかの機能についてご説明させて頂きたいと思います。

ウェブマスターツール利用準備


それぞれのホスティングサービスで設定方法が異なりますので、各サービスのヘルプ等をご確認ください。
アメブロでのウェブマスターツールの設定方法については、こちらをスタッフブログをご覧ください。
■スタッフブログURL変更必要

また、一般的なウェブマスターツールの設定方法に関しては、
■ウェブマスター ツール ヘルプセンター>Google へのサイトの登録
■ウェブマスター ツール ヘルプセンター>1. ウェブマスター ツールにサイトを登録する
をご覧ください。

ウェブマスターツールトップ画面


ダッシュボード
ウェブマスターツールの各サイトのトップ画面がこちらになります。
ここで様々な状況の確認や設定ができることになります。
このページは「ダッシュボード」と呼ばれています。
左側のサイドには各機能へのリンクがあります。
ログインした状態では各リンクが折りたたまれた状態ですが、こちらは開いた状態にして画面をキャプチャしています。
ダッシュボードでは「新しい重要なメッセージ」と「現在のステータス」が閲覧できます。
詳細は後述しますが、ここを見るだけでも
「Googleから何かメッセージが来ていないか?」(新しい重要なメッセージ)
「何かサイトに不具合が起きていないか?」(現在のステータス)
を確認することができます。

サイトのメッセージ


ダッシュボードの「新しい重要なメッセージ」部分の「すべて見る」や左側メニューの「サイトのメッセージ」を開くとこの画面が閲覧できます。

このメッセージは非常に重要なものですので、特にSEOを行う場合は定期的なチェックを強くお奨めします。
こちらのサンプル画像にはいくつかのメッセージが来ています。
(なお、ほとんどの方はここにはメッセージがない状態だと思います)
メッセージには、ウェブサイトにおける問題点/アカウントに関する作業関連が主にあります。
この画像にあるサンプルについて説明させて頂くと、

①Google 検索からの DMCA 削除に関する通知

こちらは通常のウェブ運営を行っていれば問題ないはずですが、他サイトからコンテンツをコピーしてしまい、そのコンテンツの持ち主が著作権侵害の申し立てを行った場合にそのコピーコンテンツのURLがGoogleインデックスから削除され、こちらのメッセージが届きます。
コピーコンテンツを無断で引用記述もなく掲載することはSEO上もマイナスになるだけでなく法的にも問題がある場合があります。
他コンテンツを引用したい場合にはblockquoteタグ等を使用して引用元を明記しリンクすることをお奨めします。
(なお、アメブロ運営側においても悪質なコピーコンテンツには厳しく対処させて頂いております。)
参考:ウェブマスターヘルプフォーラム「「Google 検索からの DMCA 削除に関する通知」というメールが来ました。」

②Google+ のリンク リクエスト:xxxx と Google+ ページ(xxxxx)をリンクしましょう

これはGoogle+アカウントとウェブサイトを紐付けるためのメッセージです。
Google+側でウェブサイトの所有者確認を行うとこのメッセージが送信されます。
自分のGoogle+アカウントから所有者確認を行った場合はこのメッセージから承認をしましょう。

③Increase in not found errors/「見つかりませんでした」というエラーが増えています

ブログ記事を大量に消すなどした場合に発生するものです。
稀にサーバー側のエラーなどでも発生することがあります。
(アメブロも当然そうですが、通常はホスティングサービス側がドメイン全体におけるウェブマスターツールの監視を行っておりますので、これらのエラーが急増した場合には速やかにエラー要因の調査と改善を行っているのが普通だと思われます。)
ブログ記事などページを大量に削除された場合には、他のブログ記事やページからリンクが残っていてリンク切れになっていないか確認してください。
SEO上大きなマイナスになるわけではありませんが、読者・閲覧者の方の利便性等考慮した場合に重要です。

④ サイトの品質に関する問題


このメッセージが出た場合には要注意です。
そのサイトやブログはすでにGoogleよりペナルティを受けている可能性があり、検索エンジンからの流入は減少しているかもしれません。
このメッセージが送られるブログ・サイトには下記のようなものがあります。
・広告中心でコンテンツに価値がないもの
 -特に大量にアフィリエイトコンテンツを生成しているものに多いです
・コピーコンテンツ
 -他からコピーしてきたコンテンツをそのまま掲載している
・悪質なスパムを行っているもの
 -隠しテキストやキーワードの詰め込み、ドアウェイスパムなど
いずれにしてもGoogleからマイナス評価を受けている可能性が高いのでSEOを考慮するうえでは速やかに修正してください。
また、まれに非常に短い文章のコンテンツや記事
例:「眠い」のみ etc...
にもこのメッセージが出ることがありますが、その際は、メッセージ内の「再審査」リクエストから悪意がなかったことを主張することをお奨めします。
また、SEOを行いたい場合には記事はなるべく長く書くほうが有利だと思ってください。
もちろん意味のあるコンテンツを長く書くというこであって、無意味なものを長く書いても評価はマイナスになるだけですのでご注意ください。

⑤実質のないコンテンツ

実質のないコンテンツこちらも④サイトの品質に関する問題と同様にすでにペナルティを受けている可能性があるメッセージです。
またこのメッセージが届くブログやサイトの特徴も類似しています。
④とのはっきりした境界線はないと思われ、アフィリエイトコンテンツを自動生成しているものや広告が大量に張り付けられたコンテンツに対して送られることが多いものです。
また、非常に短い文章のコンテンツに対してもこのメッセージが届くことがあるのでご注意ください。

⑤外部からの不自然なリンク

不自然なリンク
このメッセージが届くことはほとんどないと思いますが、自作自演リンクを行うリンクスパムを行っている場合はこのメッセージを見かけるかもしれません。
このメッセージが来た際には間違いなくスパムとしてペナルティを受けているかもしくは数日以内にペナルティを受けると思います。
Googleは被リンクを人気度として評価しています。その特徴を活用して(悪用して?)自作自演による人工的なリンクによってSEO効果を出すという手法があります。
Googleはこの自作自演リンクを発見する仕組みを強化しており多くのケースで自作自演リンクが検知されてしまっているのが現状です。
自作自演リンクはこちらで禁止するものではありませんが自己責任で行ってください。
万一ペナルティを受けた際には、外せるリンクをすべて外したうえでどうしても外せないリンクについてはリンク否認ツールを使い再審査リクエストを送るようにしてください。
参考:ウェブマスターツールヘルプセンター>リンクを否認する
また、身に覚えがないリンクについても上記リンク否認ツールを使用し再審査リクエストを送ってください。
なお、再審査リクエストを送っても必ずしもペナルティ状態が解除されたり元の流入やランクに戻ったりするものではありません。

一部、SEOの意図を持たないリンクに対してこのメッセージが届いてしまう場合があります。
(例えば自分で保有している別サイトからリンクしている場合など)
その際には、SEOの意図がない旨を記載して再審査リクエストを送るか、またはリンクに対してnofollow属性をつけたうえで再審査リクエストを送るようにして下さい。
参考:ウェブマスターツールヘルプセンター>特定のリンクに対して rel="nofollow" を使用する

その他にもGoogle視点でブログやサイトに不具合がある場合にここにメッセージが来ますので定期的にチェックするようにしてください。

検索のデザイン

構造化データ

ここでは、Googleも推奨している構造化データの使用状況がどうなっているかを閲覧できます。
構造化
ホスティングサービスでSchemaなど構造化のためのタグを使う場合には通常自らHTMLを編集することが必要になります。
(アメブロでもそうですがより気軽に構造化できるようになると良いなと思って試行錯誤しております・・・)

データハイライター

構造化をタグを使わずに行える機能です。
データハイライター
画面のガイドにしたがって簡単に構造化データが指定できます。
ただし、この機能は毎回同じような形式でコンテンツや記事をアップしている場合以外は使いにくいかと思います。

構造化に関しては現在はリッチスニペットの表示の一助となりCTRが高くなることに貢献する可能性があります。例えばレビューを星の数などで表している場合などはリッチスニペットを表示することが可能になる場合があります。
ただし、現時点で構造化データを使うことそのものが直接的にSEO上のランク(Googleでの表示順位)を上げることに貢献するという確定的なデータはありません。

HTMLの改善

HTMLはコンテンツの内容を正しく検索エンジンに伝えるという意味でSEO上も重要なものです。
ただし、昨今ではSEOにおいてかつてほど厳格なHTML記述は求められていません。
その中でここで指摘されるtitleやmetaの重複については、重複発生時にマイナスの評価をなされる可能性がありますので注意が必要です。
HTMLの改善
このキャプチャのようにtitleやmetaが重複する場合にはなるべく改善するのが望ましいと考えられます。
HMTLの改善2
(現在アメブロではこのようにtitleやmetaが重複してしまう部分があるかと思いますが、今後も不要なページのインデックスを避けるなど対応を進めていきたいと思います。)
また、これらの指摘は複数の記事で同じ記事タイトルをつけた場合にも出てきます。
ブログ記事に関してはなるべくユニークなタイトルになるように工夫することをお奨めします。

サイトリンク

サイトリンクとはこちらの画像のように表示されるものを言います。サイトリンクサンプル
Googleウェブマスターツールではここに表示したくないものを指定することができます。ただし完全な機能ではありませんのでご注意ください。
参考:hinishi.com|WMTに申請しても消せないサイトリンク、手だてはあるの?

検索トラフィック

検索クエリ

Googleの検索がhttpsになったことによって、アクセス解析ツールやウェブサーバーのログにはリファラとして検索キーワードが残らなくなりました。(not providedと表示される等)
ウェブマスターツールでは、それらも含めた検索クエリが表示されます。
検索クエリ検索結果の掲載順位も表示されますのでSEOの指標として役立てて頂くことも可能かと思います。

サイトへのリンク

先にも記載した通り、Googleは被リンクを評価します。
サイトへのリンク1
これは当ブログの「サイトへのリンク」です。
「詳細」をクリックするとさらに詳しいデータを見ることができます。サイトへのリンク2
ここではどのような記事にリンクが集まってる(≒人気がある)かやどこのサイトが多くリンクを張ってくれているかなどが分かります。
なお、サイトのメッセージで記述した「外部からの不自然なリンク」によってペナルティを受けている場合は通常ここのデータを見ながらリンクの削除を行ったり否認したりして再審査リクエストを行います。

内部リンク

ブログ・サイト内のリンクデータを表示します。
どこのURLにリンクが集まっているか見ることができます。
(アメブロの場合多くは、「最新の記事」や「テーマ」のページなど全ページからリンクされているページが出てくると思いますが、特に強化したいページはここの数字が大きくなるようにすると効果的です。)

手動による対策

これは「サイトのメッセージ」欄でもふれたスパム行為を行ってしまった際にペナルティを受けているかどかを確認するものです。
(Googleは手動でのペナルティを「手動による対策」「マニュアルアクション」等と呼んでいます。)
手動による対策
手動によるペナルティが与えられている場合は、ドメイン全体に影響しているか一部分に影響しているかが記載されます。
(注:ホスティングサービスの場合、「サイト全体の一致」がブログ単位になるのか、ホスティングサービス全体になるのかは現在確認中です。分かり次第追記いたします。)
手動でのペナルティが与えられているその原因を削除して再審査リクエストを送る必要があります。

インターナショナルターゲティング

場所や言語設定に基づいたターゲットをユーザーの設定を行う機能ですが、現在アメブロではこの機能に対応しておりません。
変更があった場合には別途お知らせいたします。
詳細はこちらをご覧ください。
ウェブマスターツールヘルプセンター>インターナショナル ターゲティング

Googleインデックス


Googleがどのようにブログをインデックスしているかを確認する機能です。

インデックス ステータス

インデックスに登録されたページのボリュームを確認できます。インデックスステータス(なお、アメブロ側ではSEO上の理由からrobot.txtの設定等によって特定のURL群のインデックスを避ける場合があります。
多くのブログで8月の末付近でインデックスが減少していると思いますが意図的なものですのでご安心ください。)
参考:SEO HACKS公式ブログ>「クロールバジェット」という言葉について
意図しない状況でのインデックスの低下はコンテンツが低品質とみられインデックスが減少している場合がありますのでご注意ください。
またブログ記事を追加しているのにインデックス数が増えていかない場合も同様にコンテンツ内容の質を高めるように気を配って頂くことをお奨めします。

コンテンツのキーワード

コンテンツのキーワード
この機能はGoogleがクロールした結果、どのキーワードが重要と認識しているかを表したものになります。
基本的には出現回数によって算出しているとみられますが、この重要度が高いからと言って、必ずしもGoogleでの掲載ランクが高くなるわけではありません。
参考数値程度にご確認ください。
ただし特に重要なキーワードの重要度が低い場合には多少ターゲットとしているキーワードを追加しても良いかもしれません。その際には不自然な追加にならないように注意してください。
(不自然にキーワード追加するとキーワードスタッフィングスパムとしてペナルティを受ける場合があります。)

URL削除

URL削除Googleのインデックスから削除したいURLを送信する機能です。
ただしアメブロの場合はインデックスから消したい記事がある場合には基本的にはその記事を削除して頂くかアメンバー限定での公開として下さい。

クロール

クロールエラー

クロールエラー
クローラーがブログをクロールする際にエラーが発生していないかどうかを確認するものです。
404エラーは他サイトから誤ったURLのリンクを張られていた場合でも数値が上がりますのであまり気にする必要はありませんが、500や503のエラーが出ている場合には評価が下がる可能性があります。
アメーバブログなどホスティングサービスでは500,503の出現を最小限にとどめるべく当機能の監視とサーバの管理を行っているのが通常です。またもちろんウェブマスターツールも監視しているはずです。
また、ホスティングサービス内の特定のブログうあサイトにおいてだめこれらのエラーが多発することがあります。
稀にですが、設置しているブログパーツ等のJavaScriptが読み込めない場合などにもこのエラーが発生し評価が下がることがあるようですので、ご注意ください。
また、ブログパーツ等の表示に時間がかかる場合はエラーが発生しなくてもSEO上の評価は下がる可能性が高くなります。

クロールの統計情報

アメブロ等の各ブログのアカウント単位ではこちらの機能はお使いいただけません。
ホスティングサービス側で統計情報を監視し、SEO上問題がないようにしているのが通常です。

Fetch as Google

fetch-as-google
Googlebotがブログをどのように閲覧しているかを確認することおよびインデックスを促すことができます。
(現在アメブロではスマートフォンサイトがリダイレクトされるためスマートフォンに対応したレンダリング状況やインデックスの送信は使用できません。ご了承ください。
また、PCにおいてもJavaScriptやCSSファイルの一部に対してクローラーをブロックしているところがありますが、これら含めより最適な状況になるよう努めていきたいと思います。)

robots.txt テスター

robots.txt テスターは設定したrobots.txtにエラーがないかを確認するツールですが、個別のブログごとにrobots.txtはできません。ご了承ください。

サイトマップ

各ホスティングサービスごとのヘルプページ等をご覧ください。ホスティングサービスによってはサイトマップを送信できるものもあるようです。(現在個別のブログごとにサイトマップを送信することはできません。ご了承ください。
なお、サイトマップではありませんがアメーバブログはPubSubHubbubに対応しております。
海外SEO情報ブログ>Googleマット・カッツが推奨する“PubSubHubbub”でスクレイパーから身を守れ)

URLパラメータ

キャンペーンや計測に用いるパラメータを別々のURLとしてGoogleが認識しないようにする機能です。
基本的にはGooglebotがそのパラメータがインデックスに必要かどうか適切に判断してくれますので、あまり個人で設定する必要はないと思いますし、どうしても必要な場合は通常はホスティングサービス側で一括管理していることが多いのではないでしょうか?

セキュリティの問題

マルウェアなどが仕込まれていないかどうかを確認する機能です。
稀にブログパーツなどを表示するソースにマルウェアインストールを促すスクリプトものを紛れ込ませているような悪質なものがあります。
セキュリティに問題がある場合は結果から削除される、もしくは危険であることが明記されますので流入は大きく減ることになりますし、何よりも閲覧してくださる方が危険ですのでここで警告が出た場合には早急にチェックをしてください。

その他のリソース


その他サイトやブログ運営に役立つ機能やSEOに役立つ機能へのリンクがあります。
適宜ご使用ください。

なお、ウェブマスターツールは随時機能更新されております。
この説明は2014年10月16日時点のものとなります。

※なおアメブロに関しては現在はameblo.jpドメイン配下のみへの対応となっておりますことをご了承ください
※この記事はAmebaのSEOの一担当者、木村の見解であり、(株)サイバーエージェントならびにAmeba,アメーバブログとしての公式な見解とは異なる場合がありますのでご了承ください

Googleウェブマスターツールの詳細な使い方等は、
ウェブマスターヘルプフォーラム
にご質問いただくと良いかと思います。

SEOの背景を伝える力

11 years 5ヶ月 ago

なんだかよくわからない釣り的タイトルになってしますが、
今日はSEOをチームで行ううえで必要だと思われる伝達、ディレクションについて少し考えたいと思います。

実際に過去に下記のようなことがありました。

1,あるURL群でコンテンツが重複しており重複URLを一本化するため片方を削除する必要が出てきた
 ・片方のURL群にはトラフィックはない
 ・片方のURL群にはリンクがないことと諸事情でURLを見せたくなかったため削除することを決めた
 ・そのURL群は動的に生成されていた

2,URL群を削除するようにSEO担当者からシステム担当者に伝達

3,システム担当者から作業完了の連絡が来る

4,数日後トラフィックが急激に減少

さて、このようなことが実際に弊社ではありませんが起こったことがあります。
なぜか?

もちろん削除したURLが実はトラフィックを集めていたということではありません。
このケースですがトラフィックが減少して焦ってウェブマスターツールを調べてみたところ・・・

ソフト404

ソフト404が急激に増えています。
なぜか・・・・。

そうです、SEO担当からシステム担当者への指示が
「これらのURL群を削除しておいてください」
だったため、エンジニアはこれを
「表示させなければいいんだな」
と思ってしまったわけです。

そこでとった方法が、
・削除するページを302リダイレクトで転送
・「このページは存在しません」というステータスコード200を返しているページを表示
というものだったのです。
はい。完璧なソフト404のできあがりです。
他の要素がギリギリだったのか、実際にこのケースでは検索流入がダウンしてしまうという事態が起こりました。
(そして直したら戻りました。)

※「ソフト404」が分からない方はソフト 404 エラー - ウェブマスター ツール ヘルプをご覧ください。

さてこの事ケース、何が問題だったのでしょうか?

これはこのケースに限らないことですが、一般的に
・SEO担当者はクローラー目線になることが多い
・その他の担当者はユーザー目線になることが多い

というズレからだと思います。
ある意味上記は正しいことなのですが、
お互いの目線のズレから
「削除と言ったら404を消すのが当然だろう」(SEO担当)
「削除ならユーザーに見せなければいいんだな」(システム担当)
となることがあるわけです。
では、どうすれば良かったのかですが、このケースの場合SEO担当者が

・SEO上重複ページはマイナスの影響を及ぼす影響がある
・重複しているページをクローラーに読ませないためにも削除したい
・ステータスコード404を返して欲しい
という、

「背景」「クローラーが求めているもの」
を説明すべきだったものと思います。

ソフト404に限らず、ユーザーに見せるにはOKでもクローラーはそれを読み取れないもしくはその意図を理解しないというものはいくつかあります。
それらにおいては、このようなことが発生するリスクが少なからずあるわけです。

SEO担当者は、SEOの視線が特別なものであるということを認識のうえでディレクションしていく必要があると思います。
もちろんシステム担当者がSEO知識を十分に持ち合わせていればこの限りではありません。
(弊社は幸いにも後者のことが多いです)

以上アメブロが9/15で10歳を迎えるということで久々に記事を書いてみました。
10月くらいを目途に「アメブロ(アメブロの各ユーザー様のブログ)でSEOをするにはどうすれば良いか?」という記事を複数本上げていく予定なので興味ある方はお待ちください。

@kimuyan

Googleが2つのアルゴリズムアップデート

11 years 9ヶ月 ago

日本時間の5/21の朝、Googleのアルゴリズムに関する新しい情報が2つ入ってきました。
先週末から大きくGoogleのランキングが動いていたこともあって、
SEO界隈ではちょっとしたお祭り騒ぎになっています。

1,Payday Loans Algorithm
Google Payday Loan Algorithm: Google Search Algorithm Update To Target Spammy Queries(英語)

特定のキーワード(特にスパム行為を行っているサイトが多い業界のキーワード)に対してアルゴリズムの変更があったとしています。
ただし、土日に起こった日本での大きな変動はこの範囲内とは言えないような気がします。
土日の変動はこれ以外に何かあったのか、下に記すパンダアップデートが実は同時に走っていたのでしょうか。。。

2,パンダアップデート4.0
Matt Cutts氏ツイッター

Matt Cutts氏自らがパンダアップデート4.0のロールアウトを発表しました。
以前「Next generation Panda」として新しいパンダをリリースするとしていましたが、
この内容は小規模なサイトでも良いものを引き上げられられるようにするものとしていたのですが果たしてどうでしょうか?
また、「today」がいつからなのかは気になるところです。
以前も発表と変動が合わないときがありましたので、土日に実は走ってしまっていたということも可能性としてゼロではないかもしれません。
なお、昨日からも変動が続いていますのでこちらかもしれませんね。

(個人的に小規模サイト引き上げとオーサーシップがアルゴリズム上どう組み立てられていくのかすごく興味があります)

いずれにしてもGoogleの方針はほぼ一貫していますので、
極端に不安になる必要はないと思いますが、
我々も変動内容をさらに調査してご報告すべきことがあればこちらでご報告したいと思います。

追伸
このようなアップデートの発表はSEO界隈が祭のように盛り上がるので大歓迎です(笑)

木村賢

サーバーエラー・クロールエラーとSEOの関係

11 years 10ヶ月 ago

WMT警告

あるサイトにおいてウェブマスターツール上に「サイトのメッセージ」が多発しています。
「Googlebotがサイトにアクセスできません」
というメッセージです。
接続エラー率が2~3%あると注意を受けています。
調べてみると、このサイトはこのメッセージが出るときはGooglebotに対して500番台のエラーが返っていました。たいていが503になっていたようです。
メッセージが多発しはじめると少しして、検索経由のトラフィックが激減しました。
そして、その後このエラーの原因を取り除くと徐々にですがトラフィックが回復してきています。

GA

一応こちらのサイトにおいてはこの期間で大きな施策は打っておらず、
これらのサーバまわりの調整のみに徹していました。
エラーが多発してから少し時間がかかって落ちたことは、
徐々に当該ページ(botがアクセスしてエラーが出たページ)の評価が落ちていったのではないか?
もしくは通常メンテナンスでも503を返すことが一般的であることから、
マイナス評価をするのは連続して503が出続けている場合だけなのではないか?
と仮説を立てることができますが、
警告が消えてからトラフィック回復し始める期間が短すぎるのではないかとも思いますので、
100%エラーを消したことがトラフィック回復につながったとは断言できませんが可能性はあると思います。

別のもので今度はbotがアクセスできない旨のメッセージはきていないものの、
ウェブマスターツールでクロールエラーが急激に増えた例です。
wmtエラー

wmt減少

横軸がそろっていないので見にくくて申し訳ないのですが、
こちらはステータスコード500のエラーが多発をしました。
エラーが出始めてすぐにトラフィックが減少しています。

これら2つしか例がありませんので、
必ずしもエラーが出ることがSEO上のランクダウンにつながるとは言い切れない部分はありますが、
こういうことも起こり得ると考えています。

が、そもそもなのですがサーバーエラーはSEOの問題ではなく、
「ユーザーが訪れた時にエラーが頻発したらどうでしょうか?」
を考えるべきでしょう。
「あのサイト重いよね」
「あのサイト良く落ちるよね」
という言葉を時々聞きますが、
ユーザーが離れていく典型的なサイトだと思います。
また、こういうサイトはGoogleとしても上に出したくない、
ようするにこのようなサイトを上位表示させることは検索ユーザーの満足度を低下させることにつながってしまいます。
結果としてSEO上も不利になることがあり得るということでしょう。

エラーが起こる原因は多々あります。
・トラフィックに耐えられるインフラが用意できていない
・システム的に問題があって過剰に負荷がかかってしまう
・定期的にサーバ再起動していてそのときにGooglebotが来てしまう
etc...
いずれにしてもウェブマスターツール上でこのようなエラーに関するメッセージや表示を見つけた際には早急な対応が必要だと思われます。

繰り返しにはなりますが、これは「SEO」がなくても対応しなければならない内容です。

※補足
404エラーが増えたなどの場合、実際にページを削除して404が返っているのなら問題はありません。もちろんその削除されたページへのリンクがサイト内でたくさんつながったまま残っているようなら問題ですが。
そのような「こういうケースは?」みたいなのがあると思いますが、サーバエラーみたいな話は「ユーザー本位」で考えておけば基本間違いないかと思います。

#(ハッシュ)付のURLもGoogleはインデックスする??

12 years ago

息抜き程度の記事です。

Ajaxでウェブサイトを構築する際などに、URLに#(ハッシュ)が入ってしまうことが良くあると思います。
GoogleはURLに#(ハッシュ)が入っていると、#以降をインデックスしないはずでしたが・・・

ハッシュサンプル

あれ?ハッシュバンもしていないのにインデックスしている?
でもこれはsite:で検索したものなので、それでかもしれない。
なら、ウェブページの文言で引っ張ってみよう。

ハッシュサンプル2

※いずれも画像が汚くなってしまいすいません

そもそも#以降をインデックスしないというのは私の思い違いだったのだろうか・・・。

しかし、#はページ内リンクにも用いられますので、#以降もインデックスしてしまうと同一ページで複数URLをインデックスしてしまうこともあるはず。
(そんなものGoogleの技術からしたらはじけるでしょうけど)

いろいろな人にも聞いてみましたがはっきりしたことは分かりませんでした。
このサイト以外でもURLに#を含んでいるもののインデックス状況を調べてみましたが、
インデックスされているものは見つかっていません。

仮説として
・「/#」という形の場合はインデックスする
・リンクの張り方によってはインデックスする
あたりでしょうか?
再現できているものが他に見つからないので今は検証ができていませんが・・・。

GoogleはAjaxやFlashなどの非同期コンテンツもインデックスするように開発を進めている
という噂は昔から何度も聞いていることです。
すでにビジュアルベースでのコンテンツ把握はできていると思われるので(ページレイアウトアルゴリズムなどもその一環でしょうし)不可能ではないと思います。
ただ、それにしても今回のような事例が他に出て来ないのです。

なぜこのサイトだけ#以降もインデックスされてしまっているのか?
完全にただの興味本位ではありますが、もう少し調べてみようと思います。

また、こちらただ単に私が無知なだけかもしれないのでご存知の方はこっそり教えてください。
よろしくお願いします。

木村 賢(Twitter,Google+

SEOにおけるキーワード(検索クエリ)とコンテンツの考え方

12 years 1ヶ月 ago

これまでも何度もSEOにおいてコンテンツは重要であること、
コンテンツはキーワード(検索クエリ)の要素を構成する要素を満たすものであることなどをこのブログでも書いてきましたし、
セミナー等でもお話させて頂きました。

ところが最近この概念だけでは足りないかな?(実際には要素を全部満たせばOKなのですが、ウェブサイトにそんなになんでもかんでもコンテンツは突っ込めないので)
と思っており、今日はあらためて今のSEOにおいてコンテンツを用意するうえで気を付けていきたいことについて書いてみたいと思います。

①User Intentを意識する

よく言われる、3つのクエリの種類
・ナビゲーショナルクエリ(Goクエリ)
・インフォメーショナルクエリ(Knowクエリ)
・トランザクショナルクエリ(Doクエリ)
これらを意識することがより重要になってきていると思います。
Googleはそれぞれのクエリに対して、ユーザーがどのような意図を持ってきているか(User Intent)をかなり明確に判断するようになってきているように思います。
あるクエリは、ナビゲーショナルクエリとインフォメーショナルクエリのみだ、ということであれば、
何かユーザーにアクションを起こさせることを目的としたサイトは上位に表示されないかもしれませんし、
あるクエリが、ナビゲーショナルクエリとトランザクショナルクエリの意図しかないということであれば、
ユーザーに情報を提供するだけのコンテンツは上位表示されないかもしれません。

Googleで「ラーメン」と検索すると、店舗情報や店舗の情報をまとめたコンテンツが上位に表示されます。
その反面、ラーメンの通販サイトは、宅麺であっても、楽天であっても、Amazonであっても出てきません。
それも1ページ目というのではなく、100位以内に入ってもいないと思います。
また、あわせてラーメンのレシピに関するページも上位表示されません。

これが「うどん」であれば、レシピが上位に出てきますし、2ページ目には通販も入ってきます。
食品は全体的に楽天やAmazonの上位表示は少ないようですが、「ラーメン」は他よりもやや極端だと思います。
仮説の域をまだ脱しませんが、検索クエリにおけるユーザーが求めるものをかなり厳格に判断している可能性があると思います。
(これについては本年の京都大学との共同研究で取り組みたいと思っています)

②そのコンテンツが検索結果に出てきてうれしいか?を意識する

①の「ラーメン」で言えば、非常に良質なラーメン通販サイトが出てきても“嬉しい”と思うのですが、
Googleは現在そのような作りになっておらず、①のUser Intentありきで判定をしている可能性があります。
その前提で、①を見事潜り抜けた場合の話です。

例えば「初詣」と検索するとき、あなたなら何が出てきたらうれしいでしょうか?
「初詣行ったよー!こんなことお祈りしたよー!」
というブログはうれしいですか?あなたの求めているものですか?
普通はこういう人は少ないと思います。
実際にGoogleで「初詣」と検索すると、初詣のガイドページが大半の検索結果を占めます。
まさに、大半のユーザーが求めているものでしょう。

「二日酔い」と検索する人は何を求めていますか??
大半の人が「治し方」ですよね?
Googleの検索結果はどうなっているでしょうか?

「京都ラーメン」などで検索する人は何を求めていますか?
「京都のおいしいラーメン店の情報」ですよね?
だったら食べ歩きブログも見る価値があるでしょう。

これはまさしくクエリの解釈に結びつく部分なのでハミングバードによって精度が上がった可能性はあります。
今は検索結果が見事にこのようになってきたという印象です。
実際にブログは特定の検索クエリで大きくランクを下げ(一方で上がったものもあり)
Q&Aサイトが多く出てくるクエリやキュレーションが多く出てくるクエリなども存在するようになったと思います。

ユーザーが求めていないコンテンツは上位表示が非常に難しい
と思っていたほうが良いと思います。



ユーザーが求めていないであろうコンテンツを無理やり作ってランクを上げるSEOというのはすでに終焉していると考えていいと思います。
かつてであれば「二日酔い」というキーワードでランクアップさせようと思ったら
「二日酔いのメカニズム」だけでランクがあげられたかもしれません。
ただ現在は(2ページ目にはあるので不可能ではないかもしれないけれど)難しいと思います。
「ラーメン」だったら昔は、「ラーメン通販」だけのサイトで外部リンクを強化してれば「ラーメン」でも上がったかもしれません。
でも今の状況では難しいでしょう。
「初詣」で上がっていたブログも昔はあったのではないでしょうか?でも今は単独のブログで上がることは難しいでしょう。
(初詣ブログのキュレーションとかであれば可能性はあるかもしれません)
いずれにしても、そのクエリに対して人が何を求めるか?自分だったら何が出てきたらうれしいか?
を想像してコンテンツを用意しないと、なかなか今のSEOは難しいと思います。
また、そういうコンテンツがなく、作ることもできない状況で無理に狙っていくというのも厳しいでしょう。

Googleは検索結果からどこをクリックされているかで、何を求められているか学習していると思います。
検索結果のクオリティを高めるには当然のことだと思いますので、これから検索されればされるほど、検索結果がクリックされればされるほど、さらに検索ユーザーが何を求めているか?の精度が高められていくことでしょう。


蛇足ですが「片思い」とか「告白」とかのキーワードだと、どういう意図があるか?を今日私はアラサー、アラフォーのおじさん3人で考えておりました。
とても気持ち悪い光景だったと思いますが、SEOをやっていくには必要な要素であると思っております(爆)

木村 賢 twitter,Google+

2014年のSEOと検索を勝手に予想

12 years 1ヶ月 ago

あけましておめでとうございます。
本年も当ブログならびにサイバーエージェントのSEOを何卒よろしくお願いいたします。

さて、本年も毎年恒例になりました(?)今年のSEOや検索に関する勝手な予想をしたいと思います。
昨年も2013年のSEOを勝手に予想にて予想をしましたが、正直当たってませんね(汗
外れたときに恥ずかしいのでやめたいところですが、年初に上げるべき記事もありませんので勝手な予想ではありますが記述してみたいと思います。

レイヤーが異なる項目になってしまいますがご了承ください。
あと、外れても苦情は受け付けませんのでよろしくお願いします。。。


1,Author Rankの導入

至る所で語られていることなので、もうそろそろ導入されてもおかしくないかなと思っています。場合によってはGoogle+の利用促進につながるかもしれないしと思ったり、思わなかったり。(おそらくそのような理由でアルゴリズムが変わることはない・・)
ただ、やはりCTRには影響が出ることがあるため、authorの設定は確実にしておいたほうが良いと思われます。
詳細は「SEOとAuthor Rank」のエントリーをご覧いただけますと幸いです。

2,構造化の重要性向上

これも様々なカンファレンスで語られていることですが、構造化の重要性が増す可能性が高いと思われます。
Googleが構造化マークアップ支援ツールまで提供していることから見ても、Googleがschemaというか、mirodataを使って欲しいと思っていることは確かかと思います。
いまさらここでかくべきことでもないと思いますが、microdataを使ってマークアップすることで検索エンジンはコンテンツの意味をより正確に理解できるようになります。
schema.orgの日本語訳ページでも、micordataの利点として

「この情報はこの映画の、この場所の、この人の、このビデオのことを説明しているんだよと検索エンジンに伝えることによって、検索エンジンや他のアプリケーションが内容を理解し、関連のある情報を提示できるようになります。」

と記述されています。
例えば「アマルフィ」という言葉が記述されていた場合に、それが“映画”なのか?“小説”なのか“地名”なのか?を検索エンジンが理解しやすくなります。
これらによって、そこに書かれていることがどういうことなのか?その他の言葉がどういう意図で使われているか推測しやすくなると思われます。
microdataを使用することによってより正確にコンテンツをGoogleに伝えやすくなることで、SEO効果が高まるということはありえない話ではないかもしれません。
もちろんリッチスニペットに対する効果という点でも有効です。

3,スパムに対してさらに厳格な対応

基本路線は変わらないと思いますが、増加し続けるユーザーからのフィードバックをどんどん学習していくことで、より正確で厳格なスパムラインを設定することができるようになると思われます。
悪意あるもの、ないものの線引きがより正確になることで一部では救出されるサイトもあるかもしれませんし、これまで網の目をすり抜けていたサイトが捕獲されるケースも発生すると思われます。
いずれにしても、「スパム対応が甘くなる」ということはあり得ないので注意が必要だと思います。
特にリンクに関しては甘くなることはなく、見せしめ的な動きも活発化しているため大規模なサイトでも注意が必要なケースはあると思います。

4,検索クエリの解釈の精度向上

ハミングバードがさらに進化する可能性があると思います。
現在の日本語の検索クエリの解釈はまだそこまで精度が高いとは言えないと思われるため、日本語に対しての精度向上が期待されます。
開発者には日本人の方もいらっしゃるようなので今年あたりに大幅に改善されるのではないでしょうか?
弊社の10代向けのメディアの検索流入キーワードを見てみると、音声検索を行っていると思われるものが大量にあります。若い世代は音声検索を使い始めていると思われます。(逆に30,40台向けのメディアの流入キーワードにはそのようなものはほとんどありません)このことからも、検索クエリの解釈の精度向上はユーザーからしても期待されるものと思われます。
なお、クエリの精度が向上した場合でも、「検索ユーザーが欲しがるであろうコンテンツを用意する」ということが最も有効なSEOであることには基本あまり変わらないと考えて良いと思います。

5,ユニバーサルサーチの精度向上

現在のユニバーサルサーチの中には、その精度が不十分なものがいくつかあると思います。なかには実験的に新しいアルゴリズムを入れていそうなものもありますが、オーガニックサーチよりは単純なアルゴリズムであるものが多いと思われます。
これらの精度を向上させることでユニバーサルサーチが出現する率が高まるということがあるかもしれません。

6,デバイスの適応度に応じた検索結果の変化

スマートフォンとPCの検索結果ですが、以前よりは少し検索結果が異なることが増えているように思います。(と言っても微小ですが)
今後はデバイスへの適応状況に応じてさらに検索結果が変化していくことがあり得ると思われます。
Googleはマット・カッツ氏もデザインとユーザーエクスペリエンスをもっと意識すべきということを話しているように、
(参考:海外SEO情報ブログ:Googleのマット・カッツが明かした21個の最新SEO情報 from #SMX Advanced 2013
各デバイスでどのように閲覧できるか、どのように使用することができるのか?を評価に含めてくる可能性があるように思います。
すでに、Googleが「スマートフォン向け検索でのランキングの変更について」においてスマートフォン向けに不適切な設定をしているサイトのランクを下げることを発表したように、今後は逆にPCでの閲覧に対して不適切な設定があるもののランクが下がる可能性もあると思いますし、それぞれのデバイスで見辛い、操作しにくいなどのケースで評価が下がることがあるかもしれません。
そもそもこれらはSEO以前の問題で、ユーザーが使いやすい、見やすいサイトにすることは当然ですので改善が必要であることは言うまでもありません。


と細かく6項目を挙げさせていただきましたが、
全体的に流れとしては
・ユーザーの意図を解釈しユーザーが欲している結果を返すことの精度を高める
・スパムに対してより厳格な対応をとる

ことの2点かと思います。
ユーザーが欲するものは、検索クエリに対して問題を解決できる答えだったり、(デザイン・ユーザーエクスペリエンス含め)欲求が満たされるウェブサイト、ウェブページであり、それらを追求していくことをGoogleは止めないでしょう。
また、所謂「(Googleが考える)スパムとの戦い」は(UGC運営者もそうですが)今年も続くと見て良いでしょう。

ウェブサイトを運営する立場の方は、Googleを1ユーザーとしてとらえ、そのユーザーに気に入ってもらえるウェブサイトを作ること、そのユーザーがある検索クエリを検索した際に叶えたいと思ったことが、そのウェブサイトを見ることで叶うかどうか?を常に意識しておけば、時間の長短はあるにせよSEOは成功に向かっていくのではないでしょうか?

一方SEO事業者サイドはリンクからコンテンツコンサルティング・ウェブコンサルティングに近い領域にシフトする会社も増えてくると思われます。
(インハウスの立場から言わせていただくと)そのウェブサイトの目的、そのウェブサイトでトラフィックを増やす目的とその会社やサービス、サイトの強みをきちんと認識したうえでコンサルティングを提供する必要があると思います。

また、リンクにおけるSEOを追求されるSEO事業者の方もまだまだいらっしゃいます。
(私は肯定派でも否定派でもありません。別に違法ではないですし。)
より厳格になっていくアルゴリズムに対して、Googleの方向性を汲み取りながらうまく効果を出せる会社も存在し続けるように思います。
そのような会社も、Author Rankが導入された際の対応や(今回は、敢えて2014年の予想からソーシャルシグナルの直接活用は外しましたが・・・)ソーシャルシグナルを直接アルゴリズムに取り込んだ際には、新たな対応が必要になるでしょう。

2013年もGoogleはいろいろと動いてきました、2014年にも大きな動きはいくつかあるでしょうがGoogleが目指す方向性は一貫して変わっていません。
今年もGoogleの目指す方向性と思想をきちんと理解してSEOに取り組めば自ずと結果はついてくるのではないでしょうか。
ということで非常に雑な予想になってしまいましたが本年もよろしくお願いいたします。

twitter Google+

Google(,Yahoo!)に変動発生

12 years 2ヶ月 ago

先週GoogleおよびGoogleのエンジンを使用しているyahoo!Japanに大きな変動が発生したことは、
いろいろなところに話題になっています。

ここ最近では特に大きく変動したと思われるにも関わらず、
Matt Cutts氏がアルゴリズム変更等を否定したため余計に「何が起こったんだ?」と様々な憶測が飛んでいます。

弊社の変動を検知する計測システムでは、先々週にも大きな変動を検知していましたが
それと同じレベルの変動を先週にも検知しています。
変動推移グラフ
12,13日は弊社システムでもGooleの日本語の検索結果のみしか変動を検知していませんので
特定条件の場合のみに動いたか、特定キーワードの上位だけが多少動いたかの可能性もあります。
(変動数値は指数化しており、上位の変動ほど大きくなるように傾斜をつけています)
一方で18日については、いずれの検索エンジンも同じように大きな動きを示しており、
確実に『変動があった』と言えるレベルになっています。

Googleは否定しているものの、アルゴリズム変更等があった可能性もあると考えて
変動したリストについて調査してみました。
なお、これらはGoogleが公式に発表しているものでは当然ありませんし、
我々が変動したURLを基に勝手に推測したものにすぎませんのでご了承ください。
(なお、今回の見解はサイバーエージェントのインターネット広告事業本部SEO局とAmeba事業本部SEOグループの共同見解になります)

1,コンテンツに重複が多いページを持つURLのランクダウン

例えばヘッダー、サイド、フッター等はコンテンツがあるけれど全ページ共通。
ユニークなのはメインエリアの画像一枚と数行のテキスト。
のようなものがサイト全体で評価を下げているケースが複数見られました。
また、例えば不動産や中古車情報のサイトでエリアを選んだ際に、複数の
「この地域のデータはありません」のような表示が出てしまうサイトも全体的に評価が下がっているようです。
また、重複率が高かったものをheadタグ内含めて重複率を下げたもののランクが戻り、
headタグ内含めて重複率が高まったもののランクが下がるというケースも見られました。
パンダアップデートでも対象になりそうな部分ではありますが、「重複」というのがひとつの鍵となっているように思います。

2,リストページのランクダウン

「ユーザーは検索結果に検索結果が出てくるのを好まない」という趣旨の発言をGoogleがしていたと思います。
このポリシーを強めたような結果が出ています。
不動産サイトなどでは、地域の物件一覧(リスト)ページが上位に来ていたものがランクダウンしていたり、
USのGoogleでもECサイトのカテゴリのリストページがランクダウンしているものが見られました。
リスト以外ではオリジナルなコンテンツがほぼないというところが問題になった可能性があります。

3,短文の寄せ集めコンテンツのランクダウン

リストページもそうかもしれませんが、短い文章が寄せ集まったコンテンツ中心のサイトのランクダウンがいくつか見られました。
例えばユーザーが短い文のコメントを残して一つのページができあがるようなTwitterのようなコンテンツや日記系のコンテンツなどがそれにあたります。
キーワードとコンテンツの関連度を非常に良くみるようになったGoogleにとって、雑多なテーマを寄せ集めたコンテンツは、
どんなキーワードで上げて良いか分からないコンテンツ=上げる価値のないコンテンツ
としてサイト全体の評価(流入)を下げる結果になると思われます。


4,上位表示URLの入れ替わり

上位表示されているURLが同一ドメイン内で入れ替わっているものも今回はかなり多くありました。
入れ替わりの傾向としては、
・リストページ(ジャンルページ・エリアページ等)から詳細ページ(商品や物件の詳細ページ)や読み物系編集コンテンツページに入れ替わる
・画像や動画などをメインに据えたコンテンツからテキストが多いページに入れ替わる
・被リンク数の増加率が高いページから被リンク総数が多いページに入れ替わる
等がありました。
基本的には、1,2で評価が下がったようなコンテンツが下がり、かわりにオリジナル性が高いテキスト情報が多めのコンテンツがランクアップしているように思います。

その他、ハミングバードの影響かクエリ解釈がいくつか変わったと思われるものがあったり、
リンクをはじめとした手動ペナルティ(アクション)と思われるものがあったりしました。

繰り返しますがGoogleはアルゴリズム変更を否定していますし、渡辺隆広さんも
ブログの中で(Matt Cuttsは検索アルゴリズム変更を否定、しかし…Googleで大規模な検索順位変動が発生)

個人的には、ざっと見た感じアルゴリズムで何か変えたような印象は受けません。リンクの評価方法を変えたようにも見えませんし、コンテンツの分析や関連性を変えたようにも見えないです。トラフィックが減っているようにも、増えているようにも見えません。

と書かれています。
私がトラフィックを追っているサイトの中には、この期間で検索流入が2倍以上に増えたものもあれば1/3に減少したものもありましたので(汗)やはり影響を受けているサイトはあると思いますが、「4;上位表示URLの入れ替わり」もかなり多かったので単純に掲載されているURLが変化することで「変動」とするのならば同一サイト内での変更が多かったせいで、さほど影響が出ていないということはあるかもしれません。(そこまで分析しきれていません。すいません。。。。)

Googleが否定しているということはアルゴリズム自体は変更していないと思いますが、このタイミングでインデックスアップデートが起こり、「アルゴリズム変更」とは呼ばれない日常的なアルゴリズムの「調整」が影響して数値的に大きな変化を示したと考えるのが自然ではないでしょうか?
パンダアップデートっぽい動きと言えばそうですが、パンダであろうとなかろうと、調整レベルの変更によって影響を受けるものがたまたま多かったということなのかもしれません。


といろいろと書きましたが、どのようなものが変動しているか、それはどのようなアルゴリズムの状態によるのか?(パンダアップデートなのかどうか
など)というディテール自体はさして重要ではないと思います。
この動きの裏にある、Googleがどういうサイトやコンテンツを良い(検索ユーザーにとって利便性が高い)ものと考え、どのようなものを悪い(検索ユーザーにとって利便性が低い、役に立たない、場合によっては有害な)ものと考えているかを認識すること、
もっと言うと、Googleを通してユーザーにとって利便性の高い、有益なコンテンツがどのようなものを認識するほうが重要なことだと考えます。

ブランド力、権威がある(キーワードに対して)高品質なコンテンツを提供しているサイトは今回の変動でもほぼ動いていないはずです。
SEOで目指すものはそのようなGoogleに何か変化が起こってもぶれないサイトだと思います。

※まだまだ分析中な部分もありますので続報あれば追記させて頂きます

Twitter Google+

AmebaにSEOスパムの通報機能を設置したわけ

12 years 2ヶ月 ago

アメーバの利用規約違反報告に、「SEOスパム」を追加しました。
http://helps.ameba.jp/inq/inquiry/vio

すでにいくつかのブログ等でとりあげて頂きましたが、
少しその理由について書きたいと思います。

アメブロに限らず、多くのUGCはスパム投稿に頭を悩ませています。
それによって、例えばサイト内検索の結果が不適切なものになってしまったり、
ユーザー様が戸惑われたりするケースがあります。
さらにドメイン全体に対してSEOの観点からも悪影響を及ぼす可能性もあります。
(ほとんどの場合スパム行為を行ったそのアカウント単位で処理されているようですが)

特に目立つスパム(Googleのガイドラインに違反する可能性がある)投稿は、

①アフィリエイトのみが目的になっているもの
アフィリエイトのみが目的になっておりオリジナルのコンテンツがまったく存在しないもの。
広告のみの掲載か、元サイトの文章をそのままコピーするものでオリジナル性がまったくないものが多数です。

②SEOの人工(自作自演)リンクのリンク元になっているもの
ブラックハットなSEOの温床となっているブログ等が残念ながら存在しています。
ブログサービス様によっては発リンクのすべてnofollowにしています。
アメーバブログでも一部はnofollowにさせていただいています。

③被リンクスパム
②のようなリンクを受けているスパムで、2年間くらいからGoogleが手動による対応を強めているものです。
SEO会社に任せていたらアメブロから変なリンクがついていた!という場合にも通報して頂けます。
ただし、リンク元のページそのものがなくなる場合、リンクが削除されたとみなされなかったり、認識するのに時間がかかるケースが過去に数例ありましたので、必ずしもこれでペナルティを解除できるわけではないことはご理解ください。

④リダイレクトスパム
当該ブログに行くとすぐにリダイレクトされて別のサイトに誘導されるという悪質なスパムです。
少数ですが残念ながら存在していたことがあります。

⑤スクレイピングコンテンツ
他のコンテンツをコピーしてあたかも自分のコンテンツかのように見せたり、引用だけでコンテンツと見せるようなものです。
Googleはオリジナルコンテンツしか評価しないためSEOで成功する可能性はほぼありませんが、アフィリエイトリンクへの誘導を図るようなUGCコンテンツによく見られます。

⑥その他
その他にもSEOスパムであったり、SEOスパムを行うためであったり、SEOをかけたうえでガイドライン違反をしたりするUGCコンテンツが多々あります。
また、それらは新たな手法がどんどん生み出されています

このようなものは他のユーザー様や一般の閲覧されるユーザー様に悪影響を及ぼす恐れがあります。
怪しいな?と思うものは是非フォームからご連絡いただければと思います。

なお、この通報によって必ずしもその投稿が削除されたり、警告されたりするものではありません。
我々としてはその記事そのものに、

・スパムの可能性があること
・少なくともユーザー様のどなたかは不快に思う可能性があること

を認識します。
そのうえで利用規約に違反していると判断できたものに直接的に対応をさせて頂きます。

なおかつ、そのような報告受けたものの特徴を機械学習して、
今後投稿されるもので、上記のようなスパムの可能性があるものを自動的に抽出しやすくしています。この基準(アルゴリズム)は通報して頂くものが増えれば増えるほど精度が高まると考えています。

一般論として、UGCでこのような行為を行ってもほぼ効果はないはずです。
Googleは非常に有能な検索エンジンであり、日々様々なスパム対策を行っています。
先に記述したようなある意味古典的とも言えるスパム行為は、すでにほとんどGoogleが対応済のものです。
上記のような行為は無駄に終わる可能性が高いことからも現在では避けるべきことかと思います。
それらの時間はGoogleからも人からも評価される質の良いコンテンツを作る時間に割いたほうが効率的になってきていると思います。

繰り返しますが、これらの機能強化は報告いただいたものを削除することだけを目的にしているわけではありません。
なるべく多くのユーザーの方が気持ちよくサービスを使っていただけるということと、報告頂くコンテンツの内容によってUGCと検索エンジンの関係性を考えさせていただければと思っております。

http://helps.ameba.jp/inq/inquiry/vio

Twitter Google+

SEOとAuthor Rank

12 years 2ヶ月 ago

Author Rankという言葉が10月に行われたPubconでも盛んに聞かれました。

Author Rankとは、簡単に言ってしまえばコンテンツやウェブサイトの著者の価値のことであり、
今後Googleが検索のランク付けに使用してくると予想される要素です。

Googleは現在は「何が書いてあるか?」「そのコンテンツは信頼性が高いか?」を判断して検索結果のランク付けをしていますが、
ここに「誰が書いているか?」が入ってくるわけです。
「ウェブサイトのオーソリティ」から「著者のオーソリティ」に評価が移ってくるとも言えるかもしれません。

確かに、ある筋の権威ある人は自サイトだけでなく様々なメディアに寄稿をすることが多々あります。
そのときに現在のアルゴリズムではメディアの強さに左右されて有用な記事が検索結果の下位に埋もれてしまうということが起きないとは限りません。
また、逆にまったくその業界で知識がない人が何かの間違いで力のあるメディアに寄稿してその信憑性のない記事が検索で上位に出てしまうということも起こり得ます。
Author Rankをアルゴリズムに取り込むことでこれらの問題が解消される可能性が出てくると思われます。

Author Rankは、その名の通り「rel="author"」を使用した著者情報を基にするとみられています。
現時点でこのタグが影響するのは、このように
author
検索結果に著者情報が掲載される場合です。
ちなみに写真は顔かどうかを認識して表示されます。
が、Pubconで得た情報だと一度顔写真を認識させれば顔写真以外の画像に変更すればそれが表示される・・・
というものがありました。
おそらく表だってそういう発言があれば修正されていると思われますが。

この検索結果の著者情報について、15%が削除されたというニュースがありました。

Google、著者情報の写真を検索結果に表示しない措置を実行。15%程度が消滅か?(海外SEO情報ブログ)
Google、検索結果から著者の顔写真表示を15%削減 - 低品質サイトが対象(SEMリサーチ)

何を基にして削除したかははっきりしませんが、場合によってはすでにAuthor Rankをある程度みていてそこの情報も基にしているという可能性もあるように思います。
この動きを見ても近いうちにAuhor Rankが導入されるのではないか?とも考えられます。

Author Rankは先述した通り、著者の価値を数値化するものです。
では、何が影響してくるのか?ですが、あくまで予想&他記事を参考&Pubconで言われていたことが中心ですが
(そういえばブログが復活してからはこういう妄想系記事ばかりになっていますね;反省)

・rel="author"で紐付けているGoogle+でのアクティブ度合
・rel="author"で紐付けているGoogle+でのフォロワー数
・rel="author"で紐付けているGoogle+でのフォロワーのフォロワー数等(フォロワーの強さの合計)
・rel="author"で紐付けているGoogle+でのフォロー数とフォロワー数の比率
・rel="author"で紐付けているGoogle+での投稿に対する他ユーザーの反応(+数やコメント)
・Google+アカウントの「寄稿先」のアクティブ度
・Google+アカウントの「寄稿先」のページやサイトの信頼性(オーソリティ)
・各分野での権威ある人からの評価(その人とつながっているか?関わりはどの程度か?)
・FacebookやTwitterでの権威やアクティブ度(?)

いずれもはっきりしたことは分かりません。
Author RankはAgent Rankという特許技術を基にしていると思われますが、
特許内容は必ず使われるとは限りませんし、特許内容だけが使われるとも限りません。
よって、これは完全なる予想です。

ただ、今存在するシグナルを使うとしたらこのような形になるのではないでしょうか?
地域性が重要視されるようなキーワードに対しては居住エリアなども関係するかもしれませんし、
対象年齢が絞られるようなキーワードだと、その著者の年齢も影響を及ぼすかもしれません。
ひょっとしたらGoogle+のプロフィールも影響を及ぼす可能性も否定できません。

いずれにしてもGoogle+を中心もしくはハブとした情報を基にしてAuthor Rankは決定されると思われます。

もちろんこれらは今すぐどうこうというわけではありませんが、
仮にAuthor Rankがアルゴリズムの一部として導入された場合を想定して、
やっておいた方がよさそうなことを挙げると、

・Google+のアカウント運用、しかもちゃんと使う
・Google+の投稿の方向性を絞る(雑多にせずに専門分野に特化してみる)
・Google+に自分で運用している他サイトを「寄稿先」に登録する
・寄稿先のサイトのSEOは普通にがんばる(特にオーソリティが高まるように;ナチュラルリンクが多数集まるように良質なコンテンツを提供“し続け”る)
・Facebook,Twitter等の他ソーシャルメディアでも信頼度を高める

実際私もその時のために完全に手をつけていなかったGoogle+をボチボチ再開し、このブログも再開し、Facebook一辺倒だったものからTwitterも再開し、、、
というようにしてみました。
正直しんどい(笑)
ですあ、ソーシャルならびにサイトでの信頼度を高めるのは一朝一夕にできるものではないため、
ある程度仕込んでおくことは重要だと思います。
無論、ソーシャルもサイトの運用もそのために行うものではないですしそこを意識しすぎるのは誤りです。

なので、「今後のこと」をモチベーションにして運用していくくらいが良いのではないでしょうか?

なお、これらのことはあくまで「著者」という「人」に紐付くものであり、
"rel="publisher"がどう影響しそうかなどの情報は今のところあまりありません。
現時点では、Author Rankが検索順位に影響及ぼしそうね。という推測の領域を出ず、
その中ではあくまで「人」にフォーカスされているだけです。
これを「組織」や「団体」に広げた場合にどうなりそうか?というのは時間があるときに考えてみたいと思います。

ここ数日Googleは大きく変動しています。
次回はこの数日の変動についてまとめられたらと思います。
そろそろ現実的な記事を書かなければ。。「もしも」的記事は当分控えておきます。。。

木村賢 tiwtter

ソーシャルシグナルとSEOにおけるランクの関係性

12 years 2ヶ月 ago

リハビリ第二弾はソーシャルシグナルとSEOについて書いてみたいと思います。
データは事実ですが、そこからの考察は完全なる独断と偏見ですので苦情は受け付けておりませんw

ソーシャルシグナルとGoogleのランキングの関係性については、
いろいろなところで語られています。

・ソーシャルシグナルはランクとの相関がある
・ソーシャルシグナルはランク付けに使っていない
・本当はソーシャルシグナルをランク付けに使っているはずだ
・ソーシャルシグナルが多いサイトは元々高品質だからランクがはじめから高い
etc..

いろいろな意見があり、いろんな検証データがあるのが現状だと思います。

私も京都大学との共同研究の中でソーシャルシグナルとランクとの関連性を計測していますが、
相関がないとは言えないデータが出ているのが現状です。

twitterシグナル
※グラフの厳密な見方の説明は省かせて頂きますが、基本的に赤色部分が多いほど勝率が高くなる=ランクが高くなるというグラフです。横軸はほぼそれらのシグナル数(ただし対数)と考えて差し支えないデータになっています。(厳密に言うと違いますがここでは詳細なデータの説明は省かせて頂きます)

こちらはTwitterのツイート数(リンクが掲載されてツイートされた数)とランクの関係です。
Twitterは現在発リンクにはnofollowが入りますので被リンクとしてリンクジュースが流れてきません。
しかしながらTwitterのツイート数との相関はあると言ってかまわないようなデータが出ています。

このデータから考えられることですが、
・nofollowだけれども実はシグナルとして受け取っている
・TwitterカードなどAPIで外部サイトに掲載される場合はdofollowになる
・はてなブックマークなどTwitterと連動するサービスからのリンクが増える
・Twitterでよくシェアされるコンテンツを機械学習してアルゴリズムに組み込んでいる
・たまたま偶然
・シェアされるコンテンツはもともと優れているから

次にfacebookとランクの相関関係を表すグラフです。
こちらも数値が大きいところが不安定ながら相関がありそうな結果です。
なお、facebookのシグナルとしては、シェアされた数といいね数がカウントされています。
faecbookシグナル
こちらも
・実はシグナルを使っている
・Facebookでよくシェアされるコンテンツを機械学習してアルゴリズムに組み込んでいる
・シェアされるコンテンツはもともと優れているから
ということが考えられます。

最後にGoogle+です。
こちらは他の2つに比べてはっきりと相関関係が見られるグラフになっています。
google+シグナル
・Google+はオリジナル(シェア)ではないもののリンクはdofollowであり直リンク効果である
・実はシグナルを使っている
・Google+でよくシェアされるコンテンツを機械学習してアルゴリズムに組み込んでいる
・シェアされるコンテンツはもともと優れているから

の3つが考えられるかと思います。

いずれしても「実は・・・」みたいな話はありますがGoogleが公式に否定していることなので
一応信じることにして(笑)ではなぜ相関が出るのか?ですが個人的に
・よくシェアされるコンテンツを機械学習してアルゴリズムに組み込んでいる
という可能性は高いと思っています。

Googleはユーザーテストの結果や一時期はChromeの拡張機能からの情報を機械学習してアルゴリズムに反映させていたはずです。
機械学習の優秀な人材が様々な大学からGoogleに入っているそうですし、かなりの高い精度でソーシャルメディアで人気がある・指示される(=世の中で人気がある、指示される)コンテンツの特徴を把握してアルゴリズムに反映しているのではないでしょうか?

あくまで個人的な考えですが、2014年はソーシャルシグナルをこのような間接的な形だけでなく、直接的にも使用してくる可能性は高いと思っています。
もちろんそれにはGoogle+を用いる場合は、Google+の普及が前提ですが、Author Rankと絡めながら新しいアルゴリズムが導入される確率は高いと思っています。
Author Rankについては次回、もしくは近いうちに考察を書きたいと思います。

木村賢 twitter Google+

ハミングバードとその対策(いまさらながら)

12 years 2ヶ月 ago

久々にブログを書いてみます。
リハビリ開始という感じでゆるめの「いまさら」な記事から。ハミングバードについて勝手な考察です。


ハミングバードとは?ハミングバードの影響は?

ハミングバードがリリースされて数か月が経とうとしています。

日本語に導入されているのか?されていないのか?
もはっきりしたことは分かりませんが、開発者には日本人の方が含まれているということなので
まったくないということはない、というのを期待したいと思っています。

ハミングバードは過去のGoogleの検索におけるもっとも大きな変更とのことでリリースされています。
「過去のGoogleの検索おけるもっとも大きな変更」
と書くと、どれだけ大きなランク変動があったんだ!と思いがちですが(私もその一人です)
実際にはGoogleのランクそのものは決して大きな変動があったとは言えないと思います。
世界の検索クエリの90%に影響を及ぼしたとGoogleが発表しているわりに、
まったく騒がれていないのがこのハミングバードです。


8月の各検索エンジンのランク変動データを見てみると、
8/17(データ自体は8/16のもの)にgoogle.comにおいて大きな変動数値の山があるので、
ここで何かがあった可能性はあります。
ただ、世界的にも大きく騒がれなかったこと、
日本では騒がれてもいませんし、データ上も大きな動きがないことから、
そこまでアルゴリズム変更そのものは現時点で気にするべきものではないと思います。
90%の影響と言っても何に対する90%なのか、またそれぞれどの程度変化したのかよくわかりませんし、
ひょっとしたら90%の検索クエリに対して、どこかにユニバーサルサーチの挿し込まれ方が変わったとか、
20位以降のランクが低いところで変わったのかもしれません。

その後の数々の情報から、ハミングバードは
検索プラットフォームの刷新であり、
特にスマートフォンでの音声検索に見られる、複雑な検索クエリを意識した
クエリの解釈の変更を中心にしたアルゴリズム変更であると言われています。

例えばこれまで
「渋谷駅近くのおいしいラーメンを食べたい」
と検索すると
「渋谷駅」「近く」「おいしい」「ラーメン」「食べたい」
が入ったページを中心に検索結果を生成していました。
これが様々なハミングバードの状況から勘案するに、
「この人は渋谷駅のおいしいラーメンの情報サイトを探しているんだ!」
というクエリの解釈をして、
「渋谷駅」「おいしい」「ラーメン」
に近い結果を返すということになるようです。

これは非常に理にかなった変更であり、より検索ユーザーの意図を汲んだものになると思われます。
ただし、実際のところ日本語ではそこまで精度があがっているようにも思えず、
(もしくは導入されていないという方もいらっしゃいますが)


「埼玉県川口市のラーメン」
で検索すると、全文検索状態の検索結果のままでした。
そのほかの言語でもこのような状態は見られており、ハミングバードが入っていたとしても精度はこれからという感じでしょうか?

ハミングバードへの対策

実際に大きな動きがなかったものでもあり、
今まで通り、良質なコンテンツを作り構造含め良質な使い勝手の良いサイトに仕上げていくことに変化はないと思われます。

その中で今後さらに解釈が進んだ場合意識しておいたほうがよさそうなことですが、
・共起語、関連語
・クエリや単語の意図
の2点があるかと思います。

1,共起語・関連語
「最も痩せやすいダイエット方法」というクエリがあったとすると、ハミングバードによってクエリを解釈した場合
「最も」→「一番」「最高」
「痩せやすい」→「効果的」「効果がある」「痩せられる」
「ダイエット方法」→「ダイエット」
などと言い換えや解釈を行って。これらを組み合わせた中での最良の結果を出してくる可能性があります。
この際、共起語と言われる、ある言葉と良く組み合わせで使われる言葉(「ハム」と「チーズ」 とか 「サッカー」と「ゴール」など)や
類義語・関連語が存在していると上記の解釈がしやすくなる、もしくは上記の意味にへの適合度が高いと判断される可能性があると思われます。
そのため、共起語や関連語を記述していくことでランクが上がる可能性(というよりもむしろランキングが上がる機会)が増すかもしれません。
なお、直近のランクとページ内のキーワード数を分析してみると、
ページ内単語数がある一定量を超えるとランクが不安定になるのですが、
それもユニーク単語数が多い場合は問題なくなるなどの傾向が出ています。
これは、英語では良くあることですが同じ単語の繰り返しではなく関連語や類義語を使った「言い換え」をGoogleが好んでいると言えるのではないでしょうか?

2,クエリや単語の意図
「渋谷でおいしいイタリアン」のようなクエリがあった場合、競合となるのは
「渋谷区 おいしい イタリアン」「渋谷駅 おいしい イタリアン」含まれると考える必要があります。
また(現状ではまだはっきりこの傾向はないですが)Googleが、
「普通、『渋谷』と言ったら『渋谷駅』を指すであろう」と「渋谷区」の情報を出さず「渋谷駅」に限定していくかもしれません。
クエリに対して何かしらの“限定”を付け加える可能性もあるため注意が必要だと思われます。


ただ、いずれにしても現在の日本語の検索においては大きな影響がはっきり出ているわけではなく
結局クエリに適合した、またクエリに対してどういうとが含まれているかに適合したページが上がってきているに過ぎません。
それらに対応する当たり前のSEOをやっておけば特に恐れるものではない、というのがハミングバードではないかなと思っています。


※なおここで説明したことについてはオーガニックサーチ部分に特化した、ハミングバードのほんの一部分だけについてしか解説しきれていないことを付記しておきます

今回は完全に「いまさら」な記事でリハビリしましたので、次回から徐々に新しい情報も取り込めたらと思っています。よろしくお願いします。

セミナーのお知らせ

12 years 4ヶ月 ago

2013年11月13日(水)14日(木)に開催される、Web担当者Forumミーティング2013Autumnにて基調講演をさせていただくことになりました。

最新グーグルSEO 要因と順位の関係7つのポイント~京都大学との共同研究によるデータ分析にみる


サイバーエージェントが、2012年より京都大学経済学研究科 飯山将晃准教授と共同で行っている「機械学習によるWebサイトコンテンツと検索順位結果との関係に関する共同研究」の内容をもとに、それぞれの要因が検索順位とどう関係しているかを解説します。被リンク数、発リンク数、インデックス数、ページの単語数や文字数HTMLの文法など特に重要だと思われる項目について実データをもとに解説します。

詳細はhttp://web-tan.forum.impressrd.jp/events/201311

内容はまだまだこれから詰める必要はありますが、以前のセミナーでもふれた、京都大学との共同研究の分析結果から導き出された各項目とランクの相関の大きなもの7つに絞って、それらがランクと具体的にどのような因果関係がありそうか、またそれらを最適な形にするにはどういうアプローチをとればよいのか?を解説したいと思っています。
(参考;Random forstから導き出したimportance)
$CyberAgent SEO Information(サイバーエージェントSEO情報ブログ)-random forest

分析結果を解説するだけではなく、実際にどのような考え方を持って、具体的に何をすべきなのかを説明できればと思っておりますのでご興味のある方は是非お越しください。

なお、告知ばかりのブログになってしまいましたが近々デザインも一新して更新再開させていただきたいと思いますので、またよろしくお願いします。

http://web-tan.forum.impressrd.jp/events/201311
※良く見たら私は大トリなんですね。。

SEOセミナー 7/23 大阪 7/24 東京 開催のお知らせ

12 years 7ヶ月 ago

下記内容にて、SEOセミナーを開催することになりましたのでお知らせさせて頂きます。


京都大学との共同研究によるデータ分析とGoogleの変化から見る最新SEO動向

[背景]
サイバーエージェントでは、2012年より京都大学経済学研究科 飯山将晃准教授と共同で、「機械学習によるWebサイトコンテンツと検索順位結果との関係に関する共同研究」を行ってまいりました。本セミナーは、2013年3月に東京・大阪・名古屋・福岡の4ヶ所で実施し、累計500名以上の方にご参加頂いたSEOセミナーの第2弾となります。

[内容]
今回は2部構成となっており、第一部は、最近変化の激しいGoogle検索において『いまSEOで行うべき施策の優先度』」 について、ご報告いたします。第二部は、検索需要の伸びが著しいスマートフォン検索における、Google検索アルゴリズムとSEOの関連性について、弊社見解及び行うべき施策をお伝えいたします。

第1部  京都大学との共同研究によるデータ分析から見る最新SEO動向
第2部  いま行うべきスマートフォンSEO

※プログラムの内容は予告なしに一部変更になる事がございます。予めご了承ください。

[講師]
木村 賢
株式会社サイバーエージェント
アメーバ事業本部プロモーション室SEO戦略グループ
京都大学 共同研究員

鉄道会社系のSIerにて、宿泊予約サイト・観光情報サイト・官公庁サイトのウェブマスター、プロモーション、SEO担当を経て、2003年サイバーエージェント入社。
SEO事業を立ち上げ、ANA・ヤマハ発動機等多数企業のコンサルティングを担当。
CSS Nite LP10,24等国内講演多数。CSS Nite in Seoulでは日本人で初めて海外でのSEO講演を行う。

勝浦 和馬

株式会社サイバーエージェント
インターネット広告事業本部SEO局
エグゼクティブコンサルタント

2008年10月に入社。大手人材サービスサイト、不動産メディアサイト等多数のウェブサイトのSEOコンサルティングを担当。得意分野:Googleアルゴリズムの解析と、その解析結果を元にした大規模DBサイトのSEOコンサルティング。

[セミナー対象者]
本セミナーは、SEOを実施中、または実施をご検討中の法人様を対象とさせて頂きます。

[受講料]
無料・事前登録制

・定員等の都合により、締切前にお申し込みいただいてもご参加をお断りする場合がございます。
・お申し込み状況により、同一会社様の参加人数を制限させていただく場合がございます。
・今回、法人様対象のセミナーとなっております。個人のお客様からのお申し込みは受付けておりません。
・今回、無料セミナーであるため、同業他社様からのお申し込みは、お断りさせていただきます。
・参加される方には事前に「受講票」をお渡しいたします。当日はお名刺1枚と受講票をご持参下さいませ。

[セミナー詳細情報]
サイバーエージェント セミナー情報



●東京会場

[開催日時・場所]
7月24日(水) 17:00~19:00(16:30開場)
サイバーエージェント東京本社 渋谷マークシティ13Fセミナールーム
東京都道玄坂1-12-1 渋谷マークシティウエスト13F

[お申込み締め切り]
東京会場・大阪会場とも、7月17日(水)
お申込み多数の場合、お早めに締め切らせて頂く場合がございます。

[お申込み]
◯東京会場 お申込みフォーム



●大阪会場

[開催日時・場所]
7月23日(火)13:30~15:30(13:00開場)
サイバーエージェント大阪支社 大阪富国生命ビル 18階
大阪府大阪市北区小松原町2番4号 大阪富国生命ビル18F

[お申込み締め切り]
東京会場・大阪会場とも、7月17日(水)
お申込み多数の場合、お早めに締め切らせて頂く場合がございます。

[お申込み]
◯大阪会場 セミナー案内 ※サイト内で申し込み方法をご案内しております。




[お問い合わせ]
セミナーに関するお問合わせは seminar_seo@cyberagent.co.jp までお送りください。

【お詫びとご連絡】SEOセミナーについて

12 years 11ヶ月 ago

3/4(月)3/7(木)の東京・名古屋のSEOセミナーですが、
いずれの会場も満席となり、直前で大変恐縮ですが抽選の結果、
一部の方にお断りのメールを順次お送りさせて頂いております。

東京会場は、当初予定の10倍近い座席をご用意させて頂きましたが、
多くの方にご参加頂くことができない結果となりましたことを心よりお詫び申し上げます。

今回は京都大学との共同研究についてはおおまかな部分のご報告となります。
次回以降、様々な要素をより深く解析した結果をご報告していきたいと思っておりますので
今回抽選に漏れてしまった方も、もしよろしければまた次回にご応募頂けますと幸いです。

また、同業者の方も合わせて今回はお断りとさせて頂いた場合がございます。
同業者の方とは、また別の機会で情報交換をさせて頂ければと思っております。
お問い合わせ頂いた諸先輩方、ありがとうございました。

また、このようなご連絡が直前になってしまったことを重ねてお詫び申し上げます。
今後のセミナー運営においては改善をさせて頂きたいと思います。

※なお、お座席の確保ができた方についてもご連絡メールをさせて頂いております。
※3/2中にご連絡がいっていない方はご登録頂いたメールアドレスが誤っているか、弊社からのメールを正常に受信できていない可能性がございますので、大変お手数ですが、
seminar_seo@cyberagent.co.jp
までお問い合わせいただけますと幸いです。

サイバーエージェントSEO局

確認済み
3 時間 9 分 ago
サイバーエージェントSEOラボです。当ブログでは、皆様がウェブサイトを運営するにあたって必要となるSEOに関する情報をご提供して参ります。
CyberAgent SEO Information フィード を購読

人気記事トップ10

人気記事ランキングをもっと見る