グーグル社員がアドバイスするSEOでやるべきこと・やってはいけないこと
海外のSEO/SEM情報を日本語でピックアップ
グーグル社員がアドバイスするSEOでやるべきこと・やってはいけないこと
寝る前に考えるべきことの助言付き (Manish Dudharejia on Twitter)
「SEOでやるべきこと&やってはいけないこと」を、グーグルのゲイリー・イリーズ氏がリストアップした。イスラエルのエルサレムで11月1日に開催されたSMX Israelカンファレンスでの内容を参加者がツイートしていたので紹介する。
- オリジナルコンテンツを入念に作成する
- 確実に、ユーザーが情報をすぐに見つけられるようにする
- 可能ならば、情報を分けたり理解しやすいバージョンを作ったりする
- コミュニティを(ユーザーに)任せる
- コミュニティが正しく運用されるようにハンドルする
- 検索エンジンのためにページを構成する
- サイトにない情報に対して最適化する
- すべての訪問ユーザーを他のサイトに誘導する(特にアフィリエイトサイト)
- 幅広く入手可能なデータにだけ頼っている
またイリーズ氏は次のようにも発言したそうだ。
眠りにつくときに、「今日、何人のユーザーがサイトに訪問したか」ではなく、「今日、何人のユーザーを助けることができたか」を自分に問いかけるといい。
「やるべきこと・やってはいけいこと」とともに、サイト運営にとても役立つアドバイスだ。
www有無&http/httpsのサイトがSearch Consoleで統合表示される?
ぜひ実装を (Search Engine Roundtable)
Search Consoleでは、たとえ同一のサイトであったとしても次のURLは別々のサイトとしてデータがレポートされる。
- http://example.com/
- http://www.example.com/
- https://example.com/
- https://www.example.com/
通常は正規化して1つのURLにまとめるべきなのだが、問題が発生したときの診断のためにすべてを登録しておくことが推奨される。
しかし、これらのサイトをSearch Consoleで統合してレポートする機能の導入をグーグルは検討しているそうだ。SMX Israelカンファレンスでグーグルのマイケル・フィンク氏が明らかにした。
筆者もSearch Consoleには、先で挙げたような4種類のURLを登録している。レポートが1つにまとめられるというのは、データを参照しやすくなってありがたい。それにレポートを参照するときに、本サイト(https://www.suzukikenichi.com/)ではないサイトをうっかり選んでしまいそうになることがときどきある。選択間違いがなくなる点でも嬉しい。ぜひ実装してほしいものだ。
Search Consoleに登録できるサイトの上限が1,000に引き上げ
100サイトでは足りない人には朗報 (Gary Illyes on Twitter)
Google Search Consoleに登録できるサイトの上限が1,000サイトまで引き上げられたようだ。これまでは100サイトまでしか登録できなかった。
グーグルのゲイリー・イリーズ氏が、確証は持てないとしながらも認めている。
少なくとも100サイトを超えたのは確かなようだ。190サイトを登録した状態のスクリーンショットが投稿されている。
一般的には100サイトも登録できれば十分だろうが、非常に多くのサイトを監視する立場にあるウェブ担当者やSEOコンサルタントには嬉しいニュースだろう。
robots.txtを動的に生成しても大丈夫?
問題はないが注意点あり (Webmasters Stack Exchange)
robots.txtを動的に作成しても問題ありませんか?
このような質問がSEOフォーラムに投稿された。
質問者は1つのCMSで複数のサイトを運用しているため、そのままではどのサイトでも同じrobots.txtになってしまう。そのため、robots.txtへのアクセスをrobots.phpなどで受けて、クローラがどのサイトにアクセスしてきたかに応じて、そのサイト用のrobots.txtを動的に生成する構成にしようとしているのだ。
グーグルのジョン・ミューラーは次のようにコメントした。
サイトごとにrobots.txtを動的に生成することに問題はない。
だが気を付けることがある。Googlebotはrobots.txtを1日1回クロールし、キャッシュする。サイトを訪問した際に毎回robots.txtをクロールするわけではない。キャッシュされた古いバージョンのrobots.txtに従うことがありうる。
robots.txtを動的に生成すること自体に問題はない。また、この事例では問題ないが、内容を頻繁に変えても、Googlebotが常に最新の状態に従ってクロールしてくれるとは限らないので注意が必要だ。Googlebotはrobots.txtをだいたい1日1回だけ(または数百ページクロールごとに)クロールしてキャッシュしていることも知っておきたい。
構造化データを使い過ぎるとペナルティを受けるのか?
ペナルティにはならないが重要なものだけをマークアップしたほうがいい (Google Webmaster Central office-hours)
グーグルの英語版オフィスアワーで参加者が次のように質問した。
すべてのページに構造化データをマークアップしています。構造化データを追加しすぎるということはありえるのでしょうか? スパム行為だとしてペナルティを受けることがありますか?
ジョン・ミューラー氏は次のように回答した。
構造化データをたくさん追加したことの結果としてマイナスな評価を受けるということはない。
ただしたくさんマークアップすることで(HTMLのサイズが大きくなるため)ページの表示速度が遅くなるかもしれない。それにすべての構造化データを維持管理するのは労力がかかるだろう。
サイトにとって本当に重要なものだけをマークアップすることを勧める。
あるいは、効果がはっきりとわかるようにリッチスニペットの対象になっているものだけをマークアップしてもいい。
ページにある情報を、可能な限りたくさん構造化データとしてマークアップすることは、そのページで言及されているモノゴトが持つ意味を検索エンジンに伝えることにおおいに役立つ。
しかし、ミューラー氏が言うようにすべての情報を正しくマークアップするには多大な労力と知識が必要だ。まずは重要なものだけをマークアップすれば十分だろう。たとえば、リッチスニペットなどグーグルが明示的にサポートしている構造化データを中心に実装していくとよさそうだ。
ただしポリシーに違反した構造化データの利用は、それ相応に対処されることがあるので注意が必要だ。
サイトマップはクロールを抑制するためにも利用できるのか?
促進するだけ (John Mueller on Twitter)
グーグルのジョン・ミューラー氏がツイッターでサイトマップとクロールに関してフォロワーとこんな受け答えをしていた。
(フォロワー)サイトマップでlastmodを指定していたら、Googlebotは前回のクロールから変更がないページを取得しないように動きますか?
(ミューラー氏)サイトマップでlastmodを指定していても、クローラは変更がないURLにアクセスしに行くだろう。
サイトマップに記述できる <lastmod>
には、そのURLのコンテンツの更新日時を指定する。<lastmod>
によってコンテンツが更新されたことを認識したGooglebotは、そのURLを優先的にクロールする。
しかし、<lastmod>
の日時が前回のクロール時と同じだったとしても、クロールが不要だと判断したりはしない。つまり、サイトマップはクロールを促すことはできるが、クロールを抑制する目的では用いられないのだ。
Googlebotはサイトマップとは無関係に、通常のクロール頻度でページをクロールする。
質問者がどうして変更がないページをクロールさせたくないのかの理由は不明だが、サイトマップではクロールを抑えることはできない。
SEO Japanの
掲載記事からピックアップ
RankBrainのさらに突っ込んだ解説と、PubConカンファレンスのセッションレポートを今週はピックアップ(RankBrain関連記事は今週のピックアップの次にまとめて掲載)。
ソーシャルもやってます!