グーグルが力説、「速いサイトは儲かるサイト」
- 今週のピックアップ
- 日本語で読めるSEO/SEM情報
- 海外SEO情報ブログの掲載記事から
- 海外のSEO/SEM情報を日本語で
- SEO Japanからのピックアップはなし
海外のSEO/SEM情報を日本語でピックアップ
グーグルが力説、「速いサイトは儲かるサイト」
コンバージョン向上のためにスピード改善に励もう (LukeW)
コンバージョン(成約)の向上をテーマにしたカンファレンスを、グーグルがアイルランドで開催した。そのなかで、モバイルサイトの高速化がECサイトの売り上げに大きく影響することを解説したセッションがあった。
そこで語られた内容の重要ポイントをグーグルのロブルースキー氏が個人ブログにまとめているので紹介する(強調は筆者による)。
スマートフォンのパフォーマンス(表示速度)には制限があるが、ユーザーは速いことが当然のように思っている。
モバイルECは購入プロセスの初期段階に位置する。50%のユーザーはブランド(社名や商品名、サービス名)にモバイルで最初に接触する。
ほとんどの場合、コンバージョンに至るまでに(単一のデバイスで完結するのではなく)平均で2.6個のデバイスを経由(使い分け)している。
米国のショッピングサイトの表示にかかる時間は平均7秒。
ページの表示時間が1秒から3秒に遅くなると、直帰率は32%悪化すると予想される。
モバイルでページ表示速度が1秒速くなると、コンバージョン率が27%改善した。
モバイルの表示速度は1秒以内が理想。しかし、もろもろの処理に600ミリ秒はかかるので、実際にサイトオーナーが管理できる範囲は400ミリ秒程度しかない。
モバイルページの表示速度を改善する際にまず調査すべきは次の3つ。
- 画像
- 縮小されていないリソース
- リクエストの数
画像は、平均するとウェブのデータの68%を占めている。画像を圧縮すれば転送データ量を削減でき、表示を高速化できる。
画像がスクリーンに見える範囲に入ったときだけに読み込まれる「Lazy Load」(遅延読み込み)を使うのは良い手法。しかし、「download and hide」(ダウンロードしておいて隠す手法)や「download and shrink」(ダウンロードしておいて小さくしておく手法)は、使うべきではない。
リソースを最小化すること。CSSやJavaScriptを圧縮(minify)すると、転送サイズを70%削減できる。さらにGZIP圧縮を使うと、転送サイズはさらに減らせる。
ウェブの68%のサイトは50個以上のリソースをリクエストする。次のようなことをうまくすれば、リクエスト数を減らせる。
- ブラウザキャッシュ
- ページのリソースを統合する
- JavaScriptを非同期で読み込む
- ファーストビューのCSSを優先読み込みさせる
リダイレクトの多用は、可能ならば避けるべき。それぞれのリダイレクトで「DNS参照」「TCP接続」「データ転送」の時間がかかるからだ。
モバイルサイトのスピードは収益にかかわる要素だとみなすべき。
ユーザーは速いサイトを望んでおり、速いことは売上アップにも繋がることをしっかりと認識してスピード改善に取り組みたい。
- すべてのWeb担当者 必見!
- ネットショップ担当者 必見!
- 技術がわかる人に伝えましょう
サイト内検索ページを削除するアルゴリズムをグーグルは持っている
ユーザーの役に立たないから (The SEM Post)
サイト内検索の結果ページを、通常ページのようにインデックスさせているサイトがある。しかしグーグルは、専用のアルゴリズムによって、サイト内検索結果ページをグーグルの検索結果に出さないようにしているようだ。
米サンノゼで先月開催されたSMX West 2017カンファレンスで、グーグルのゲイリー・イリェーシュ氏は次のようにコメントした。
一般的に言って、僕たちはサイト内検索ページがインデックスされることを嫌う。ほとんどの場合、ユーザーの役に立たないからだ。
そういったページをインデックスから取り除くアルゴリズムを実際に持っていて、基本的にクロールしないようにする。
ただ、うまくいかないこともある。そんなときは、手動で介入して、インデックスされてしまった内部検索結果ページのために新しいルールを作成する。
サイト内検索結果ページは、通常はページが単純に並んでいるだけだ。
もし、どこかのサイトのサイト内検索結果ページがグーグルの検索結果に表示されたら、検索ユーザーはどうなるだろうか。グーグルで何かを検索して、その検索結果ページが表示され、そこから飛んだ先でまた別の検索結果を見ることになる。この状況は、良いユーザー体験だとはいえない。
サイト内検索ページをインデックスさせることで、サイトのボリュームを水増しし、それでグーグルの評価を上げることが可能だった時代が、過去にはあった。しかし今はまったく役に立たない手法だ。むしろ低品質ページが増えることで、評価が下がると考えるほうが自然だろう。
- SEOがんばってる人用(ふつうの人は気にしなくていい)
ビッグキーワードで上位表示したいなら画像が狙い目?
挑戦してみるといいかも (Gary Illyes on Twitter)
グーグルのゲイリー・イリェーシュ氏が、次のようなSEOのTIPSをツイートした。
競争が激しいキーワードで上位表示する方法が見つからないなら、画像や動画で狙ってみるのもいいかもしれない。
DYK if you can't figure out how to rank for a competitive query, sometimes the answer will be to optimise for images and/or video? pic.twitter.com/wDxDTwCLJB
— Gary Illyes ᕕ( ᐛ )ᕗ (@methode) 2017年3月12日
イリェーシュ氏が言及しているのは、ウェブ検索結果に差し込まれる画像や動画のユニバーサル検索結果のことだ。
ユニバーサル検索結果に含めるのは、ウェブ検索で上位表示するよりはたしかに難易度が低いように思える。写真や動画を検索ユーザーが求めているようなキーワードなら、狙ってみるといいかもしれない。
- SEOがんばってる人用(ふつうの人は気にしなくていい)
5年前に削除したURLにGooglebotが今でもアクセスしてくる。そういうもの?
Googlebotは忍耐強く繰り返しクロールを試みる (John Mueller on Twitter)
5年前に削除したページがあります。そのURLは404を返していて、バックリンクもないのですが、いまだにGooglebotがアクセスしてきます。これは普通のことですか?
こうした質問をツイッターで受けたグーグルのジョン・ミューラー氏は、次のように答えた。
ありうることだ。Googlebotは忍耐強いんだ(笑)。そのURLが依然として削除されたままなら、まったく問題ない。
クロールバジェットの浪費に関しても心配いらない。
@Hams38 yeah, that can happen -- it's patient :). If the URLs still don't exist, that's perfectly fine.
— John ☆.o(≧▽≦)o.☆ (@JohnMu) 2017年3月30日
@Hams38 we usually try these when Googlebot has nothing more useful to do -- I wouldn't worry about it.
— John ☆.o(≧▽≦)o.☆ (@JohnMu) 2017年3月30日
たとえ404や410を返してたとしても、いったん発見したURLに対してはGooglebotは半永久的にクロールを試みると思って問題ない。何度か404が返ったとしても、ミスで一時的にページが消えていただけかもしれないし、ひょっとしたら復活している可能性がゼロではないからだ。
だから、削除したページがクロールされることは気にしなくていい。
通常のURLと比べたらロボットの訪問頻度は格段に落ちるはずだ。クロールやインデックス、ランキングに悪影響が出ることはないので、不安を感じなくていい。
そもそも、グーグルがどのURLをクロールするかは、あなたがどんなページをサイトで公開しているかと直接は関係ない。あなたのサイトで使っているCMSのデータベースにグーグルがアクセスできるわけではないのだから。
Googlebotは、既知のURLからリンクをたどるほか、さまざまな情報をもとにクロールしている。そのため、想定しないURLに対してクロールが来るのは日常的にあることだと思っておくのがいいだろう。
- すべてのWeb担当者が知っておくべきこと
HTTPSにした後は否認ファイルの再アップロードも忘れずに
正規URLに対して否認処理が実行されるから (John Mueller on Twitter)
もしあなたが自分のサイトをHTTPS化したのならば、忘れていないか確認すべきことが1つある。
それは、HTTPS化の前にリンクの否認ファイルをSearch Consoleでアップロードしていたとしたら、HTTPSで登録したサイト用にも忘れずにアップロードしておく、ということだ。
正規URL(HTTPS対応後は、https:
で始まるURL)に対してリンク否認は処理される。HTTPSで登録したサイトに否認ファイルがなかったとしたら、それまでの否認が無効になってしまう可能性がある。
なお、HTTPのサイトにアップロードしてあった以前の否認ファイルは削除してもいいしそのままでもかまわない。
@Marie_Haynes @dan_shure @TheSEMPost The disavow file needs to be where the canonical URLs are (and copying it to both is fine too)
— John ☆.o(≧▽≦)o.☆ (@JohnMu) 2017年3月23日
- SEOがんばってる人用(ふつうの人は気にしなくていい)
- 否認ファイルをアップロードしていて、HTTPS移行した人
SEO Japanの
掲載記事からピックアップ
更新なし。
ソーシャルもやってます!