グーグル音声検索SEOで知っておきたい11の事実【SEO記事12本まとめ】
Google Homeの音声検索データ1万件を分析して見えてきた、「音声検索SEOで上位表示させるヒントとなるかもしれない11個のポイント」を紹介する。
ほかにも、「グーグルサンドボックス」や「グーグルハネムーン」は存在するのかどうか、Fetch as Googleからのインデック送信の意味、正確なインデックス数の調べ方、meta refreshタグでのサイト移転認識などのSEO情報や、DMCAの基本解説、急増する日本のHTTPSなどなど、お役立ち情報をまとめてお届けする。
今週のピックアップ
グーグル音声検索SEOで知っておきたい11の事実――1万件データから見えてきたもの
因果関係とは限らないけど (Backlinko) 海外情報
音声検索向けSEOのポイントには、どういうものがあるのだろうか。検索結果から1件しか提示されない音声検索では、検索順位の決定に影響する要因はウェブ検索と同じなのだろうか、違うのだろうか。
スマートスピーカーGoogle Home(グーグル ホーム)が回答した1万件の音声検索の結果を、Backlinko(バックリンコ)が調査、分析した。
次のような発見があったそうだ。
ページの表示速度が音声検索のSEOに大きな役割を果たしているように見える。音声検索結果のページの読み込み時間は4.6秒。平均よりも52%速い。
HTTPSのサイトが音声検索の結果を占めている。グーグルホームが返す結果の70.4%がHTTPSで保護されていた。
音声検索のクエリに対しては簡潔な回答をグーグルは選んでいる。平均的な音声検索結果はたった29語の長さだった。
構造化データは音声検索の順位に重要な役割を果たしていないのかもしれない。音声検索結果の36.4%が、構造化データがマークアップされたページからだった(全世界の平均の31.3%よりも若干高い程度)。
オーソリティが高いサイトは、オーソリティが低いサイトよりも著しく音声検索の結果に出やすい。グーグルホームの結果に出たサイトのAhrefsドメイン評価スコアは76.8だった。
※筆者注: Ahrefsはバックリンク調査ツールソーシャルでの反応が高いコンテンツは音声検索でも成績が良い傾向にある。音声検索の結果は平均して、1,199のフェイスブックのシェアと44のツイートを獲得していた。
シンプルで読みやすいコンテンツが音声検索のSEOに役立つかもしれない。平均的な音声検索結果は中学生でもわかるレベルだった。
ページのtitleタグにクエリそのものが含まれている音声検索結果はごくわずかだった。したがって、音声検索のクエリごとに1つ1つページを作成するのは、音声検索のSEOにおいては非効率に思える。
音声検索の結果に出てきたページ自体のコンテンツの語数は平均して2,312語だった。グーグルは長いコンテンツから抜き出して音声検索の回答をつくる傾向にある。
PC検索で上位表示しているコンテンツは非常に高い確率で音声検索に現れる。実際に、音声検索のおよそ75%が、そのクエリで上位3位以内に入っていた。
強調スニペットとして出現することは音声検索の結果になるのに役立つと思われる。音声検索の回答の40.7%が強調スニペットからだった。
なかなか興味深いデータではある。
ただし気を付けてほしい点がある。これは相関関係であって因果関係ではないということだ。これらの発見に従って施策したとしても、それが音声検索でのSEOに効くとは限らない(この調査だけではわからない)。
たとえば、音声検索結果はHTTPSページからが70.4%とのことだった。音声検索の結果に利用されるような質の高いコンテンツを持つサイトは当然のごとくHTTPSに対応しているからと考えることもできる。そもそもHTTPSの普及率自体が上がっている。音声検索とHTTPSはまったく関係ないかもしれない。
それでも、音声検索に関する貴重な調査データであることは確かなことだが。
- SEOがんばってる人用(ふつうの人は気にしなくていい)
グーグル検索SEO情報
「グーグルサンドボックス」や「グーグルハネムーン」は存在する? それとも都市伝説?
存在しないが、現象は起こりうる (Google Webmaster Central office-hours) 海外情報
「グーグル サンドボックス」や「グーグル ハネムーン」というSEO用語を聞いたことがあるだろうか? 簡単に解説すると、次のようなことを指すものだ。
グーグル サンドボックスとは、新しく公開したサイトが一定期間はグーグル検索で上位表示できない状況(アルゴリズム)のこと。
グーグル ハネムーンとは、公開したばかりのコンテンツが、公開直後は上位に表示されやすいが、一定期間が経過すると順位が下がっていくという状況(アルゴリズム)のこと。
さて、グーグルのアルゴリズムに、上記のようなものは本当に存在するのだろうか?
グーグルのジョン・ミューラー氏によれば、サンドボックスもハネムーンも、アルゴリズムとしては存在しないということだ。しかし、複数のアルゴリズムの組み合わせによってそういった現象が実際に起こりうるらしい。
というのも、新しいコンテンツに対しては正当な評価をすぐに決定することが難しいことがあるからだ。ある程度の時間をかけて評価が定まっていく。
最初のうちはたいしたことがない(だろう)と判断したコンテンツが、実はすばらしい内容だったと後から判明することがあるかもしれない。反対に、すばらしい(ようだ)と判断したコンテンツが実のところそれほどでもなかったと結論付けることもあるかもしれない。
このようにコンテンツの品質を正当に評価しようというアルゴリズムの一連の処理によって、「サンドボックス」や「ハネムーン」のような現象が発生しているように見えてしまうということだ。
現実世界でも、初対面は嫌な感じだったけど今は親友なんていう経験があるだろう。あるいは、結婚して半年たったら……も珍しいことではないだろう。それと同じことだ。
- SEOがんばってる人用(ふつうの人は気にしなくていい)
記事を公開したらまずFetch as Googleでインデックス送信、それが日課です!?
そこまでする必要なし (Pedro Dias) 海外情報
元グーグル社員で、ブラジルのサーチクオリティチームで働いていたペドロ・ディアス氏が、こんなツイートを投稿していた。グーグルのジョン・ミューラー氏も「いいね」している。
Fetch as Googleの「インデックスに送信」機能に頼っているウェブマスターがとても多くて、しかも彼らは、予想していたほどすぐにインデックスされないと突然パニックになる――とても不可解な行動だ。
そんなことをせずに、外に出て友だちとビールでも飲んだらいいのに!
新しいコンテンツを公開するたびに、Fetch as Googleからインデックス送信するサイト管理者が少なからずいることは、筆者も認識している(ヘルプフォーラムの投稿でしばしば見かける)。
そもそも、このインデックス送信機能が何のためにあるのかを考えてほしい。たとえば、
- 内容の重要な修正
- titleタグの変更
- noindexの解除
などのような、更新内容を直ちにインデックスに反映させる必要があるときに利用するためだ。少なくとも、公開した新規コンテンツをインデックスさせるためにグーグルが用意しているものではない。
使ってダメということではないが、新しいコンテンツをクロールしてほしいなら、サイトマップを送信しておくだけで十分だ(RSS/Atomフィードを送信すればサイトマップよりも速く通知できる)。
Fetch as Googleからインデックス送信しないとインデックスされないとしたら、それはコンテンツの品質やサーバーのクロールに問題がないかを確認しておくほうがいいのではないだろうか。
そうでなければ、ディアス氏の言うように「気にしすぎずにゆったりと構えておく」ほうが、良い人生を送れるだろうと思う。
- SEOがんばってる人用(ふつうの人は気にしなくていい)
グーグルのインデックス数を調べる3つの方法、最も正確なのはどれ?
site:は使わない、Search Consoleの2つのレポートを使う (SEO Snippets) 海外情報
サイトで公開したページがどのくらいインデックスされているかを調べるにはいくつかの方法がある。グーグルのジョン・ミューラー氏がショートQ&A動画で解説した。
要点をまとめる。
「site:」検索 ―― 「site:ドメイン名」(例:
site:webtan.impress.co.jp
)で検索する。そのドメイン名のサイトの大まかなインデックスを表示する。しかし、かなり大まかな数値である。正確さよりも結果を返すスピードを重視している(正確な数値を返そうするほど時間がかかる)。
概要を把握するには役立つが、指標として使うことは推奨しない。
Search Consoleのインデックスステータス ―― Search Consoleで入手できるデータ。
「site:」検索よりもずっと正確で、グーグルが実際にインデックスしている数を知ることができる。固有のURLに基づいていて、無関係なパラメータが付いたURLは通常は除外されている。
ただし、気にする必要がないURLも依然として含まれている。
Search Consoleのサイトマップレポート ―― こちらもSearch Consoleで入手できるデータ。
サイトマップごとに、URLが実際にいくつインデックスされているかを知ることができる。
注意点は、サイトマップに記述されているURLに正確に一致したものに基づいているということ。もし、少しでも異なるURLでインデックスされているとしたらカウントされないだろう。
ミューラー氏は最後にこう締めくくっている。
実務においては、Search Consoleのインデックスステータスかサイトマップを指標として利用することを推奨する。
現状では、サイト運用者が手にできる最も正確なインデックス数は、この2つの手段で確認できるものだからだ。
「site:」検索の数字はまったく正確ではないので、頼りにしてはいけないことはこのコラムでも説明したことがある。
一方、インデックスステータスとサイトマップは正確な数値を知ることができる。だが、どのURLがインデックスされているかまでは知ることができない。
これを解決するのが、新しいSearch Consoleだ(現在はベータ版)。新SCの「インデックス カバレッジ」レポートは、どのURLがインデックスされているかいないかの情報までも手に入るすぐれものだ(ただし、サイトマップに記載されているURLに基づく)。
- すべてのWeb担当者 必見!
meta refreshタグで、サイト移転によるURL変更を検索エンジンに伝えられるのか?
利用可能だが非推奨 (John Mueller on Twitter) 海外情報
meta refresh
タグは、検索エンジン向けのサイト移転に利用できるか?
これは、たびたび出てくる質問だ。つい最近も、グーグルのジョン・ミューラー氏がツイッターで聞かれていた。
検索エンジンの評価を引き継ぐためのサイト移転(URL変更)には、推奨順に次の方法がある。
サーバーサイドのリダイレクト
最も推奨される方法。301でも302でも構わないが、筆者は断然301を勧める。rel="canonical"
301リダイレクト相当の働きをするが、ユーザーは自動転送されない。JavaScriptリダイレクト
JavaScriptによるリダイレクトもサイト移転としてグーグルは処理できる。
さて、meta refresh
タグはどうだろうか?
グーグルは、meta refresh
タグで別URLにユーザーを転送している場合でも、そのURL変更(サイト移転)を処理できる。だが、推奨されないし、きちんと処理される保証もない。移転として認識されるとしても、時間がかかるかもしれない。
先に挙げた3つの推奨方法が使えない状況での、やむを得ない手段として理解しておこう。
- SEOがんばってる人用(ふつうの人は気にしなくていい)
- rel="canonical"とrobots.txtの併用で重複コンテンツを解消!?
- 大規模サイトでの大量の重複コンテンツをrel="canonical"で解消する前にすべきこと
- DMCAってそもそも何?何ができて何が問題?
- 日本でもHTTPS普及率が急上昇中で6割に
- ワンクリックでサイトを簡単にワイヤーフレーム化するツール
- 複数の強調スニペットが同時に出現するマルチファセット強調スニペットをGoogleが導入
- SEOに適したLazy Loadの推奨をGoogleが近いうちに提案してくれるかも
テクニカルSEO&お役立ち最新情報
rel="canonical"
とrobots.txtの併用で重複コンテンツを解消!?
それ意味ないですから! (John Mueller on Twitter) 海外情報
重複コンテンツの状態を解消したいサイト管理者が、グーグルのジョン・ミューラー氏にツイッターで質問した。
どうやら、URLに付いているパラメータが原因で重複コンテンツが発生してしまっているようだ。
rel="canonical"
をページに入れていますが、パラメータが付いたURLをrobots.txtでブロックするほうがいいですか?rel="canonical"
が認識されるまでに時間がかかっているようです。
ミューラー氏は次のように答えた。
ダメダメ。robots.txtでブロックしてしまったら、重複コンテンツであることがわからなくなる。
同一コンテンツであっても、コンテンツと
rel="canonical"
を検索エンジンには見せるほうがいい。そもそも、重複コンテンツは放っておいても問題にはならないけどね :)
このサイト管理者が検討していることは2つの点で不適切だ。
robots.txtでブロックしてしまったら、そのページの中身を検索エンジンは見ることができない。したがって
rel="canonical"
の存在を認識することができず、rel="canonical"
の実装は意味をなさなくなる。robots.txtによるブロックを重複コンテンツの解消に使うべきではない。重複であることをグーグルに認識させたうえで正しく処理してもらうべきだ。
noindex
やrel="canonical"
といったグーグルへの指示を、robots.txtによるブロックと併用しようとする人は絶えない。
しかし、robots.txtでブロックしてしまったら、ページに何を書いていても意味がなくなってしまうことは、しっかりと理解しておこう。
- ホントにSEOを極めたい人だけ
大規模サイトでの大量の重複コンテンツをrel="canonical"で解消する前にすべきこと
重複コンテンツを作らせない (John Mueller on Twitter) 海外情報
「重複コンテンツ解消を目的としてrobots.txtを使うべきではない」というジョン・ミューラー氏の解説があった。これに対して次のように質問したユーザーがいた。
それぞれのページにかなりたくさんの重複コンテンツがある状況があったとします。その場合に、クロールバジェット節約のためにrobots.txtを使うのは、やり方としてどうなんですか?
ミューラー氏の答えはこうだ。
1,000万ページあって、100件の重複コンテンツがそれぞれのページに発生しているなら、それもありだろう。しかしほとんどのサイトは致命的な問題になるような数の重複コンテンツを抱えていない。
大規模サイトにおいては、
rel="canonical"
で重複コンテンツを応急処置するのではなく、クロールを全体として効率化するように、問題を根本的に解決したほうがいい。
大規模なサイトでは、重複コンテンツによってURLが莫大に増えてしまうと、クロールされるべきページがクロールされないといった障害が起こることがある。
しかし、そうしたことが起きるのは、本当に本当に大きな規模のサイト、たとえば、アマゾンや楽天、アメーバブログなどだけだと考えていい。一般的な規模のサイトでは、クロールバジェットなんて気にかける必要はない。
本当の大規模サイトで、重複コンテンツによってクロールに問題が発生しているとしたら、そもそも重複コンテンツを発生させないシステムを構築しなければならない。rel="canonical"
などによる正規化はもちろん重要なのだが、それ以前の物理的に大量のページをクロールしてしまうという問題をまず解決しておくべきなのだ。
- SEOがんばってる人用(ふつうの人は気にしなくていい)
DMCAってそもそも何?何ができて何が問題?
正しい理解で正しい使い方を (BUSINESS LAWYERS) 国内情報
コンテンツを無断盗用されたときにグーグル検索からの削除申請に利用できる、「DMCA(デジタルミレニアム著作権法)」に基づいた通知とコンテンツ掲載取り下げについて、株式会社so.la代表の辻正浩氏と弁護士が対談形式で解説している。
日常的なサイト管理においてDMCAは必要となるものではないが、コンテンツを発行する立場にいる限りはDMCAの正しい理解はあったほうがいいだろう。読んでほしい。
- すべてのWeb担当者 必見!
日本でもHTTPS普及率が急上昇中で6割に
HTTPは今や少数派 (Let's Encrypt on Twitter) 海外情報
Firefoxブラウザで読み込むウェブページのHTTPS率が、この1年で30ポイント上昇したそうだ。実に、60%以上のページがHTTPSで読み込まれている(他国を含めた全体平均は約70%、米国は約78%、独は74%)。
グーグル社員の北村氏も喜んでいる。
保護されていないHTTPのほうが今や少数派になっているようだ。
- すべてのWeb担当者 必見!
ワンクリックでサイトを簡単にワイヤーフレーム化するツール
UX改善に使えそう (takafumi/UI・webデザイナー on ツイッター) 国内情報
サイトのワイヤーフレームをワンクリックで作成するツールを紹介する。ツイッターで知ったものだ。
使い方は極めて簡単で、こちらのサイトの「Wirify by Volkside」というリンクをブックマークし、ワイヤーフレーム変換したいページでクリックするだけだ。
サイトのデザイン設計やUX改善のために利用できそうだ。デザイナーさんに教えてあげよう。
- デザイナーさんに伝えましょう
海外SEO情報ブログの
掲載記事からピックアップ
新しい強調スニペットとLazy Loadの処理に関する記事を今週はピックアップ。
- 複数の強調スニペットが同時に出現するマルチファセット強調スニペットをGoogleが導入
オーガニック結果がますます下に追いやられる。
- SEOがんばってる人用(ふつうの人は気にしなくていい)
- SEOに適したLazy Loadの推奨をGoogleが近いうちに提案してくれるかも
UXのためのレイジーロードがSEOにマイナスなのは解消してほしい。
- ホントにSEOを極めたい人だけ
- 技術がわかる人に伝えましょう
ソーシャルもやってます!