Moz - SEOとインバウンドマーケティングの実践情報

サイトの著者情報がグーグルに正しく認識されているかを一括で自動チェックするためのクイックガイド

Screaming Frog SEO Spider Toolを使って、グーグルが著者情報をどう認識しているかまで自動チェック
この記事の内容はすべて筆者自身の見解であり(ありそうもないことだが、筆者が催眠状態にある場合を除く)、Mozの見解を反映しているとは限らない。

著者情報マークアップ(Authorship Markup)をページのHTMLに加えておくと、グーグルの検索結果ページに表示される際に、Google+のアカウント情報による著者情報が、検索結果内に表示される可能性が出る。

しかし、その著者情報マークアップが正しくできているかどうか、いちいち構造化データテストツールで調べるのは面倒だ。

この記事では、グーグルが著者情報マークアップをどう認識しているかまでのチェックを自動化する方法を解説する。

うちの会社ではほぼ全社員が、ウェブサイトのクロールに「Screaming Frog SEO Spider」というツールを使ってきた。読者の多くも多分、グーグルの構造化データテストツール(以前の名称はリッチスニペットツール)を使って、自分の著者情報(オーサーシップ)の設定などの構造化データをテストしたことがあるだろう。

今回のクイックガイドでは、この2つのツールを組み合わせて、Google Authorshipやrel="publisher"、それに各種のSchema.orgマークアップといった構造化データについて自分のウェブサイト全体をチェックする方法を説明していく。

コンセプト

グーグルの構造化データテストツールは、テスト対象として入力されたURLをグーグル独自のURLに変換して使用する。たとえば、こんな感じだ。

このURL構造を利用して、構造化データマークアップをテストしたいURLのリストを作成し、Screaming Frogでそのリストを処理できるのだ。

なぜこの方法が、単に自サイトをクロールしてマークアップを検出するより優れているのか

もちろん、自分のサイトをクロールして、その結果に対してScreaming Frogのカスタムフィルタを使い、サイトのコードに含まれる「rel="author"」や「?rel=author」といったフレーズが適切に使われているかどうかをチェックする方法もある。

しかし、今回説明する方法では、実際にグーグルが認識しているものを調べられる。そこから、著者情報などのマークアップの実装におけるエラーも検出できるわけだ。

免責事項:「構造化データテストツールが著者情報の実装がちゃんとできているのに、検索結果で著者情報のスニペットがうまく機能してない」という事例に、僕は何度も遭遇してきた。検討を重ねた結果、この問題は実装方法を変更することで解決した。ほかにも、特定のGoogle+ユーザーに対して著者情報の閲覧が許可されなかったり、表示されななかったりすることもある。結論として、注意すべき重要なポイントは、構造化データテストツールは完璧ではなく、ポジティブな結果を誤って出すということだ。それでも、一度に多数のURLを素早くテストするこのケースでは、われわれのニーズに合致している。

開始する

開始するために必要なものは以下のとおりだ。

  1. Screaming Frogの有料ライセンス(これから使うカスタムフィルタは有料版でのみ利用可能)

  2. Excel 2013、URL Tools for ExcelSEO Tools for Excel のいずれか1つ(この3つはいずれも、数式を使ってURLをExcel内でエンコードできる

  3. クイックXLSXテンプレートをダウンロードする:Excel Template for Screaming Frog and Snippet Tester.xlsx
    これは、Screaming Frogおよびスニペットテストツール用のExcelテンプレートだ

ステップ1~3:ExcelテンプレートにURLのリストを集約する

Excelテンプレートの中で詳細な手順を読めるが、ここではExcelテンプレートの使い方をシンプルな3ステップで説明しよう(このファイルを開く前に、必ずURLツールやSEOツールをインストールしておくこと。そうしないと、後で数式を修正しなければならなくなる)。

ステップ1――URLを列Aに入力する
ステップ2――列AにペーストしたすべてのURLに下の数式を適用する。大丈夫、この数式はもうExcelテンプレートに登録してある。
ステップ3――列Bのすべてを.txtファイルにコピーする

ステップ4:列BのすべてのURLを.txtファイルにコピーする

これで、スプレッドシートの列BにクロールすべきURLがずらりと並んだ。この列をコピーしてテキストファイルにコピーすると、1行に1つのURLが入ったテキストファイルができる。これがScreaming Frogのリストモードで使用する.txtファイルだ。

テキストファイルにペーストする

ステップ5:Screaming Frogを開き、リストモードに切り替えて、ファイルをアップロードする

リストモードに切り替える

ステップ6:Screaming Frogのカスタムフィルタを設定する

ここで重要なポイントだ。準備したURLすべてのクロールを始める前に、構造化データテストツールから特定のレスポンスを検出できるように、カスタムフィルタをScreaming Frogに設定しておく。

この例では著者情報についてテストするので、Screaming Frogに追跡させたいテキストは以下のとおりだ。

  1. 作成者情報はこのウェブページで機能しています。

  2. rel=authorマークアップによってこのウェブページの作成者情報が正常に設定されました。

  3. ページには著者情報のマークアップは含まれません。

  4. 作成者情報はこのページで機能していません。

  5. 要求したサービスは現在利用できません。

これらのテキストをScreaming Frogに入力すると、フィルタは下図のようになる。

フィルタをカスタマイズする(実際には上記の日本語のテキストを指定していく)

ここで、僕らが追跡する各テキストの意味を明確にしておこう。

  1. 第1のフィルタは、ページ上のテキストをチェックして、著者情報が正しく設定されていることを確認する。

  2. 第2のフィルタは、フィルタ1と同じ情報を報告する。両方のフィルタを加えるのは、冗長化を図るためだ。フィルタ1と2では、まったく同じページのリストが取得できるはずだ。

  3. 第3のフィルタは、構造化データテストツールでページ上の著者情報が見つからなかった場合、そのことを検出する。

  4. 第4のフィルタは、著者情報の破損を検出する(これはたいていの場合、リンクが間違っているか、そのGoogle+ユーザーがプロフィールの「寄稿先」セクションにドメイン名を追加していないかのどちらかが原因だ)。

  5. 第5のフィルタは、構造化データテストツールの標準的なエラーテキストを含む。これが検出されたURLについては、もう一度精査すべきことがわかる。

以下に、構造化データテストツールで検出されるテキストの一例を示した。

ステップ7:クロールを実行する

この段階で、URLのクロールを始める準備は整った。

グーグルのサーバーに敬意を払うとともに、この方法によるURLクロールが禁止されることを回避するために、クロール速度を遅めに調整することを考えた方がいいかもしれない。規模の大きいサイトであれば特にね。

この設定は、Screaming Frogのメニューで[Configuration]>[Speed]に進み、現在の設定値を下げることで調整できる。

ステップ8:結果をCustomタブにエクスポートする

クロールが終了したら、[Custom]タブに進み、テストした各フィルタを選択して、結果をエクスポートする。

各フィルタの結果をCSV形式でエクスポートする

動画チュートリアル

この8つのステップを流れにそって解説している短い動画チュートリアルもある。わからない場合はこちらも確認してみてほしい。

まとめ

ここまで駆け足でざっと説明してきた。

エクスポートした各CSVファイルは、設定したフィルタをファイル名として保存するといいだろう。たとえば、僕のフィルタ3は「ページには著者情報のマークアップは含まれません」というフレーズを含むページのテストだ。そこで、「フィルタ3」というファイル名でエクスポートされたファイルには、構造化データテストツールによって著者情報が一切返されなかったURLが保存されていることがわかる。

このコンセプトを拡張する4つの方法

①複数の著者に関するデータを引き出すために、適切なスクレイパーを使う

Screaming Frogは、このガイドで説明したようなクイックチェックを行うには手軽なツールだが、残念ながら本当の意味でのスクレイピングには向いていない。

この方法を使って、あるページで誰が著者として確認されているかといったデータも引き出したいなら、このコンセプトをOutwit Hubで使えるよう手直しするのがおすすめだ。SEOGadgetのジョン・ヘンリー・シャーク氏Outwitを使って基本的なスクレイピング作業を行う方法についてすばらしいガイドを書いているので、Outfitを使ったことのない人はこれを読んでもらいたい。

もっとテクニカルにやりたい人向けに、この種の作業を処理できるスクレイパーはこれ以外にもたくさんある。重要なのはプロセスを理解することなので、自分好みのツールを使うといい。

②検索順位に対する著者情報テストと検索ボリューム概算値を比較し、改善の機会を見つける

たとえば、検索ボリュームの大きいキーワードで検索順位が3位になっていて、著者情報がページにないとしよう。賭けてもいいが、このページには時間をかけて著者情報を追加する価値がきっとある。

ExcelでHLOOKUP関数またはVLOOPUP関数を使って、3つのタブからのデータを比較しよう。3つというのは、次のものだ。

  • 検索順位
  • 検索ボリューム概算値
  • 当該ページ上の著者情報の有無

若干のデータ操作が必要になるが、最終的には、著者情報を持つページを除外し、検索ボリューム概算値と現在の検索順位でページを並べ替えたピボットテーブルを作成できるはずだ。

注:僕は、全ページに著者情報を追加することを勧めているわけじゃない。たとえばEコマースの商品ページなど、著者に帰属させるべきではないページもある。

③この方法を使って、著者情報以外の構造化マークアップをテストする

構造化データテストツールは、著者情報以外のテストにも威力を発揮する。このツールは、次のような構造化マークアップのテストにも使える。

以下の各リンクは、いずれも構造化データテストツールへのリンクだが、さまざまな構造化マークアップがツールでどう表示されるかを把握できるようにしてある。

④このアイデアをScreaming Frogの他の機能と組み合わせる

Screaming Frogには、多種多様な使い方がある。SEERのアイシュリー・ブッシュネル氏は、55通り以上あるScreaming Frogの使い方という優れた記事で活用例を集めた。記事をチェックすれば、このコンセプトから実用的なものを生み出す方法をいくつか考えつくはずだ。

さえない注意書きで締めるわけじゃないが、3つのトラブルシューティングを示しておこう。

  • うまくいかない場合、まずやるべきなのは、送信したURLを手作業でテストし、Excelの各ステップで問題がないかどうかを確かめることだ。また、ページが正しくロードされていることを確認するために、カスタムフィルタの項目に「無効なURLであるか、ページが見つかりません。」を追加してもいい。

  • 大量のURLについて作業する場合は、ごく短い時間に大量のクエリを行ってグーグルに負担をかけたりしないよう、Screaming Frogのクロール頻度をおとなしめにする方がいいだろう。

  • 最初にExcelテンプレートを開くと、URLツールまたはSEOツールをすでにインストール済みかどうかによって、式が誤って変更されてしまうことがある。その場合、1ページ目の手順を読んで、正しい式を見つけて置き換えよう。

この記事が役に立ったらシェア!
みんなが読んでるWeb担メルマガで、あなたも最新情報をチェック
  • SEOやデジタルマーケの最新情報をゲット
  • 事例やインタビューも見逃さない
  • 要チェックのセミナー情報も届く
みんなが読んでるWeb担メルマガで、あなたも最新情報をチェック
  • SEOやデジタルマーケの最新情報をゲット
  • 事例やインタビューも見逃さない
  • 要チェックのセミナー情報も届く

Web業界の転職情報

もっと見る
Sponsored by

人気記事トップ10(過去7日間)

今日の用語

ナビゲーション
サイトの訪問者が、サイト内で目的のコンテンツを探したり、サイト内の他のコンテンツ ...→用語集へ

連載/特集コーナーから探す

インフォメーション

Web担のメルマガを購読しませんか?
Web担の記事がコンパクトに毎週届くメールマガジン「Web担ウィークリー」は、10万人が読んでいる人気メルマガ。忙しいあなたの情報収集力をアップさせる強い味方で、お得な情報もいち早く入手できます。

Web担に広告を掲載しませんか?
購読者数10万人のメールマガジン広告をはじめとする広告サービスで、御社の認知向上やセミナー集客を強力にお手伝いいたします。

サイトマップ
RSSフィード


Web担を応援して支えてくださっている企業さま [各サービス/製品の紹介はこちらから]