SEO Japan

Answer engine optimization:最適化すべき6つのAIモデル

10ヶ月 3 週間 ago
{ "@context": "https://schema.org", "@type": "FAQPage", "mainEntity": [ { "@type": "Question", "name": "Google AI Overviewや生成AIの回答は何のデータを基に抽出されていますか?", "acceptedAnswer": { "@type": "Answer", "text": "Google AI OverviewやChatGPT検索などの生成AIは、検索インデックスやWeb上の信頼できる情報を基に回答を生成します。特にGoogle AI Overviewは検索上位20位以内のページを中心に、Perplexityは独自クローラーで収集した信頼ソースを優先しているとされています。" } }, { "@type": "Question", "name": "AI検索に向け企業が取り組むべきことはなんですか?", "acceptedAnswer": { "@type": "Answer", "text": "まずはGoogleやBingでの上位表示を前提としたSEOを継続しつつ、構造化データやFAQ設置などAIに引用されやすいコンテンツ作成が重要です。Perplexityなど独自ロジックのAIもあるため、信頼性・明確性のある情報設計が求められます。" } } ] }

この記事は、2025年 3月 25日に Search Engine Land で公開された Bruce Clay氏の「Answer engine optimization: 6 AI models you should optimize for」翻訳したものです。

この記事で分かるAI検索6モデルの特徴・仕組み

AIモデル名特徴仕組み(見解)
Google AI Overview検索上部にAI要約を表示し、検索体験を変革Google検索上位10〜20位の情報をもとに、Geminiが回答を生成している可能性が高い
Google AI Mode検索画面全体をAI応答中心に切り替える新機能クエリ・ファンアウト技術で複数ソースを並列検索・統合し、詳細な応答を提示
Google GeminiGoogle検索やAI製品群の中核を担う大規模モデルGoogle検索結果やAP通信など外部ソース、ユーザー履歴をもとにパーソナライズされた回答を生成
Bing CopilotBingに統合された対話型AI検索GPT-4ベースのPrometheusモデル+リアルタイムのBing検索結果を統合して回答を生成
ChatGPT検索ChatGPTにリアルタイム検索機能を組み込んだ新体験Bing検索+提携コンテンツを活用し、GPT-4oで文脈を加味した応答を生成
Perplexity AI出典を明記した簡潔な回答に特化したAI検索独自クローラーでWeb全体を収集し、信頼ソースを優先して即時要約・回答を提示

Google AI OverviewやChatGPT検索など、注目すべき6つのAI検索について、それぞれがどのようにコンテンツを取得しているのか、そしてそれがSEOにどのような影響を及ぼすのかを探ります。

AIを活用した検索技術は、私たちの情報の探し方を根本から変えつつあります。長年にわたって、GoogleやMicrosoft Bingでの検索順位は、検索における可視性の基盤となってきました。

しかし、AIを活用した検索が普及していくなかで、順位の優先度は変化していくのでしょうか?

検索エンジンが関連性を重視、評価していたSEOの初期時代とは違い、私たちは今、AIとSEOが混在した不安定な時代にいると思います。

どのAI回答エンジンが勝者となるかは、今後の展開を見守るしかありません。SEOが依然として重要であることに変わりはありませんが、AIは確実に、その「ルール」を書き換えようとしています。

この記事では、以下の内容を詳しく解説します。

  • 注目すべき6つのAI検索プレイヤーと、それぞれのコンテンツ取得の方法
  • ユーザーの検索行動がどこへ向かっているかを示す市場シェアと利用傾向
  • AI回答エンジンが、いまだに従来の検索エンジンに依存している理由
  • 企業が今すぐ始めるべき、AI活用型検索に向けた最適化アクション

AIモデルとリアルタイム検索

本題に入る前に、AIプラットフォームがどのように動作しているかを簡単に見ておきましょう。AIモデルは、それぞれ特定の時点までに収集されたデータをもとに学習されています。

たとえば、GoogleのGemini 2.0 Proは、2024年8月までの知識で学習されており、一方、OpenAIのGPT-4oは2024年6月まで延長したデータでトレーニングされています。こうした情報は日々更新される可能性があります。

したがって、最近の出来事やトレンドに関する質問では、モデル内部の情報だけでは足りません。AIはリアルタイムにウェブからデータを取得し直し、その場で要約を生成します。

つまり、AIがどれだけ正確かつ最新の情報を提示できるかは、ウェブから新しいデータを取得し、それを適切に処理する能力にかかっているのです。ここが非常に重要なポイントです。

また注目すべき点として、AI検索エンジンが独自のWebインデックスを構築できるようになってきていることが挙げられます。

たとえば、Perplexity AIの「PerplexityBot」は、GoogleやBingのインデックスに依存せず、独自にウェブをクロールしてデータベースを作成しています。それでもなお、多くのAI検索エンジンは、従来型検索エンジンの検索結果を活用しており、実際にそれに依存しているのが現状です。

ウェブサイトの管理者が、これらのクローラーによるコンテンツ取得を制限したい場合は、robots.txtの設定によってアクセス管理を行うことができます。

それではここから、AI検索エンジンが現代のSEOにどう関わってくるのかについて、さまざまな角度から見ていきましょう。

Google:AI Overview

AI Overviewは、Google検索に大きな変化をもたらしました。

GoogleのGemini AIモデルを活用して生成されるこのAI回答は、複数の情報源からデータを取得し、迅速かつ包括的な回答を提供するよう設計されています。

SEOの専門家にとって、これはチャンスであると同時に、新たな課題も意味します。

AI OverviewはGoogleの検索インデックスをもとに表示内容を決定しますが、同時にユーザーが検索結果をどう扱うかという行動そのものにも変化を与えています。

AI Overviewの仕組み

GoogleのGemini 2.0 AIモデルは、特定の検索クエリに対する概要を即座に生成するためにAI Overviewを支えています。
このAIが生成した回答は、Googleの検索結果ページの最上部、しばしば従来のオーガニック検索結果よりも前に表示されます。

市場シェアと導入状況

Googleは依然として検索市場を圧倒しており、米国内のシェアは約87.28%を占めています。
1日あたり数十億件にのぼる検索の中で、AI Overviewはオーガニック検索のトラフィックやユーザー行動に大きな影響を及ぼし始めています。

SEOにとっての意味

Googleでの上位表示は今も変わらず重要です。というのも、AI Overviewは基本的に検索結果から情報を取得しているからです。

Rich Sanger氏とAuthoritasの調査によると、AI Overviewに引用される情報の46%は、オーガニック検索結果の上位10件からのものでした。

私自身のSEO代理店での経験では、AI Overviewに取り上げられるには検索順位で上位20位以内に入っている必要があるという印象があります。ただし例外もあり、AI Overviewで引用されているサイトの中には、そもそもランキング上には現れないようなものも存在します。

AI Overviewに取り上げられると、引用元へのクリックが増える傾向があり、特に取引意図のあるクエリではその傾向が顕著です。こちら(Adi Srikanth氏のAIOがWebトラフィックに与える影響を探る)の調査では、トランザクショナルクエリ(何かをしたいという取引型のクエリ)においてAI Overviewに引用されたページのクリック数は、引用されなかったページの約3.2倍に達していました。情報検索クエリの場合でも、約1.5倍の差が見られました。

一方で、コンテンツがGoogleで上位表示されていなければ、AI Overviewに表示される可能性は極めて低いため、従来以上に堅実なSEO対策が求められます。成功のための具体的な方法については諸説ありますが、私としては、テクニカルSEO、ページ内最適化、そして優れたコンテンツ制作をバランスよく組み合わせた堅実なSEO施策を、ブレずに継続することを強く推奨します。

なお、ウェブサイト管理者は、自分のサイトの情報が AI 生成回答に利用されるかどうかを制御できます。
たとえば「Google-Extended」をrobots.txtでブロックするように記述できますが、これを行うことでGoogleがGeminiなどのAIモデルがあなたのサイトを学習や回答生成に使うことを禁止できます。この設定をしてもGoogleの検索ランキングには影響しませんが、Geminiが生成するAI回答であなたのコンテンツが使われることはなくなります。

注意点:AI Overviewへの掲載状況は、従来のオーガニック検索よりも変動しやすい傾向があるという調査結果も出ています。

まとめ:AI Overviewは、従来の検索結果を完全に置き換えるものではありませんが、ユーザーが検索結果をどのように利用するかに大きな変化をもたらしています。
現時点では、SEOの基本方針は変わりません。Google検索に最適化されたコンテンツは、AI Overviewにも取り上げられやすくなるという点を押さえておくと良いでしょう。

Google:AIモード(AI Mode)

2025年3月、Googleは、よりAIを活用した検索体験を提供するための新たなオプション機能として「AIモード(AI Mode)」を発表しました。

このAIモードは、標準のGoogle検索における「AI Overview」とは異なり、検索画面全体をAIが生成した応答中心のインターフェースに切り替えるというものです。

つまり、オーガニック検索結果の横にAIの回答が表示される従来型とは異なり、ユーザーはAIによる説明を中心とした検索体験へと移行できるのです。

画像クレジット: The Keyword blog、Google

AIモードの仕組み

AIモードは、より詳細かつ会話的で、視覚的にも強化された回答を提供する、Google検索における新たなオプション機能です。Bingの「Copilotトグル」に似た構造で、従来の検索結果に代わって、AIが生成した応答を中心に据えた検索体験へと切り替えることができます。

GoogleはこのAIモードについて、「高度な生成AIモデルと、Googleが誇る情報システムを統合したものであり、検索体験の中に直接組み込まれています。高品質なウェブコンテンツへのアクセスに加えて、ナレッジグラフや実世界のファクト、数十億点におよぶ商品データなど、リアルタイムな情報源も活用しています。さらに『クエリ・ファンアウト』(query fan-out)技術を使い、関連する複数のサブトピックとデータソースにわたって同時に検索を実行し、それらの結果を統合してわかりやすく整理された回答を提示します」と説明しています(上記の発表リンク)。

Search Engine Land によれば、Googleは「AIモードもAI Overview同様、ユーザーが関連情報やアクションにつながるコンテンツを見つけやすくするため、応答の中に関連リンクを表示します。どのタイミングでリンクを挿入するかについては、AIモデルが学習を重ねています」と述べています。たとえば、ユーザーがチケット予約などの具体的なアクションを起こす可能性がある場合には、リンクが積極的に表示されます。また、ハウツー系の検索では、画像や動画など視覚的な情報を優先的に提示する判断も行います。

SEOへの影響とは

GoogleはAIモードについて、「我々の根本にある品質・ランキングシステムに基づいており、モデルの推論能力を活用した新たなアプローチにより、回答の正確性を高めています。可能な限りAIによる回答を提示したいと考えていますが、有用性や品質に十分な自信が持てない場合は、従来のウェブ検索結果を提示します」と説明しています。

現在、AIモードはテスト段階にあり、AI Overviewのようにクリック率(CTR)にどのような影響を与えるかについては、まだ明らかになっていません。

まとめ:検索の進化とSEOの基本
AIモードの登場は、検索体験がAI主導型へと本格的に移行しつつある兆候です。とはいえ、少なくとも現時点では、従来の検索における上位表示が依然として非常に重要であると考えられます。

さらに深掘り│GoogleのAIモード:SEO担当者・マーケターが知っておくべき要点

Google: Gemini

Google’s AI Mode: Here’s what matters for SEOs and marketers

Geminiは、ChatGPTや他の生成AIツールに対するGoogleの競合プロダクトです。独立したチャットボットとして提供されるだけでなく、Google検索におけるAIオーバービューの基盤としても機能しています。

Googleは今後数か月をかけて、スマートフォンからスマートホームガジェットに至るまで、あらゆるアシスタント対応デバイスにGeminiを展開し、デフォルトのAIアシスタントとして統一していく方針です。

この動きは、検索とユーザーインタラクションの中核にAIを据えるという、Googleの長期的な戦略を象徴するものです。

Geminiの仕組み

Geminiは、Google検索結果と、AP通信などのサードパーティのコンテンツパートナーから情報を取得し、それらを統合して回答を生成します。検索ランキング情報もそのまま応答に組み込まれるため、ユーザーは単なる生成回答以上に、検索精度の高い情報に触れられる仕組みです。

また、Geminiはユーザーの検索履歴、YouTubeの視聴履歴、アプリの使用状況などをもとに応答をパーソナライズすることが可能です。これにより、従来の「クエリに対して一律の回答を返す検索体験」から、「ユーザー個別の関心や行動履歴に最適化された応答」へと進化しています。

市場シェアと利用実績

Statistaの調査によると、Geminiは2025年1月時点で約900万件のダウンロードを記録し、世界で3番目に多くダウンロードされたAIアプリとなっています。
またSimilarwebのデータによれば、主なユーザー層は25〜34歳が約30%と最多で、続いて18〜24歳が約21%となっており、Z世代〜ミレニアル世代が中心であることが分かります。

画像クレジット: gemini.google.com 分析、Similarweb

SEOにとってこれが意味すること

Google検索でのランキングは今なお重要ですが、それだけではありません。GeminiはGoogleの検索インデックスだけでなく、コンテンツパートナーシップからのデータも活用しています。

そのため、自然言語のクエリに最適化されたコンテンツ、コンテキストを補完するための構造化データ、「教えること」を主眼とした教育的コンテンツの重要性が高まっています。

また、Geminiはユーザーの履歴に基づいて回答をパーソナライズするため、同じ質問であってもユーザーごとに表示内容が異なる可能性があります。たとえば、あるユーザーが特定ブランドのYouTubeチャンネルを頻繁に視聴している場合、Geminiはそのブランドのコンテンツを引用したり、関連づけたりする傾向が強くなります。

さらに、Geminiは常に直接リンクを提示するわけではないため、クリック率(CTR)は不確実です。ある調査によると、参照トラフィックの量において、GeminiはChatGPTやPerplexityに次いで第3位とされています。

まとめ:
Geminiでの可視性を高めるには、Google検索で上位を獲得できる質の高いサイトを運営するという基本は変わりません。ただし、GeminiのAIによるパーソナライゼーションと会話型検索の進化が加わることで、対策にはより高い複雑性が求められます。

マイクロソフト:Bing Copilot

Bingは、検索結果にAIを直接統合した最初の大手検索エンジンであり、2023年2月に「Bing Copilot」(旧称:Bing Chat)をリリースしました。Microsoftは2019年からOpenAIに多額の投資を行っており、その成果として、AI検索においてGoogleよりも先行した形になります。この展開は、今後の検索エンジン市場における勢力図に影響を与える可能性があります。

Bing Copilotの仕組み

MicrosoftのPrometheusモデル(OpenAIのGPT-4を基に構築)を使用しています。

リアルタイムのBing検索結果と外部データソースに基づいてAIサマリーを生成します。

AIによる回答は、従来のウェブページ一覧よりも上位に表示されることがあります。

「ディープサーチ」をクリックすると、より詳細なAI回答が得られ、これにはウェブ上の情報源へのリンクも含まれます。

また、BingにはCopilotトグルがあり、よりインタラクティブで高度なAI検索モードを選択できます。

市場シェアと採用状況

Bingは米国の検索市場の約 7.48% を占めています。
Googleと比べると規模は小さいものの、AIを活用した検索を早期に導入したことや、他の AI プラットフォームがBingの結果に依存していることから、Bingの市場シェアは今後さらに拡大する可能性があります。

SEOにとってこれが意味すること

GoogleのAI Overviewとは異なり、Bing Copilotは必ずしも検索上位のコンテンツだけを参照するわけではありません。とはいえ、上位表示されているページの方が引用されやすい傾向は明確に存在します。

Rich Sanger氏の調査によると、Bing Copilotに引用されるURLの70%以上が、Bing検索の上位20位以内に入っているとされます。

AI検索機能の普及に伴い、Bing経由でのトラフィック獲得チャンスは確実に拡大しています。

まとめ:
これまではGoogle対策がSEOの中心でしたが、BingのAI化と他社ツールへの影響力の高さを踏まえると、Bingはもはや「ついでの対策対象」ではなくなりつつあります。今後は、Bingのアルゴリズム特性を理解し、Googleとは異なる視点でSEO戦略を設計することが求められるでしょう。

OpenAI:ChatGPT検索

ChatGPT検索は、AIを活用したリアルタイムWeb検索機能をChatGPTに統合することで、従来の検索体験を強化しようとするOpenAIの取り組みです。

この機能は当初、「SearchGPT」プロトタイプとして2024年半ばにリリースされ、後にChatGPTに統合されました。これにより、ユーザーは事前学習された知識だけでなく、ライブ検索機能を利用できるようになりました。

2024年10月までに、OpenAIはSearchGPTをChatGPTに完全に統合し、リアルタイムのWeb検索を実行できるようにしました。これにより、ユーザーのクエリに対して、より新しい情報源に基づいた回答を提供できるようになったのです。

この統合により、ChatGPT検索は従来の検索エンジンの直接的な競合としての位置づけを強め、GoogleやBingといったプラットフォームに代わる、AIを活用した新たな検索手段をユーザーに提供できるようになりました。

しかし問題は、依然として既存の検索エンジンの結果に依存しているという点です。

ChatGPT検索の仕組み

ChatGPT検索には、GPT-4oの微調整バージョンが搭載されています。このモデルは、合成データ生成技術を用いて事後学習が行われており、その一環としてOpenAIの「o1-previewモデル」からの出力の抽出が含まれています。つまり、すべての応答がWebから直接取得されているわけではなく、一部の回答はAIによって合成されたものとなっています。

SearchGPTは、Bingなどのサードパーティ検索プロバイダーだけでなく、独自の情報を提供するコンテンツパートナーシップからもデータを取得しています。これにより、複数の情報源を活用した回答が生成される仕組みとなっています。

市場シェアと導入状況

ChatGPTは、現在最も広く利用されているテキスト生成AIツールです。Statistaのデータによると、2023年には、ChatGPTが世界の生成AIユーザーシェアの約20%を占めていました。

TechCrunchの報道によると、ChatGPTの週間アクティブユーザー数はわずか6か月で2倍に増加し、現在では4億人以上のユーザーがその検索機能を利用しているとされています。

画像クレジット:「2023年の世界における主要な生成型人工知能(AI)テキストツール市場ユーザーシェア」Statista.com

SEOにとってこれが何を意味するか

SearchGPTは、Bingのインデックスに依存しているため、WebコンテンツがBingにおいてインデックスされ、上位表示されるように最適化することが今後のSEO戦略において重要です。Bingにインデックスされていないコンテンツは、SearchGPTの応答として取り上げられる可能性が低くなります。

SEO業界では、SearchGPTがBing内で信頼性の高い上位ランクの情報源を優先する一方で、Bingの上位ランク外の情報源も取り入れているといった見解が広まっています。

SearchGPTによる回答には、クリック可能な情報ソースが含まれることもあり、これがWebサイトへのトラフィックを生み出す可能性があります。実際に、中小企業391社のウェブサイトを対象に行われたトラフィック分析によると、ChatGPTによる参照トラフィックは2024年9月から2025年2月にかけて123%増加しており、この期間中、AI駆動型検索エンジンの中で最も多くの参照トラフィックを生み出したプラットフォームとなりました。さらに、ChatGPTは教育系やテクノロジー系のWebサイトに対するトラフィック誘導の増加にも貢献しており、2024年11月までには、3万を超えるユニークドメインが参照トラフィックを受け取ると見込まれています。

ChatGPTの会話形式による情報提供は、ユーザーの検索行動や情報の受け取り方を大きく変えつつあります。今後も「役立つコンテンツ」を重視することで、Webサイトの競争力は確実に高まるでしょう。

一方で、SEO初期と同様に、ChatGPTを利用した検索も操作に対して脆弱であることがテストによって明らかになっています。そのため、誤解を招くような結果や、偏った情報が表示されるリスクもある点には注意が必要です。

まとめ:ChatGPTは、検索エンジンの未来にとって最大の脅威となり得る存在です。ただし、SearchGPTがBingに依存している以上、AIが生成する検索結果でも上位に表示される可能性を高めるためには、Bingでの最適化を優先することが不可欠です。

Perplexity AI

Perplexity AIは、大規模言語モデルとリアルタイムのWebデータを組み合わせ、出典付きで簡潔な AI 回答を提供する独立系のAI検索エンジンです。

その最大の特長は、「引用(ソース)」にあります。

Perplexityの創設者Aravind Srinivas氏は、Lex Fridman氏とのインタビューで次のように述べています。

初めて論文を書いた際、共著の先輩から「論文内の主張はすべて引用で裏付けるべきだ」と教わりました。それは、他の査読済み論文か、自分の実験データに基づくものでなければならないという意味です。引用がない主張は、単なる意見に過ぎないのです。

「これは単純な原則ですが、“正しいことしか言えなくなる”という点で非常に本質的です。」

私たちはこの原則を踏まえ、「チャットボットを正確にする最善の方法は、インターネット上で確認でき、かつ複数の情報源から裏付けがとれる情報しか言えないようにすることだ」と考えました。

2022年後半にサービスを開始し、現在ではGoogleなどの従来型検索エンジンの代替、あるいは競合として注目を集めています。

Perplexity AIの仕組み

Perplexityは、独自の検索インフラを構築しており、Web全体をクロールしてリアルタイムに情報をインデックス化。ユーザーの検索クエリに対して、AIが即時に回答を生成します。

Googleのように全Webページを網羅するのではなく、ユーザー行動に基づき「検索頻度が高く、信頼性の高い」情報を優先的にインデックス化。これにより効率性と正確性を両立しています。

全ての回答にはソースへのリンクが付いており、出典を明記しない従来のチャットボットとは一線を画しています。

市場シェアと普及状況

2024年初頭時点で、Perplexityは月間アクティブユーザー数が1,500万人に達したと報告されています。

市場全体ではまだ規模は小さいものの、AI検索市場の約6%を占めるまでに成長しています。

また、ジェフ・ベゾスやNVIDIAなどの著名な投資家の支援を受け、評価額はわずか1年足らずで5億ドルから90億ドルへと急騰しました。

SEOにとってこれが何を意味するか

Perplexityが重視しているのは、「Web上の信頼できる情報源」です。つまり、自社サイトが権威性のあるWebメディアとして認識されることが、可視性を確保するうえで不可欠です。

ある調査では、Perplexityが参照している情報の約60%が、Google検索の上位10件と一致していることが明らかになりました。

また、Perplexityには好んで参照する「信頼ソース群」が存在する可能性も示唆されています。

GoogleやBingと異なり、Perplexity独自のランキングロジックがあるため、最適化のアプローチも異なります。

明確な見出し、セクションの整理、FAQの挿入など、構造化されたコンテンツが有利に働くとされています。

ただし、参照元リンクは設置されているものの、そこからのトラフィックは現時点では限定的です。

まとめ:Perplexityは、AI検索の勢いを背景に、主要検索エンジンからユーザーを奪うポテンシャルを持った有力な存在です。一方で、Perplexityも他のAI検索エンジン同様に「Web上の既存情報に依存」しており、AI向けに最適化された高品質なコンテンツを持つことが、引き続きSEOにおける競争優位となります。

AI検索とSEOの未来展望

AIの台頭により、検索エンジンの利用総量が大きく減少するという予測もあります。たとえば、Gartnerは「2026年までに従来の検索の利用は25%減少する」としています。しかしそれでも、「信頼性が高く最適化されたコンテンツを持つWebサイト」の重要性は揺るぎません。

どのAI検索エンジンが覇権を握るかは、まだ見えません。GoogleのAI OverviewsPerplexityを巡る法的訴訟が進行中であり、今後の司法判断がプラットフォームの運用に大きく影響する可能性があります。

では、今すぐにそのAI検索を最適化すべきでしょうか?

まずは、自社の業界やターゲットに合ったAI検索エンジンの利用状況を調査し、参照トラフィックが見込めるかを検討しましょう。

すでにSEO施策を行っている場合は、PerplexityなどAI検索向けに追加の最適化を行う価値があるか、トラフィックを継続的に観測して判断するのがよいでしょう。

当然ながら、Googleは依然として主要な検索エンジンであり、最適化の優先度は高いままです。

ただし、状況は一様ではありません。GoogleのAI Overviewによりクリック数が増加したと報告するサイトもあれば、大幅なCTR低下を経験しているケースもあります。

実際、ある調査では「GoogleのAI Overviewが表示されたクエリでのCTRは、前年の1.41%から0.64%に低下」したというデータもあります。

画像クレジット: Seer Interactive

また、ChatGPTやPerplexityのようなAI検索では、従来型検索に比べてニュースサイトやブログへの参照トラフィックが96%も少ないという報告もあります。

Emarketerのデータも、これを裏付ける結果を示しています。

画像クレジット: emarketer

いくつかのデータでは、AI検索エンジンからの参照トラフィックに一定の「序列」が存在することが示唆されています。

たとえば、ChatGPTは総合的な参照トラフィックで他を上回る一方、業界や分野によってはその傾向が異なります。

画像クレジット:「中小企業のウェブサイトではChatGPTやその他のAIエンジンからのトラフィックが増加している」ウィリアム・カマー、Search Engine Land
画像クレジット:「中小企業のウェブサイトではChatGPTやその他のAIエンジンからのトラフィックが増加している」ウィリアム・カマー、Search Engine Land

こうした変化が続く中でも、SEOの基本は変わらないと安心してよいでしょう。

確かにアプローチや手法は変わるかもしれませんが、土台は同じです。ユーザーを第一に考え、ターゲット層が利用するプラットフォームに最適化された優れたウェブサイトを作り、検索での可視性を保つために変化に柔軟に対応し続けることが重要です。

SEO Japan編集部より:Google一極のSEOではAI時代を捉え切れません。鍵は「構造化+良質コンテンツ」。まず Google 評価を固めつつ、Bing や Perplexity でも拾われる情報設計に再構築しましょう。検索変化の背景はこちらの記事で、AI Modeの対応は当社遠藤のブログ記事低評価コンテンツ基準の解説もぜひご参照ください。

Google AI OverviewやChatGPT検索など生成AIのよくある質問

Google AI Overviewや生成AIの回答は何のデータを基に抽出されていますか?

Google AI OverviewやChatGPT検索などの生成AIは、検索インデックスやWeb上の信頼できる情報を基に回答を生成します。特にGoogle AI Overviewは検索上位20位以内のページを中心に、Perplexityは独自クローラーで収集した信頼ソースを優先しているとされています。

AI検索に向け企業が取り組むべきことはなんですか?

まずはGoogleやBingでの上位表示を前提としたSEOを継続しつつ、構造化データやFAQ設置などAIに引用されやすいコンテンツ作成が重要です。Perplexityなど独自ロジックのAIもあるため、信頼性・明確性のある情報設計が求められます。

seojapan

生成AIで変わる検索の仕組みと、そこで勝ち抜く方法

11ヶ月 1 週間 ago

この記事は、2025年 5月 27日に Search Engine Land で公開された Duane Forrester氏「Inside the AI-powered retrieval stack – and how to win in it」を翻訳したものです。

従来のリンク順位中心型検索は終焉を迎えつつあり、新しいAIベースの検索技術(検索スタック)が主役となる時代が始まった。

本稿では「ベクトルデータベース」「埋め込み表現」、そして「逆順位融合(Reciprocal Rank Fusion)※」が、検索スタックをどのように変えたのかをご紹介します。
※逆順位融合(Reciprocal Rank Fusion):複数の検索結果ランキングを統合する手法。RRF。

人々が「サングラス」についてどのように検索するか、想像してみてください。

従来の検索モデルでは、ユーザーは「最高のスマートサングラス」と検索し、SERP(検索結果ページ)に表示されたリンクを順に確認していきます。

一方、新しい検索モデルでは、ユーザーは「Ray-Ban Metaグラス※って何?」のように質問を投げかけ、SERPに表示されたリンクを一切見ることなく、仕様、使用例、レビューなどを含んだ総合的な回答を得られます。
※Ray-Ban Metaグラス:メガネ型のデバイス。アイウェアブランドのRay-BanとFacebook、Instagramなどのサービスを運営するMeta社が共同開発したスマートグラス。

この変化は、新時代の到来を告げています。コンテンツは、もはや単に検索結果で上位に表示される必要はありません。
「検索されること」「理解されること」そして「回答として組み込まれること」が求められるのです。

かつてのSEO戦略は、ページを作成して、GoogleやBingがクロールしてくれるのを待ち、キーワードが検索クエリに一致することを祈りつつ、広告が表示されないよう願うというものでした。しかし、このモデルは静かに崩れつつあります。

生成AIによる検索システムでは、ページが検索結果にリストされる必要すらありません。
重要なのは、そのページが構造化され、AIにとって解釈可能であり、必要なときに情報として利用できる状態になっていることです。

これが新しい検索スタックです。リンク、ページ、ランキングといった従来の要素ではなく、ベクトル、エンベディング、ランキング融合、そしてランキングではなく“推論”によって機能するLLM(大規模言語モデル)を基盤としています。

もはやページ単体を最適化するだけでは不十分です。
どのようにコンテンツを分割し、意味ベースでスコアリングし、再び組み立て直すか──そのプロセス全体の最適化が求められます。

そして、この新しいパイプラインの仕組みを理解すれば、従来のSEO施策がどれほど古風に見えるかが分かるはずです。(ここで紹介するのは簡略化したパイプラインです。)

新しい検索スタックの仕組み

すべての最新の検索拡張AIシステムの内部には、ユーザーからは見えない“検索システムの技術スタック”が存在します。
これは従来の検索システムとは根本的に異なります。

エンベディング(Embeddings)

文、段落、またはドキュメントは、その「意味」を数値化した高次元のベクトルに変換されます。

これにより、AIは単なるキーワードの一致だけでなく、「意味の近さ」によってアイデアを比較できるようになります。そのため、正確な語句を使っていなくても、関連性の高いコンテンツを見つけ出せるのです。

ベクトルデータベース(vector DBs)

これらのベクトル(埋め込みデータ)は、ベクトルデータベースに高速で保存・検索されます。
代表的なものとしては、Pinecone、Weaviate、Qdrant、FAISSなどがあります。

ユーザーが質問を入力すると、そのクエリもベクトルに変換され、データベースから最も近い意味のチャンク(断片)が数ミリ秒以内に返されます。

BM25

昔ながらのアルゴリズムですが、今なお極めて実用的に使われている検索アルゴリズムです。キーワードの頻度と希少性に基づいて、コンテンツの関連度を評価します。

特に、ユーザーがニッチな用語を使用したり、正確なフレーズ一致を求める場面において、高い精度を発揮します。

以下の図は、BM25とベクトル類似度を使ったランキング動作を比較した概念図です。
2つのシステムがどのように「関連性」を判断するかを、架空のデータに基づいて示しています。

  • BM25は、キーワードの正確な一致を重視してドキュメントをランク付けします。
  • 一方、ベクトルベースの検索では、意味的な類似性に基づいてコンテンツを提示します。

それぞれのドキュメントは、意味や一致度に応じて順序付けられていることにご注目ください。

RRF(逆順位融合)

RRFは、BM25やベクトル類似度といった複数のランキング手法を、ひとつのランキングリストに統合することを可能にします。この手法により、キーワードマッチとセマンティックマッチのバランスがとれ、最終的な検索結果が、いずれか一方の検索方式に偏ることがありません。


RRFでは、BM25とベクトル類似度によるランキングシグナルを、「逆順位スコア式(Reciprocal Rank Score:RPF式)」を用いて統合します。

以下のグラフでは、それぞれ異なる検索システムにおいて文書がどのような順位にあるかが、最終的なRRFスコアにどのように寄与するかを示しています。

たとえどちらの手法でも1位でなくとも、複数の検索アプローチで一貫して高く評価されている文書は、RRFにおいても高く評価されます。
このようなモデリング手法により、文書の順位付けはより洗練され、精度の高い並び順が実現されます。

LLM(大規模言語モデル)

RRFで上位にランクされた結果に対し、LLMが要約、言い換え、あるいは原文を引用する形で応答を生成します。

これが「推論レイヤー(reasoning layer)」です。ここでは、コンテンツの出所よりも、「質問に正しく答えられるか」が重視されます。

無論、インデックスは今も存在しています。ただし、見た目は変わりました。
もはや、クローラーでページが巡回されて、インデックスされ、ランキングされるのを待つ必要はありません。

現在では、コンテンツはベクトルデータベースにエンコード(埋め込み)され、メタデータではなく意味ベースで検索されるようになっています。

・社内のデータであれば、こうした処理は即時に行われます。

・公開Webコンテンツの場合は、GPTBotやGoogle-Extendedなどのクローラーが今もページを取得していますが、その目的は従来のSERP(検索結果)を作ることではなく、コンテンツの意味を把握し、インデックスするためです。

このスタックが優れている理由(適切なユースケースであれば)

この新しいモデルは、従来の検索エンジンを置き換えるものではありません。
ただし、従来の検索では対応が難しかったタスクに対しては、飛躍的な進化をもたらします。

たとえば、

  • 社内ドキュメントの検索 → 最適です。
  • 法廷記録の要約 → 問題ありません。
  • 10個のPDFから関連する抜粋を探したい → ゲームオーバー(=従来型では難しいが、これなら可能)

この製品スタックが優れている理由は以下の通りです。

  • レイテンシ(応答速度):ベクトルデータベースは数ミリ秒でデータを返します。クロールの待ち時間やタイムラグはありません。
  • 精度:埋め込み検索は、キーワードだけでなく「意味」にもマッチします。
  • コントロール:検索対象となるコーパス(情報集合体)を自社で定義できます。無関係なWebページやSEOスパムが混入することはありません。
  • ブランドセーフティ:広告が表示されず、競合他社が検索結果に紛れ込むこともありません。

このため、エンタープライズ検索、カスタマーサポート、社内ナレッジシステムといった分野では、すでにこの新しいスタックが採用されています。そして現在、一般的な検索領域でも、この方向へと大規模にシフトが進みつつあります。

ナレッジグラフがスタックを強化する方法

ベクトル検索は強力ですが、あいまいな面もあります。意味的な近さは捉えられるものの、「誰が、何を、いつ」といった人間の世界で当然とされる関係性までは完全には表現できません。

そこで役立つのが、ナレッジグラフ(Knowledge Graph)です。

ナレッジグラフは、システムが曖昧さを解消し、推論できるようにするために、エンティティ(人・製品・ブランドなど)の関係性を定義します。たとえば、「Apple」と言ったとき、それは企業のことなのか、それとも果物のことなのか?「それ」とは物体のことか、それとも顧客のことか?

以下のように、それぞれが補完し合います。

  • ベクトルデータベース:関連コンテンツを見つける
  • ナレッジグラフ:つながりを明確にする
  • LLM(大規模言語モデル):すべてを自然言語で説明する

つまり、ナレッジグラフと新しい検索スタックは二者択一ではありません。優れた生成AIシステムは、これらを組み合わせて活用します。

【戦術ガイド】生成AIを活用した検索最適化の実践

まず、私たちが馴染みのある「従来の検索において上位表示を狙う方法」をざっとおさらいしましょう。

重要なのは、ここで示すのは網羅的なリストではないという点です。これは、これから紹介する生成AI時代の戦術と比較するための背景です。従来の検索でさえ非常に複雑です(私は以前Bingの検索エンジンに関わっていたので、それはよく分かっています)。それでも、以下の内容を見れば、生成AI向けの対策がむしろシンプルに思えるかもしれません。

従来型検索での上位表示には、以下のような要素が重要でした。

  • クロール可能なページ構造
  • キーワードを調整したコンテンツ
  • 最適化されたタイトルタグ
  • 高速な表示速度
  • 信頼できるサイトからの被リンク
  • 構造化データ
  • 堅牢な内部リンク

さらに、以下も加えると、より成果が期待できます。

  • EEAT(経験・専門性・権威性・信頼性)
  • モバイル対応
  • ユーザーエンゲージメントのシグナル

これは、技術的な土台、コンテンツの関連性、そして評判を組み合わせたものであり、他サイトがあなたをどう扱うかによって評価されます。

生成AI時代、どうやって「引用コンテンツに選ばれる」か?

ChatGPT、Gemini、CoPilot、Claude、Perplexity などの生成AIに、自社のコンテンツを参照してもらうにはどうすればよいのか?以下は、すべてのコンテンツ提供者が取るべき具体的な戦術です。

1. チャンク化と意味検索を意識した構造づくり
コンテンツを取得しやすいブロックに分割しましょう。
<h2> や <section> などのセマンティックHTMLを使ってセクションを明確に分け、アイデアを整理します。FAQ形式やモジュール型の構造も有効です。
これが、LLMが最初に読む「レイアウト層」になります。

2. 巧妙さより明快さを優先する
賞賛される文章よりも、理解される文章を目指しましょう。
専門用語・比喩・曖昧な導入文は避け、ユーザーの質問に合わせた、具体的でわかりやすい回答を重視します。
これにより、意味的なマッチング精度が向上します。

3. AIにクロールされる環境を整える
GPTBot、Google-Extended、CCBot などのクローラーがサイトにアクセスできなければ、存在しないも同然です。
JavaScriptでレンダリングされるコンテンツは避け、重要な情報は生のHTMLで提供しましょう。
また、schema.orgのタグ(例:FAQPage、Article、HowTo)を使って、クローラーにコンテンツの種類を明示します。

4. 信頼と権威のシグナルを整える
LLMは、信頼できる情報源を好みます。
署名、発行日、連絡先、外部引用、著者プロフィールなどの要素を明示することで、生成AIの回答に表示される可能性が高まります。

5. ナレッジグラフのように社内コンテンツを構造化する
関連するページを相互にリンクさせ、サイト全体の構造的なつながりを定義します。
ハブ&スポーク構造や用語集、コンテキストリンクなどを使って、意味的な一貫性を高めましょう。

6. トピックをモジュール的かつ多面的に掘り下げる
単に主要な質問に答えるのではなく、あらゆる角度から情報を提供します。
「何」「なぜ」「どうやって」「比較」「いつ」といった形式で分けたり、TL;DR、要約、チェックリスト、表などを追加するのが効果的です。

7. 表現の確信度を高める
LLMは、記述の確信度も評価します。
「〜かもしれない」「〜と思われる」といった曖昧な表現は避け、明確で断定的な言葉を使いましょう。
自信のある記述は、生成AIに選ばれやすくなります。

8. 意味の重複で表現の幅を広げる
同じことを別の言い回しで繰り返しましょう。
多様なフレーズを使うことで、さまざまな検索クエリに対応しやすくなり、ベクトル検索での可視性が高まります。

9. 埋め込み可能な段落を作成する
ひとつの段落には、ひとつの明確なアイデアだけを含めましょう。
複数の話題を混ぜず、シンプルな文構造を用いることで、コンテンツの埋め込み・取得・統合が容易になります。

10. 潜在的なエンティティに文脈を与える
明白に思える情報でも、はっきりと言語化しましょう。
たとえば「最新モデル」ではなく、「OpenAIのGPT-4モデル」と明記します。
エンティティの明示により、ナレッジグラフや曖昧性解消の精度が高まります。

11. 主張の近くにコンテキストを配置する
主なポイントから離れすぎずに、それを裏付ける情報(例・統計・比喩など)を配置します。
これにより、チャンク単位での一貫性が高まり、LLMが内容を確信を持って処理できます。

12. 構造化された抜粋を生成AI向けに提供する
AIクローラーがコピーしやすい、クリアな情報を用意しましょう。
箇条書き、回答の要約、「要点」セクションなどを活用し、情報の価値を際立たせます。
これはPerplexityやYou.comなど、スニペット形式の生成AIに有効です。

13. ベクトル空間に関連コンテンツを密集させる
用語集、定義、比較記事、事例などの周辺コンテンツを公開し、互いにリンクさせましょう。
トピックを密にクラスター化することで、ベクトル検索でのリコール率が上がり、主要コンテンツの可視性も高まります。

【ボーナス】AIに取り上げられているか確認する方法

成果を確認したいときは、コンテンツで取り上げた質問を、PerplexityやChatGPTのブラウジングモードで聞いてみましょう。
もし表示されないなら、構成と表現を見直し、明確さを高めたうえで再挑戦してください。

最後に:あなたのコンテンツは今やインフラである

あなたのウェブサイトは、もはや目的地ではありません。
それは、生成AIが回答をつくるための「原材料」なのです。

今後は、引用・参照・要約され、誰かが読んだり聞いたりする回答の一部として使われることが期待されます。
この傾向は、MetaのRay-Banスマートグラスのような新しい消費チャネルが増えるほど、ますます強くなります。

ページ自体の存在は依然として重要ですが、それはあくまで「足場」にすぎません。
勝ちたいなら、ランキングだけにこだわるのをやめ、情報源としての価値を高めましょう。もはや「訪問されるか」ではなく、「引用されるか」がカギです。

※本記事はもともと、Substack『Duane Forrester Decodes』にて “Search Without a Webpage(ウェブページなしの検索)” というタイトルで公開されたもので、許可を得て再掲載されています。

SEO Japan編集部より:先日話題になったiPullRank社のMike King氏の記事と同様に、「クリック外の可視性」をKPIにする方向を提唱しており、いずれも「機械が読む単位」で情報設計する必要を説いています。
一方で、当記事では短期タスクを中心に「今すぐできるTodoリスト」を示しており、ここで紹介されていることに取り組みつつ(llms.txtは懐疑的ですが)、今後の大きな方針としては、次のゲーム盤そのものを解説しているiPullrank記事を基に、組織とデータ基盤の再設計を検討すると良いかもしれません。AI Modeの対応について、わかりやすくかみ砕いた当社遠藤のブログ記事も併せてご確認ください。

seojapan

LLM検索結果からブランドドメインへのリンクはわずか9% LLMのリンクがブランドにとってなぜ重要なのか

11ヶ月 3 週間 ago

この記事は、2025年 5月 6日に Search Engine Land で公開された Jason Tabeling氏の「What LLMs link to and why it matters for your brand」を翻訳したものです。

LLM(大規模言語モデル)の検索結果に含まれるリンクのうち、ブランドの公式ドメインに向けられているものは、わずか9%に過ぎません。本記事では、こうしたデータを分析し、それがWeb戦略にどのような影響を及ぼすのか、また企業としてどう対応すべきかを考察します。

LLMは、複雑な問いへの回答やクリエイティブなコンテンツの生成といった用途に対応しており、「ゼロクリック」な結果──すなわち、ユーザーがさらなる調査をせずに済む、簡潔で直接的な回答を提供するよう設計されています。

この変化は、ある重要な疑問を私たちに突きつけます。ユーザーが必要な情報を得るために、もはやWebサイトを訪れる必要がなくなったとしたら、ウェブトラフィックはどうなるのでしょうか?

ウェブサイトの将来的な役割についての議論はまた別の機会に譲るとして、今、検討すべきより差し迫った戦略的課題があります。それが「リンク」です。

具体的には、LLMはどのような種類のリンクを提示しているのか。そしてブランドは、そのリンクからどのようにトラフィックを生み出すことができるのか。

LLM出力におけるリンクの重要な役割

LLMの出力に含まれるリンクは、情報の出典としての引用の役割を果たし、提示された情報の正当性を確認したり、ユーザーが元のソースにアクセスする手段となったりします。

特にセンシティブで複雑なトピックにおいては、このような仕組みが正確性と信頼性を保つために非常に重要です。

ブランドにとって、この引用リンクこそが、LLM経由でのインバウンドトラフィックを獲得するための、ほぼ唯一の実行可能なルートです。

良いニュース:LLM経由の紹介トラフィックは約400%増加しています。(英語記事:外部リンク)

つまり、LLMが生み出すトラフィックの規模が大きくなればなるほど、LLMがどのようなリンクを提供しているのかが、いっそう重要になってくるのです。

データが示すブランドリンクとサードパーティリンクの現実

私は数百に及ぶプロンプトを分析し、LLMが提示するリンクを次の3種類に分類しました:

  • ブランドの公式ドメインへのリンク
  • サードパーティのドメインへのリンク
  • ブランド名が記載されているが、リンク先はサードパーティのドメインであるもの

その結果、実際にブランドの公式ドメインへリンクしている割合は、全体のわずか9%にすぎないことが明らかになりました。

これは、ブランドにとって深刻な課題です。というのも、回答の中でブランド名が挙げられているにもかかわらず、自社サイトへは直接リンクされていないからです。

さらに詳しく:B2B SEOのためのLLMの最適化:概要(英語記事:外部リンク)

実例:小売業および金融サービス業界のケース

ここでは、小売業と金融サービス業界からの具体例をご紹介します。

小売業のケースでは、私はバンドン・デューンズ(アメリカ・オレゴン州にあるゴルフリゾート)での近々のゴルフ旅行に備えて、レインコートを探していました。

その検索結果はそこそこのものでしたが、Perplexityが提示したリンクのうち、パタゴニア公式サイトに繋がるものは1件のみで、残りはすべてサードパーティのサイトに誘導されました。

金融サービスと保険の質問でも、同様の傾向が見られました。

挙げられたブランドは、予想どおりの大手企業でしたが、リンク先はすべて、リード情報を集約するサードパーティのサイトでした。これらのサイトは通常、そのトラフィックを該当ブランドに再販売し、裁定取引的なビジネスモデル(情報を仲介し差益を得る)によって利益を得ています。

LLMがサードパーティの情報源を好む理由

LLMの視点から見ると、サードパーティのサイトへのリンクは理にかなった選択です。

それは、実世界における人々の情報収集行動を反映しているからです。たとえば、どのレインコートを購入するかを決める際に、パタゴニア自身に偏りのないレビューを期待する人はまずいないでしょう。

同じように、LLMも「中立的」に見えるサードパーティの情報源を優先する傾向があるようです。

この中立性こそが、より良いユーザー体験を提供することを目的とした選択と言えます。

とはいえ、こうしたサードパーティのサイトの多くは、リンクされるブランドから何らかのかたちで利益を得ており、トラフィックを収益化しているという現実があります。

さらに深掘り:AIを活用した検索結果(SERP)とLLMに向けて、2025年のコンテンツ戦略をどう最適化すべきか(英語記事:外部リンク)

ブランドがとるべき対応策:3ステップのフレームワーク

では、ブランドはこの状況にどう対処すべきなのでしょうか?現時点で有効と考えられるアクションは、以下の3つです。

ステップ1:結果を理解する

まずは、自社ブランドが各種LLMでどのように表示されているかを調査しましょう。表示されているリンクがどのようなものかを把握することが不可欠です。

戦略的な意思決定を行うには、現状を正確に理解することから始めなければなりません。

ステップ2:リンクを監査する

提示されているリンクはサードパーティのサイトですか?

それらのサイトは、強力なインバウンドリンクプロファイルを有しているでしょうか?あるいは、ユーザー生成コンテンツに依存しているのでしょうか?

こうした分析から得られる洞察が、次のステップへのアプローチを左右します。

ステップ3:仮説を立てる

LLMは常に進化しており、依存している入力データも不透明な部分が残っています。そのため、仮説を立ててテストを始めることが重要です。

観察されたパターンに基づいて、コントロールグループとテストグループを設定し、それに応じてコンテンツやリンク戦略を調整してください。

その後、影響を測定し、再度ステップ1に戻って改善を重ねていきます。

さらに詳しく:GA4でLLMからのトラフィックをセグメント化する方法

AI時代におけるリンクエクイティの再考

リンクは長年にわたりWebの基盤であり続けてきましたが、今やLLMのトレーニングや情報の提示方法においても、その役割は非常に重要なものとなっています。

これらのモデルが私たちの日常にますます深く統合されていくなかで、リンクの価値はさらに高まっています。

LLMの出力内でリンクがどのように機能しているのかを理解することによって、ブランドはこの変化し続ける環境に柔軟に対応し、ユーザーとの対話の中で信頼され、注目され、アクセスしやすい存在であり続けることができるのです。

SEO Japan編集部より:現時点では生成AIからの流入は1%以下のサイトが多いでしょう。ただし、生成AIをリファラとする流入数は、当社の解析ツールを見る限り、直近昨月比約120%前後で増加しています。現時点での割合で見れば大したことはありませんが、そこに顧客がいることは確かです。1件、2件の良質なCVが事業にインパクトを与える領域では、無視できない数といえます。

生成AIは、Google・bing等のAPIを参照している(RAG)背景があり、結果として上位表示しているサイトは言及されやすい仕組みです。生成AIの特徴を踏まえると、①出典の信頼性(E-EAT)②一問一答(FAQ・冒頭要約) ③bingのAPI(BingのSEO) の3点を抑えておくと良いかもしれません。

seojapan

GoogleはLLMs.Txtをキーワードメタタグと同等と評価

1 year ago

この記事は、2025年 4月 17日に Search Engine Journal で公開された Roger Montti氏の Google Says LLMs.Txt Comparable To Keywords Meta Tag を翻訳したものです。SEO上級者は、ぜひこの記事のソース元となっているRedditのこちらのスレッドをブラウザ翻訳などでご確認いただくことを推奨します。

Googleのジョン・ミューラー氏は、LLMs.txtがどのように役立つかについて、キーワードメタタグと比較し、現実的な評価を示しました。

Googleのジョン・ミューラー氏は、ウェブサイトのコンテンツをAIエージェントやクローラーに表示するための標準案であるLLMs.txtに関する質問に答え、その有用性を過小評価しました。さらに、LLMs.txtの使用が無意味である理由を、役に立たないキーワードメタタグと比較して説明しました。

LLMs.txtの特徴

LLMs.txtは、大規模言語モデル用の「robots.txt」とよく比較されますが、これは誤解です。robots.txtの主な目的は、ボットによるウェブサイトのクロールを制御することです。対して、LLMs.txtはボットの制御を目的としていません。そのため、LLMs.txtとrobots.txtを比較するのは適切ではありません。

LLMs.txtの提案は、AIにMarkdown形式のテキストファイルを使ってコンテンツを表示させ、広告やサイトナビゲーションを排除し、ウェブページのメインコンテンツだけを閲覧可能にすることです。Markdown言語は人間と機械の両方が理解できる形式で、見出しは「#」、リストは「-」で示します。LLMs.txtはこの機能に似たものを備えていますが、それ以外の機能は提供していません。

LLMs.txtとは

  • LLMs.txtはAIボットを制御するためのものではありません。
  • LLMs.txtはAIボットにメインコンテンツを表示させる方法を提供します。
  • LLMs.txtは単なる提案であり、広く受け入れられた標準ではありません。

最後のポイントは、Googleのジョン・ミューラー氏の発言と関連があり重要です。

LLMs.txtはキーワードメタタグに相当する

Reddit(アメリカの巨大掲示板型ソーシャルメディア:ユーザーが投稿したコンテンツに対して投票できる記事、質問、意見交換などのコミュニティサイト)でLLMs.txtに関する議論が始まり、AIボットがLLMs.txtファイルをチェックしていないという経験が他のユーザーによって共有されました。

あるユーザーは次のように書いています。

「今月初めにブログのルートにLLMs.txtファイルを送信したのですが、クロールログにはまだ影響が見られません。トラッキングシステムを導入されている方や、導入後に何か変化があった方はいらっしゃいますか? まだ実装していない場合は、ご意見をお聞かせください。」

そのユーザーは、20,000 以上のドメインをホストしており、AI エージェントやボットは LLMs.txt ファイルをダウンロードしておらず、BuiltWith のようなニッチなボットのみがそれらのファイルを取得していると話していました。

現在約2万のドメインをホストしています。一部のニッチなユーザーエージェントを除いて、ボットがこれらのドメインを取得していないことは確認済みです」

ジョン・ミューラー氏はこう答えました:

「私の知る限り、どのAIサービスもLLMs.txtを使用しているとは言っていません(サーバーログを見れば、チェックすらしていないことがわかります)。私にとって、これはキーワードメタタグに相当するものです。サイト所有者が自分のサイトについて主張する内容です…(本当にそのサイトがLLMs.txtを使用しているのでしょうか? まあ、確認すればいいでしょう。その時点で、サイトを直接確認すればいいのではないでしょうか?)」

彼の言う通り、Anthropic、OpenAI、Googleといった主要なAIサービスは、提案されたLLMs.txt標準へのサポートを表明していません。しかし、もし実際に誰も使っていないのであれば、その存在に何の意味があるのでしょう?

ミューラー氏はまた、LLMs.txtファイルが冗長であると指摘しています。

なぜなら、元のコンテンツ(および構造化データ)が既にダウンロードされているのであれば、わざわざMarkdownファイルを使う理由がないからです。LLMs.txtを使用するボットは、他のコンテンツがスパムでないことを確認する必要があるため、わざわざLLMs.txtを使う意味がないのです。

ボット側がLLMs.txtを信頼することの難しさ

最後にもうひとつ。パブリッシャーやSEO担当者がLLMs.txt内のコンテンツをAIエージェントにスパムとして送信し、別のコンテンツをユーザーや検索エンジンに表示することを防ぐ方法があるのでしょうか?この方法では、LLMをクローキングすることと同義で、スパムを生成するのは非常に簡単です。

その点では、これは検索エンジンが使用しないキーワードメタタグと非常によく似ています。サイトが本当にそのキーワードに関するものであると信頼するのはあまりにも不確実であり、最近の検索エンジンはコンテンツを解析してその内容を理解する点でより優れ、洗練されています。

LinkedInでのフォローアップ投稿

Redditへの投稿を開始したシモーネ・デ・パルマ氏は、LinkedInにLLMs.txtに関する議論を投稿しました。デ・パルマ氏は自身の経験に基づき、LLMs.txtがユーザーエクスペリエンスを低下させる可能性があると説明しました。

彼は次のように書いています

「LLMs.txtファイルはハッシュタグ#AIサービスによって無視されているようで、ウェブサイトの所有者にとって実質的なメリットはほとんど、またはまったくありません。

さらに、LLMs.txtファイルは元のURLにリンクバックしないため、ユーザー体験低下につながると主張する人もいます。ウェブサイトで引用を獲得すると、ユーザーを適切なウェブページではなく、途方もないテキストの羅列に誘導してしまう可能性があります。では、そもそもLLMs.txtファイルの意味は何でしょう?」

議論に参加した他の参加者も同意しました。ある回答者は、ファイルへのアクセスが少なかったと述べ、業務のリソースは他に集中させた方が良いという意見を述べました。

その回答者はこう語っています

「同感です。私が実施しているテストでは、アクセス数も少なく、今のところメリットも見られません(別の方法で活用すれば、さまざまなクローラーを混乱させるリスクもあるため、有効活用できる可能性がありますが)。現時点では、適切に構築された構造化データ、robots.txt、そして各種サイトマップに注力する方が生産的です。」

上記Reddit の原文はこちらをご確認ください:LLM.txt – 私たちはどこにいるのでしょうか?

SEO Japan編集部より:現時点では「無視される可能性の高い、形だけの仕様」という扱いで、Googleとしても“実装したからといって効果があるとは限らない”というスタンス。OpenAIやAnthropicなど主要な生成AI企業側も対応を明言しているわけではなく、「企業側が出力を制御したい気持ちは理解できるが、果たしてそれが成立するかは別問題」といった空気感が漂っています。

SEOにおけるrobots.txtと異なり、LLMs.txtはあくまで“提案レベルの意思表示”にすぎず、今後のAIモデルとWebの関係性がどうなるのかを見極める上での一つの材料と捉えておくのが現実的でしょう。

seojapan

Googleが品質ガイドラインを改定─AI生成コンテンツは“見抜かれ”、評価される

1 year ago

この記事は、2025年 4月 9日に Search Engine Land で公開された Danny Goodwin氏の 「Google quality raters now assess whether content is AI-generated」 を翻訳したものです。

Googleは最新の検索品質評価ガイドラインにおいて、AIなどの自動生成ツールによって作成されたコンテンツに対し、最低評価を付ける可能性があることを明確にしました。

この変更は、Googleのシニア検索アナリストであり検索リレーションズチームを率いるジョン・ミューラー氏が、マドリードで開催された「Search Central Live」で明かしたものです。同氏によれば、Googleは品質評価者に対し、メインコンテンツが自動化された手段、または生成AIツールによって作られているページを特定し、それらを「最低品質」と評価するよう求めているとのことです。
この方針は、Aleyda Solis氏が2025年1月の品質評価ガイドライン更新に関する情報をLinkedInで共有したことで、業界に広まりました。以下に、今回のガイドライン改定で注目すべきポイントをまとめます。

25/04/09 LinkedInでAleyda Solis が共有した情報

🚨 Google is now asking quality raters to assess if the main content of a page is auto or AI generated, and if so, is lowest rated 👀 John Mueller at Search Central Live Madrid

Aleyda Solís

この変更は、2025年1月の検索品質評価ガイドラインの更新の一部です。この更新で他に何か見逃した方のために、最新バージョンの最も重要な変更点を以下にまとめました。

1 : 1. Googleが新たな定義「Generative AI」を導入

今回のガイドラインでは、Googleが初めて「Generative AI(生成AI)」という用語を正式に導入し、その定義と位置づけを明示しました。生成AIとは、機械学習モデルの一種であり、与えられたデータサンプルから学習し、新たなテキスト、画像、音楽、コードなどを生成する技術です。
Googleは生成AIを「有用なツール」であるとしながらも、その使用には注意が必要であり、悪用される可能性があることも指摘しています。この定義は、ガイドラインの「セクション2.1(重要な定義)」に追加されました。

2 : スパムの定義を再編──AIによるスケール型コンテンツへの警鐘

Googleは、検索品質評価ガイドラインにおけるスパムページの定義を大幅に見直しました。

以前の「セクション4.6.3(自動生成されたメインコンテンツ)」は削除され、新たに複数のサブセクションが追加されました。これらは、生成AIなどによるスケール型コンテンツの氾濫や、労力をかけずに大量生産されたコンテンツに焦点を当てています。

2025年版ガイドラインは、昨年発表されたGoogleの検索品質方針の大きな見直しに合わせて調整されたものであり、AI生成コンテンツのリスクにも具体的に踏み込んでいます。

各セクションの主なポイント

セクション4.6.3:期限切れドメインの悪用

→ 過去に使用されていたドメインを再取得し、ユーザーにとって価値の乏しいコンテンツを掲載することで、新たな所有者の利益を目的とする行為。

セクション4.6.4:サイトレピュテーションの濫用

→ サードパーティのコンテンツが、ホストサイトが保有するランキングシグナル(通常は独自コンテンツから獲得)を利用して公開されるケース。この手法は、単体では評価されにくいコンテンツに不当な順位を与えることを狙ったもの。

セクション4.6.5大規模コンテンツの濫用

→ 手作業による編集やキュレーションなしに、大量かつ低労力で生成されたコンテンツ。生成AIはこの種のコンテンツ生成で使われる典型的なツールとして挙げられています。

セクション4.6.6労力や独創性に乏しいメインコンテンツ

→ コピー、言い換え、埋め込み、自動生成、再投稿などにより、ほぼすべてのメインコンテンツが付加価値を持たない状態となっているページは、最低評価の対象とされます。コンテンツの出典が明示されていても、価値が伴わなければ評価は下がります。

セクション 4.6.6は、ジョン・ミューラー氏も、Search Central Liveの講演でこのセクションに特に言及し、次のように強調しています:
「ページ上のメインコンテンツ(テキスト、画像、音声、動画など)のすべて、あるいはほとんどが、ほとんどまたは全く労力をかけず、独創性も付加価値も伴わずにコピーや言い換えで作られている場合、そのページは“最低評価”とされるべきです。」

評価者はどのようにしてコンテンツが自動生成かAI生成かを正確に判断するのでしょうか?
自動生成されたかどうかを直接判定するための明確な基準は設けられていないものの、「言い換えられたコンテンツ」については新たに具体的なガイドラインが設けられました。

自動生成・言い換えコンテンツの評価基準も明文化

セクション4.6.6:生成AIコンテンツ

→ 自動化ツールを使って他のページのコンテンツを言い換えたり要約したりして生成されたコンテンツも、評価対象に。

セクション4.6.7:生成AIツールによる出力の特徴をもつコンテンツ

→ 言い換えられたコンテンツは識別が難しいが、以下のような特徴が見られることが多い:
〇一般的に知られた事実のみを含む。
〇 Wikipediaやその他の著名なサイトと内容が高く重複。
〇 ニュース記事や掲示板などを要約しただけで、独自性や価値がない。
〇「AI言語モデルとして」など、生成AIツールによる出力に見られる表現が含まれている。

3 : 「低評価」と「最低評価」の違いを明文化──再パッケージコンテンツの線引

新たに追加されたセクションでは、「最低評価」とまではいかないが、検索ユーザーの役に立たないと見なされる「低評価」コンテンツについて、評価者向けに具体的なガイドラインが示されています。

■「低」と「最低」の違い
・低評価:
一部のメインコンテンツ(MC)は再利用されているものの、キュレーションや改変に多少の手が加えられている。

・最低評価:
ほぼすべてのMCが、労力や独自性、付加価値が全くない状態でコピーや言い換えされている。

この定義により、単なる「転載」「要約」「装飾」では評価が下がることを明確にし、オリジナリティや価値を伴わないリパッケージコンテンツへの警鐘が鳴らされています。

■具体例として挙げられた「低評価」コンテンツ
・ソーシャルメディアでの追加コメントや議論がほとんどないリポスト

・埋め込み動画や「再ピン」画像など、他サイトのコンテンツを掲載しているが、作成者自身のコメントや編集が加えられていないページ

・他人のレビューを流用しただけの「ベスト○○リスト」など、独自の観点や情報がほとんどないまとめページ

Googleは、これらのコンテンツを「見かけはオリジナルでも、実質的に価値が伴っていない」と位置づけ、評価者には「質の高いユーザー体験を装った薄い内容」を見抜き、フラグを立てることを期待しています。

4 : 「フィラー」コンテンツの可視化──見た目だけの情報は“低評価”

「フィラー」コンテンツの可視化──見た目だけの情報は“低評価”
もうひとつの新セクションでは、ページの目的にほとんど寄与していないにもかかわらず、スペースを埋めてページを“それらしく”見せている「フィラーコンテンツ」についてのガイドラインが紹介されました。

■フィラーとは?
フィラーコンテンツとは、視覚的にはページを充実させているように見えても、ユーザーにとって価値が低く、閲覧体験を妨げる要素のこと。

フィラーコンテンツの対象例

・広告、汎用的な導入文、冗長な段落などのせいで、肝心の情報を埋もれさせているページ

・主要コンテンツから注意をそらすような、目立つ位置に配置されたフィラーコンテンツ

・スペースを稼ぐことで、実際よりもページが長く、内容が豊富に見えるようにしている希薄なページ

Googleは、こうしたフィラーによって「ユーザーが本当に求めている情報へのアクセスが妨げられている場合」、そのページを低評価とすべきとしています。

■評価者への指針
評価者は、単にコンテンツの有無だけでなく、ページ全体のレイアウトや情報設計が「ユーザーの目的達成をどれだけ助けているか」に注目するよう求められています。

5 : 「専門家風」に注意──誇張・ミスリード表現は「低評価」

Googleは、コンテンツ作成者やサイト自体に関する誇張された主張や誤解を招く記述にも、厳格な姿勢を示しています。

新設セクション 5.6

「ウェブサイトやコンテンツ作成者に関する欺瞞的な情報は、最低評価(Lowest rating)の強い理由になります。」
完全な虚偽とまでは言えないが、「やや誤解を招くような誇張表現」も低評価の対象とされます。
→専門的な資格を実際よりも大きく見せている
→個人の体験談を「専門家視点」と偽っている
→内容よりも“経歴推し”の構成になっている

これはつまり、評価者は主張をそのまま鵜呑みにせず、メインコンテンツが実際に示していることや外部調査の結果をもとに評価することが求められるという意味です。

「E-E-A-T(経験・専門性・権威性・信頼性)の評価は、メインコンテンツ(MC)そのものや、評判調査で見つけた情報、検証可能な資格情報などに基づくべきであり、『私は専門家です!』というウェブサイトや作成者の主張だけで判断してはなりません。」

そして、評価者が「この資格や主張は実質的な内容というよりも、マーケティング的な誇張では?」と感じた場合には、文書にはこう明記されます。

「ウェブサイトやコンテンツ作成者に関する情報が誇張されていたり、やや誤解を招くものだと思われる場合には、Low評価を使用してください

その他の変更点:細部も厳格に整理

Googleは他にもいくつか小規模な変更を加えました。

・セクション4.0:最低品質のページ
Googleは以下の文を追加しました:「ウェブサイトの所有者の利益(例:収益化)を目的に作られ、訪問者の利益や有益な目的にほとんど、あるいはまったく配慮していないページには、最低評価(Lowest rating)が必要です。」

・セクション4.5.3:ページ目的の欺瞞
ページ目的の欺瞞、ウェブサイトに関する誤解を招く情報、欺瞞的なデザインGoogleはこのセクションを改訂し、より多くの情報を追加しました。
また、表形式と箇条書きのリストで例を示し、それぞれのケースをわかりやすく分類しています。

・Low Recipe 3:新しい評価タイプ
この新しい評価タイプは、以下のような広告が目立つレシピページに適用されます:

  • 関連性のないコンテンツが多く含まれている
  • インタースティシャル広告(画面に割り込む広告)が表示される
  • 広告が目立ちすぎている

    このようなページは「Low Recipe 3」として低評価されます。

・セクション0.4:広告ブロック拡張機能
評価者は以下の指示に従う必要があります。「評価作業のためにウェブページを閲覧する際は、ブラウザに搭載された広告ブロッカーの機能をオフにすること。」
この指示は、Chromeなど一部の広告を自動でブロックするブラウザにも適用されます。

seojapan

今後2年間の検索に関する4つの予測

1 year 1ヶ月 ago

この記事は、2025年1月 9日に botify で公開された Morgan McMurray氏の 「The Future Is Here: 4 Predictions for Search in the Next Two Years」 を翻訳したものです。

2024年は検索業界にとって、信じられないほど変革の年でした。人工知能(AI)が、消費者の意思決定プロセス全体に統合され、検索の専門家は戦略を見直し、新しいツールを取り入れ、さらに高速でパーソナライズされた検索エコシステムに対応する必要がありました。

今年のBotify Connectでは、最新のSEO動向に基づき、SEOに関する4つの主要な予測を検討しました。この記事では、それぞれの予測を詳しく説明し、変化がブランドにどのような影響を与えるのか、そしてその準備方法についての洞察を提供します。

予測1 : オーガニック検索は消えないが、キーワードは消えつつある

まず、キーワードの重要性が薄れていく理由を理解する前に、新しい検索環境を知る必要があります。オーガニック検索は依然として有効ですが、キーワードの追跡方法は、個別のキーワードターゲティングから、検索行動に基づいた広範な傾向に焦点を当てたものに進化しています。

消費者行動の変化

自然言語処理(NLP)や生成AIへの投資が成果を上げ、検索の仕組みが根本的に変わりつつあります。AIが統合されたインターフェースにより、ユーザーはより自然で流動的な方法でコンテンツにアクセスし、ロングテールのパーソナライズされたクエリが急増しています。その結果、消費者は会話型でコンテキスト主導の質問をするようになり、従来のキーワードが関連性を失う可能性があります。

また、ツールやプラットフォーム、AIアシスタントの普及により、検索はますます分散化しています。消費者は複数のインターフェイスを使ってコンテンツを検索しているので、ブランドのコンテンツが表示されるためには、これらのプラットフォームにインデックスされる必要があります。

AIアシスタントは、消費者の検索の大部分を担当するようになります。これらのアシスタントは、結果を提供するだけでなく、ユーザーに代わって行動し、ユーザーの好みに基づいて意思決定を行い、タスクを完了します。この傾向により、消費者のクエリがより複雑になり、ニーズに合わせたハイパーパーソナライゼーションが進みます。そのため、検索のロングテールはさらに細分化し、専門家が特定のキーワードに焦点を当てることが難しくなる可能性があります。

ポストキーワードの世界にはまだ遠い

従来のキーワード追跡の重要性は低下していますが、キーワードを完全に無視することはできません。検索は依然としてユーザーの意図を満たすことが重要であり、キーワードデータは消費者の意図を予測するうえで価値があります。重要なのは、新しい検索時代が「ターゲットキーワードの文字列」で構成されるクエリから「会話」の時代に移行しているということです。

従来の検索エンジン(GoogleやBingなど)とユーザーのインタラクションは、現在の検索インデックスやランキングを形作っており、短いクエリからより長く詳細な検索への移行が進んでいます。消費者のクエリも、AIアシスタントによって将来の質問を理解する手助けとなるでしょう。消費者がGoogleで行っていた検索は、ChatGPTやPerplexityなどのツールで提示されるプロンプトと似ています。しかし、会話型検索や検索の分散化(Googleが検索の中心ではなくなりつつある状況)への傾向は、消費者行動の細分化が進むにつれてランキングの重要性を低下させることを意味します。

長期的には、AIが生成した回答(AI Overviewなど)が広く統合され、消費者が情報を検索する方法が多様化していく中で、従来のランキング指標は新たな指標に取って代わるでしょう。ブランド認知度の指標として、シェア・オブ・ボイスやブランド言及は、キーワードランキングよりも優先されるようになると考えられます。

キーワードの重要性低下に備える方法

幸いにも、キーワードトラッキングが減少していく中で、検索戦略を将来に向けて確実にするために実行できる対策があります。

  1. 関連プラットフォームにインデックスされていることを確認 : 消費者がどこでブランドを見つけているかを理解し、従来の検索とAI統合検索の両方に最適化されていることを確認しましょう。
  2. 今日のキーワードデータを活用して未来のクエリを予測 : 消費者が明日ChatGPTで何を尋ねるのかを予測します。頻繁に出てくる質問は何かを把握し、ターゲットキーワードに関連する疑問を特定しましょう。
  3. シェア・オブ・ボイスやブランド言及、ブランドの権威を追跡 : ブランドの可視性を報告するときには、さまざまなプラットフォームで消費者がどのようにターゲットキーワードを使用しているか、ブランドの権威を追跡する指標を活用しましょう。あなたのブランドは表示されていますか?競合他社はどうですか?提示された情報は正確で、最新のものですか?
  4. 会話型 AIやAI概要(AIO)に重点:上位ランクのコンテンツがAI概要ライブ検索引用などの生成応答に表示されることを目指しましょう。ライブ検索を備えた回答エンジンは、上位ランクのコンテンツを取得して応答を更新するため、コンテンツが正確で、定期的に更新され、AIボット向けに適切に最適化されていることが重要です。

予測2 : 来年の今頃には、トラフィックの大部分がAIボットからのものになる

ウェブサイトへの人間のトラフィックはすでに減少傾向にあり、2026年までにトラフィックの25%が従来の検索から離れると予測されています。現在、消費者が何を検索し、何をクリックし、何を読むかなど、すべての行動は消費者に依存しています。しかし、近い将来AIボットが消費者に代わって検索やコンテンツ配信のプロセスをより頻繁に代行するようになり、検索結果から得られる大量リンクの記事の読み取りや、クエリ結果の要約といった多くの流れをAIボットが担うようになるのです。

消費者はAIアシスタントの効率性に満足しており、これらのツールは使えば使うほど精度も高まっていきます。そのため、消費者はさらにAIに依存し、使用頻度とエンゲージメントが高まるサイクルが生まれます。この結果、ウェブサイトへのトラフィックの大部分が人間のユーザーではなく、AIボットが中心になる可能性が高まっています。

AIボットによるトラフィック増加がブランドに与える影響

従来、トラフィックが多ければコンバージョンも増えるという関係がありました。しかし、AIボットによるトラフィックはコンバージョンとしてカウントされません。AIアシスタントは、ユーザーのために上位のコンテンツを要約し、ウェブサイトへのクリック数を減少させるため、インプレッションとクリック数の減少が見込まれます。しかし、これは同時に新たなチャンスをもたらします。

トラフィック量の減少は、より情報に富んだクライアントベース、向上したクライアントロイヤルティ、そして長期的な顧客エンゲージメントとコンバージョンの向上によって相殺される可能性があります。結果として、AIボットによるトラフィックの増加が、より高品質で影響力の大きいインタラクションへと繋がり、ブランドにとっては新たな価値を生むことになるでしょう。

ボットトラフィックの増加に備える方法

AIボットの数と、それらがもたらすトラフィックの量は今後さらに増加していくことが予想されます。これに伴い、ブランドは検索コンバージョンのみならず、サイトのインフラストラクチャに与える影響についても注意深く考慮する必要があります。将来の負荷を軽減するために、今から取り組むべき戦略がいくつかあります。

  1. ボット管理戦略を策定する:許可するボットとブロックするボットについて、リーダーシップと情報に基づいた決定を行いましょう。たとえば、大規模言語モデル(LLM)をトレーニングするためにコンテンツを収集するAIボットを許可しない一方で、ライブ検索ボットによる新しいコンテンツ表示は許可するなど、戦略的に対応します。ボットを管理するための戦略を組織レベルで策定すれば、関連するコストをどう処理するかについての方針が決められます。
  2. ボットの動作を追跡するログファイルを使ってボットの動作を追跡し、どのボットがどのコンテンツにアクセスしているのかを把握します。この情報に基づき、どのボットがブランドにとって優先すべきかを特定します。
  3. コンテンツをAIモデルや検索インデックスにプッシュする:ブランドにとって重要なボットを特定したら、IndexNowやPush to Bingなどのツールを活用して、コンテンツを検索インデックスやAIモデルにプッシュします。これにより、ライブ検索でコンテンツが参照され、消費者向けに生成されたAIコンテンツに正確に表示されるようになります。
  4. AIボットトラフィックがウェブサイト指標に与える影響を経営陣と共有する:AIボットによるトラフィックがウェブサイトのパフォーマンスに与える影響について、経営陣と明確にコミュニケーションを取りましょう。

予測3 : 今後300日以内に汎用人工知能(AGI)が実現し、検索の変化が加速する

正確には今後300日以内にAGIが実現するわけではないかもしれませんが、AGIは遅かれ早かれ実現する見込みです。そのため、重要なのはその準備を始めることです。AGIが実現すると、検索における変化が飛躍的に加速し、AIが消費者の検索行動を支援する方法や、SEOがAIツールを活用する方法が一変します。

AGIとは何か?(また、AGIではないものとは?)

AGI(汎用人工知能)は、人間のような認知能力を持ち、平均的な人間が実行できるあらゆる知的タスクをこなせるとされています。学習だけでなく、推論や新しい状況への適応も可能です。しかし、AGIは超人のような存在ではありません。人工超知能(ASI)は、理論的には特定の分野で人間の専門家よりも優れた知能を持ちますが、現在はまだ実現していません。

そのため、AGIに対して悲観的に考えるのではなく、検索において深い専門知識を持つ担当者はこれをチャンスと捉えるべきです。ブランドはAGIを活用してさまざまなプロセスを自動化し、内部の効率性を高めるとともに、消費者に対してより良い体験を提供できるようになるのです。

AGIは検索にとって何を意味するのか?

現在のAIモデルからAGIへの進化により、検索の新たな可能性が広がります。たとえば、リアルタイムでウェブサイトをクロールできるインテリジェントクローラーや、消費者のニーズを事前に予測して、ユーザーが質問する前に回答を提供するAIアシスタントなどが登場することが考えられます。AGIは消費者のニーズを表明する前に予測するため、カスタマージャーニーはさらに予測的かつユーザーの先回りをするものになるでしょう。

AGIに向けてブランドを準備する方法

チャンスを捉えるマインドセットを持ちましょう。ブランドには、AGIが実現する未来で成功するために必要なすべての準備を整えることができます。AGIに備えて、積極的にその機会を活用することが重要です。

自動化に投資し、AI技術を活用する:自動化に投資することで、効率とスピードを高め、リソースを節約できます。データの追跡頻度を増やし、長期的な基盤を確立して、急速に加速する変化のサイクルに備えましょう。

・すべてのプラットフォームでインデックスを維持する:コンテンツをインデックスにプッシュし、AIアシスタントがそのコンテンツを参照できるようにすることが重要です。消費者の意図と行動に注力し、検索プラットフォーム全体でブランドがどのように表示されるかを把握しましょう。

・テクノロジースタックを検証しレベルアップする:AGIが求める要求に対応できるように、テクノロジースタックを見直し、アップグレードすることが必要です。

予測4 : 2026年までに、SEOチームは生成AI検索チームになる

SEOはこれまで、マーケティングやブランド認知という広範な機能の一部として機能してきました。しかし、検索がますます分散化し、多くのプレイヤーや消費者の選択肢が開かれるにつれて、「SEO」という言葉は、従来の検索エンジン最適化にとどまらず、AI検索プラットフォーム全体でのより幅広い消費者体験やジャーニーを含む用語へと進化していきます。

SEO専門家の役割の変化

SEOの需要はなくなることはありません。むしろ、SEOの仕事は増加する可能性があります。

SEOの仕事は従来、検索というブラックボックスを解明することに注力してきました。その側面は今後もほとんど変わらないでしょう。しかし、検索プラットフォームの多様化に伴い、SEOの専門家は、ユーザーの意図、ブランドの可視性、コンテンツの最適化に関する深い理解を、より多くのチャネルに適用しなければならなくなります。つまり、SEOの仕事は、従来の検索エンジンの最適化から、すべてのAIインターフェースにおけるシームレスなエクスペリエンスを確保することへと進化します。

それでも、従来の検索SEOとAI時代の検索で成功するために必要な知識は非常に似ています。AI検索での最適な測定方法やランク付け方法はまだ確立されていませんが、SEO専門家は、これまでの不確実で曖昧なアルゴリズムの中で多くの経験を積んできました(そして最終的に非常に正確に予測してきました)。最適化戦略を決定するためのテストと追跡の方法は、AI時代にも十分に役立つはずです。

SEOチームの準備方法

つまり、実践者は既存の技術スキルを活用し、ブランドリーダーはそれを積極的にサポートする必要があります。

・AIテクノロジーの理解を深める:検索組織内でAI技術の理解を高め、進化させることが重要です。

・技術的なSEO専門家の確保:技術的なSEOの専門家をチーム内に取り入れ、十分なリソースを確保しましょう。彼らは、検索エンジンとAIアシスタントの両方に最適化されたサイトを構築するために必要なスキルとノウハウを持っています。

・主要クエリのランキングに注力:トップテールやミッドテールのクエリで上位10位にランクインすることを重視し、ロングテールの明確なコンテンツインデックスを確立しましょう。

・AI駆動型検索プラットフォームで働くスキルを習得:SEOチームがAI技術を活用して作業できるよう、専門的な能力開発とAIテクノロジー教育に投資することが必要です。

検索の未来には柔軟性が必要

AI、中央集権からの分散化、そしてAGIの導入により、検索業界のルールは劇的に変化しています。検索の実践者やリーダーにとって、今こそ適応する時期です。変化を受け入れ、チームを準備し、常に最先端のテクノロジーに投資していきましょう。2026年までに、今日の準備が検索の未来でどれだけ成功するかを決定づけることになります。

seojapan

Googleのランキングは実際どれくらい変動しているのか?

1 year 2ヶ月 ago

この記事は、2025年 2月 3日に Search Engine Landで公開された  Mordy Oberstein氏の「How volatile have Google rankings really been?」を翻訳したものです。

2024年のGoogleランキングは、前年に比べて26%の変動率の増加が見られ、一部の業界ではさらに大きな変動が発生しました。以下で、データとその洞察をご覧ください。

人生には一定の事柄がいくつかありますが、Googleのランキングはそのうちの1つではありません。ランキングの変動に関心を持っている方、またはこのウェブサイトを読んでいる方は、近年そのランキングがますます不安定になっていることに気付いているでしょう。特に業界のベテランにとっては、この変化がより顕著に感じられているかもしれません。

そのため、SEOは新しい方向に進化していると私は考えています。進化が意味することや、業界がその変化にうまく適応しているかどうかについては、また別の機会に詳しく議論しましょう(要約すると、私たちは完璧にうまくいっているわけではありませんが、失敗しているわけでもなく、変化に対応している最中です)。

この変化の主な要因の1つは、SERP(検索結果ページ)の不安定性です。私は、これを探求し、いくつかの具体的な事実を示すことを目的としています。

2024年のランク変動率

2024年のGoogleのランキング変動は、2023年と比較して26%増加しました。この変動は、単純なものではなく、複数の指標を確認し、できる限り正確なデータをもとに分析しています。しかし、2024年のランク変動がどれだけ増加したかを調べ、2023年と比較すると、少なくともデスクトップ検索では26%の増加となっています。

カテゴリー別のランク変動性:2023年から2024年の比較_デスクトップデータ

これはすべての業界に当てはまるわけではありません。
例えば、特定のニッチな業界では、2023年と比較して2024年にボラティリティが大幅に増加しています。

あなたのサイトが人気のスナックについての情報を提供している場合、そのサイトのランキング変動性は50%以上高くなる可能性があります(ちなみに、レリッシュは誰にとっても好きなスナックではありませんが)。

ただし、ほぼすべての業界で2024年に順位の変動が増加しており、1つの例外を除いて、Semrushによる追跡データでもそれが確認されています。

カテゴリー別の平均ボラティリティレベル – デスクトップデータ

2023年(それ自体がすでに「顕著」だった)と比較すると、2024年を通じてほぼすべての業界でランクの変動性が「顕著」に増加したと言えます。唯一例外は不動産業界です。

ここで注目したいのは、データが示すのはあくまで「平均的なボラティリティ」であり、2023年にすでに高かった数値が2024年にはさらに高くなっている点です(不動産業界を除く)。

Googleアルゴリズムのアップデートに関する議論をする際、私は通常、デスクトップとモバイルの比較を行うことはありません。理由としては、デバイス間の数値が非常に近いため、時間を無駄にする価値がないからです。

しかし、今回のケースでは、デバイス間で明確な違いがあり、なんと10パーセンテージポイントもの差が見られました。

カテゴリー別のランク変動性:2023年から2024年の比較_モバイルデータ

デスクトップのSERPは2023年よりも2024年に26%の変動が見られましたが、モバイルのSERPは「わずかに」16%の変動にとどまりました。

デバイス間の格差は、ニッチな業界にもわたって広がっていました。

例えば、健康分野では、デスクトップでは2024年に最も変動性が高まったニッチの1つではありませんでしたが、モバイルではその逆で、明らかに大きな変動が見られました。

これは、医療分野に関連するキーワードがモバイルで非常に不安定だったわけではなく、実際にはヘルス分野のデータはデバイス間でかなり似ているということです。主な理由は、2023年に他の業界でモバイルの変動率がデスクトップよりも高かったため、2024年においてその差が生じたことです。

カテゴリー別の平均ボラティリティレベルモバイルデータ

eコマース分野では、2024年にデスクトップとモバイルの両方で同じレベルのランク変動がありました。しかし、モバイルではその変動の平均が5ポイント高くなっていました。

モバイルとデスクトップのボラティリティ増加の差は、2023年におけるモバイルのボラティリティレベルが既に高かったことに起因しています。そのため、2024年には変動の増加が比較的小さく見えます。

とはいえ、絶対的な変動性のレベルはデバイス間でほぼ同じです。(たとえば、ショッピング業界の場合、2024年の平均変動性は両方のデバイスで8.5/10でした。)

ちなみに、ボラティリティスコアが8.5というのは非常に高い数値です。

これらの数字を見れば、2023年から2024年にかけてのボラティリティの増加がいかに驚異的であるかが分かります。

SERPは決して安定していません。

ランク変動の増加は永続的な傾向か、それとも一時的な急増か?

2024年の平均ボラティリティの増加だけでは、すべてを理解することはできません。単一の出来事、例えば1か月または2か月の極端な変動がデータを歪めている可能性もあるため、慎重に判断する必要があります。

その答えは、「いいえ」です。

2024年のボラティリティは非常に広範囲にわたっており、7月(およびある程度8月)を除けば、年初から一貫して高いボラティリティが続いていました。

月間平均ボラティリティによるSERPボラティリティの傾向 – デスクトップデータ

2023年7月には公式なアップデートがなかったため、振り返ってみると興味深い点があります。

2023年7月のボラティリティは、その月の中旬頃に発生した、奇妙で継続的な極端なランクの変動によるものです。

SERPボラティリティ – 2023年7月

画像提供:Search Engine Roundtable

このデータの重要な点と結論は、単に「ランクが不安定な時期」があっただけではなく、それがいつ収まるのか分からない「不安定な時期」であったということです。

むしろ、これからはSERPのボラティリティがどのようなものであるかについて、新しいシナリオが生まれてきているように感じられます。

Googleが今後、継続的かつ定期的にアルゴリズムのアップデートを行うと報じられていることから、状況はさらに悪化する可能性が高いと予想されます。

劇的とはどの程度劇的か?

ボラティリティの平均レベルやボラティリティの傾向だけでは答えられないもう一つの疑問があります。それは、ボラティリティがどの程度劇的なのかということです。

つまり、ランクの動きはどれほど劇的であるべきなのでしょうか?

より不安定なSERPの大きな部分は、実は小さなマイクロムーブメント(微細な動き)である可能性も十分にあります(ちなみに、SERPは何年も前からすでに非常に不安定でした。これについては後で詳しく説明します)。

標準偏差は、ランクの変動性を測定するための最良の指標の1つです。

ベースラインとボラティリティがどれほど離れているかを見ると、ランクのボラティリティ自体はそれほど劇的ではないことが分かります。

各カテゴリーの標準偏差(2023/2024)

画像提供:Search Engine Roundtable

2023年と比較して、1つを除くすべての業種で標準偏差が減少しました(「ニュース」SERPは独自の問題を抱えています)。

現在の状況では、ボラティリティの「量」は増加していますが、動きの程度自体は2023年に比べて減少しているというシナリオになっています。

これを「順位はそれほど大きく変動していない」と誤解しないでください。これは絶対的なものではなく、2023年との相対的な変動に関するものです。

例えば、デロリアンを時速88マイルで運転すると、2021年のニュースを除いた標準偏差は1.15から1.69の範囲であったことがわかります。

各カテゴリーの標準偏差(2020/2021)

2024年の標準偏差は、ニュースを除いて1.3~2.5の範囲となっています。順位が時間の経過とともに「変動が少なくなる」というわけではありません。

ランク変動の平均レベルは2023年ほど劇的ではないかもしれませんが、2021年に見られたレベルにすら達しておらず、2020年に見られた極端なランク変動のレベルを超えています。

2020年当時は、1を超える標準偏差が注目されていましたが、現在では2を超える標準偏差について話している段階です(ちなみに、自宅には標準偏差2を超えるものが4つあります)。

まださらに変動が大きくなる可能性があります。

全体的に標準偏差が高くなっている理由は、ランクの変動性が急激に上昇した数回の出来事に関係しているのでしょうか?

毎年の最高スコアと最低スコアの差

そのようではないようです。

上記のグラフは、ボラティリティの最小レベルと最大レベルの差が縮小していることを示しています。

2023年の最小ボラティリティと最大ボラティリティの差は8.1ポイントでしたが、2024年には7.2ポイントに減少しました。

これは、最大ボラティリティの「急上昇」がそれほど劇的ではなかったことを示しています(相対的に言えば)。

これには2つの理由が考えられます(それ以上の理由はありません):

  1. 最小スコアの方が高かったため、より高いレベルのボラティリティからスタートしたことになります。その結果、ボラティリティの最小レベルと最大レベルの差は狭くなります。
  2. 大きな急上昇は少なかったものの、全体的にランクの動きが「それほど劇的ではなかった」ため、2024年には変動がそれほど大きくならず、結果としてボラティリティの最小レベルと最大レベルの差が縮まりました。

すべてのデータを総合的に見ると(私の方法論にはしっかりとした根拠があります)、全体的には劇的な変動は少ないものの、ボラティリティが高まっている兆候がいくつか見られます。

なぜ?

  • 2024年には平均ボラティリティが上昇しています。
  • 2024年の順位変動は全体的にそれほど劇的ではない(標準偏差を参照)。

したがって、オッカムの剃刀(実際の剃刀とは関係ありません)を適用すると、最小ボラティリティと最大ボラティリティの差が縮まった理由として最も可能性が高いシナリオは、ボラティリティはより頻繁に発生するようになったものの、2023年ほど多くの「高値」には達しなかったということです。

しかし、反論としては、先に見た月ごとのボラティリティの傾向(便宜上ここでも追加しています)があり、これはボラティリティ量の急上昇が2024年よりも2023年の方が急であったことを示しています。

SERPボラティリティ月次平均ボラティリティ別の傾向

簡単に言うと、2023年8月と2024年8月はほぼ同じレベルのボラティリティを示しています。しかし、2023年のボラティリティが始まった時点と比べると、2024年はその時よりもかなり低いことがわかります。

もし2023年のようにボラティリティが急上昇した場合、そのレベルも上がると考えるかもしれませんが、この点に関しては「わからない」としか言いようがありません。これを公式なSEO記事で書くことは避けるべきですが、ここではそう伝えるべきではないということです(つまり、これは記事に書いていないということです)。

ただし、これが次のデータポイントに導いてくれます。この転換点は非常に優れたもので、まるでポッドキャストを聞いているかのようです。

状況は不安定ですが、誰が数えているのか?

私が数えています。

Semrushが2024年にわずか15日間、または低いボラティリティしか記録しなかったことをご存知でしょうか?

もちろん、そんなことは誰もすぐに知りませんよね?それが少し奇妙に感じるかもしれません。

しかし、これが実際の事実です。

デスクトップでは、ボラティリティが低かった日はわずか15日間、ボラティリティが「通常」だった日は83日間でした。

記録によると、2024年は365日ではなく366日でした。うるう年でしたので、数字の足し算は理解しています。

したがって、気分を良くするために、ボラティリティの高い日が1日減ったと仮定しても問題ないかもしれません。

年別ボラティリティレベルの内訳 – デスクトップデータ

ちなみに、2024年におけるボラティリティが低い日数は64%減少し、ボラティリティが通常の日数も39%減少したことを意味します。

一方で、2024年には「高ボラティリティ」の日が19%増加し、「非常に高ボラティリティ」の日が80%増加するという大きな変化が見られました。

モバイルの場合、少し異なり、2024年を通してボラティリティが低い日が数日増加しています(ただし、ボラティリティが高い日の数は変わりません)。

年別ボラティリティレベルの内訳 – モバイルデータ

ただし、2024年にはモバイルで「非常に高い」ボラティリティの日が12日減少したため、良い兆しではあります。

それでも、基本的にはどれも好ましくはありません。

2024年のデスクトップにおけるボラティリティは約78%が不安定で、そのうち36%は非常に不安定な状態でした。それはまるで悪夢のような状態で、多くの人にとって、それは実際に悪夢でしたし、今もそうです。

ボラティリティがさらに高まる? 誰が気にするのか?

少なくとも、あなたは気にすべきです。マーケティングチャネルとしてのGoogleの概念は、すでに変わり始めています。

まず、検索結果が必ずしも良い結果を出さないことが増えています。例えば、私は病状についてGoogleで検索していたところ、メイヨークリニック、WebMD、Redditなど、さまざまなウェブサイトから同じようなコンテンツを選ばなければならないことがありました。

それは、まるで「ストロベリーアイスクリーム」と「ナッツ入りストロベリーアイスクリーム」のどちらかを選ばなければならないようなものです。

そして、LLM(大規模言語モデル)やAI検索エンジン、AIO(AI最適化)、AI生成コンテンツなど、さまざまな要素が登場しています。

さらに、コンテンツの消費傾向は私の意見では完全に変化しています(ちなみに、これは常に変化し続けています)。

ああ、RedditがSERPに大量に表示されたことを忘れていました。(アイスクリームにスプリンクルをつけますか?)

それに加えて、SERPは不安定な状態です。これはかなり大きな問題です。

まるで家族や義理の家族と一緒に感謝祭のディナーを食べ、出されるのはゆで豆腐だけというような感じです。

さらに、テレビもないのでフットボールは見られず、ビールもありません。唯一あるのは1992年のZimaだけです。

それで、あなたはどうすべきか?

私はアドバイスをしているわけではありません。ただ、「なぜ気にするべきなのか」を示しているだけです。

何をすべきかは、また別の話です。それは「チャネルを多様化する」や「独自の視聴者を狙う」以上のことだと思います。

個人的には、それは私たちがどのように観客にアプローチし、彼らと共鳴するかを非常に真剣に検討することを意味すると感じています。

とりあえず、それについてよく考えてみましょう。

さらに詳しく: Google を超えた SEO: Reddit、Quora、TikTok などでブランドを構築する

seojapan

フィンテックSEO:成功が実証された戦略

1 year 3ヶ月 ago

この記事は、2025年1月31日に Siege Media で公開された Ross Hudgens氏 「Fintech SEO: Strategies Proven To Succeed」を翻訳したものです。

当社の支援してきた中でも、金融領域はSEOの難易度が高い領域です。SEOに注力したサイトが多くひしめく中で、競合に勝つためのポイントはどこにあるのか?Ross Hudgens氏 の語る戦略を見ていきましょう。 – SEO Japan

フィンテックSEO(※)は、eコマースSEOやSaaS SEO、その他の一般的なSEO戦略とはまったく異なる課題を伴います。フィンテック企業がターゲットとするキーワードの中には、インターネット上で最も競争の激しいものも多く、目立つためには世界水準の戦略が求められます。

※FinTech(フィンテック)…金融(Finance)と技術(Technology)を組み合わせた造語

Siegeは、Mint、Quicken Loans、QuickBooksなど、世界トップクラスのフィンテック企業と連携する機会に恵まれました。これらの経験を通じて、金融市場で繰り返し成果を上げる実証済みのSEO戦略を学びました。

この記事では、金融分野におけるROIの評価方法、技術的なSEOがそれほど重要でない理由、そして金融関連のリンクを大規模に生成する方法について学びます。

http://Fintech SEO: Strategies Proven To Succeed

テクニカルSEOはあまり考慮されない

金融ウェブサイトは一般的に小規模であり、この分野では、執筆時点で2億6,700万ページがインデックスされているAmazonのような大規模なサイトは見当たりません。そのため、SEOのテクニカルな側面はそれほど目立たず、大きな変化をもたらすことは少ないと言えます。

Webサイトのページ数が10,000ページ未満の場合(この規模は金融業界では比較的大きい方ですが)、複雑な技術的な問題が発生することはほとんどありません。

とはいえ、これがテクニカルSEOが全く無視されるべきだという意味ではありません。むしろ、金融業界のSEOは、他の業界とは異なる形態をとる傾向があります。私たちの経験に基づけば、金融企業の一般的なSEOアプローチは次のようになります。

これは、この分野に存在する SEO の問題のほとんどがページ レベルで発生するためです。各クエリに勝つためには、カスタムで思慮深いコンテンツとユーザー エクスペリエンスの取り組みが必要です。Amazon のような企業では、インフラストラクチャを数千ページに拡張し、クロールバジェットなどを考慮する必要があることが多いため、、小規模な Web サイトで大規模な分析を行うことはほとんどありません。

フィンテック企業では、SEO マネージャーがほとんどのテクニカルな問題に対処できることが多いですが、そこからは社内外のチームメンバーによるコンテンツやリンクに多大な労力を費やす必要があります。

獲得の難しさからリンクの価値は高い

フィンテック業界では、生涯リンク価値が15,000ドルを超えることがよくあります。この水準のリンク価値は、インターネット上でも非常に高いものです。

これは、金融業界が非常に価値のある分野であり、リンクを獲得するのが非常に難しい業界だからです。

ファッションやウェディング業界では、オーガニックリンクが自然に多く発生することがありますが、フィンテック業界では、ブランド間で見られる商業的な関連性が影響し、オーガニックリンクが自然に発生することはほとんどありません。

リンクを依頼する際には、最終的な目標が金銭的な利益を得ることであることが相手に伝わるため、しばしば断られることがあります。そのため、創造性を発揮し、優れたコンテンツを提供することが重要となります。

テレビやデジタル広告が参入障壁になることも

奇妙に思えるかもしれませんが、住宅保険自動車保険生命保険といった用語で上位にランクインするのが難しいのと同じように、フィンテック業界ではテレビやデジタル広告が参入障壁となる可能性があります。

フィンテックSEOの性質上、他の業界で自然に実行できる「ブランド」戦略は、この分野ではおそらく効果的に実行できません。しかし、同じブランド戦略がブランド認知にとって依然として重要であり、実際に発生する少数のオーガニックリンクを促進し、CTR(クリック率)の向上や検索結果の信頼性の向上に寄与し、最終的にはランキングの向上に繋がります。

そのため、もしあなたのビジネスに何らかの広告戦略が欠けている場合、フィンテックにおけるブランド指標はほぼゼロに近くなる可能性が高いです。結果として、SEOパフォーマンスも悪化する恐れがあります。

この事実は受け入れがたいかもしれませんが、競争が激しく、利益率の高い業界では、現実的な状況です。私たちは、2語の金融用語で上位表示を目指すクライアントには、長期的に成功するために広告を通じたブランドマーケティング戦略に注力するようアドバイスしています。

スタートアップの資金調達までのジャーニーを活用してリンクを生成する

フィンテック業界では、資金調達ラウンドに関するニュースを通じてリンクを生成することが、成功するSEO戦略の重要な柱の一つとなります。インターネットで最も有名なフィンテックコンテンツサイトであるNerdWalletは、IPO(新規公開株)を実施し、その後、収益発表に関するニュースサイクルを繰り返し報道されることで、多くの利益を得ています。

これらのリンクは非常に権威が高く、一度得られると複製が不可能であり、競争力のあるランキングに上位表示されるために欠かせません。リンクを獲得する難しさを考えると、競争の激しい用語で上位を目指すフィンテック企業が、ブートストラップ(自己資金)だけでそれを達成するのは非常に難しいと言えます。

このプロセスを活用するためには、隣接市場で資金調達を行った競合他社を探し、そのバックリンクプロファイルで「資金調達」という用語を検索することで、さらに多くのリンクを獲得できます。また、資金調達のストーリーを最大限に活かすために、資金を調達する際には同じ出版物にアプローチして売り込むことが効果的です。

個人金融ブロガーは避ける

リンクは非常に価値が高く、獲得が難しいため、リンクを増やすには手動でのアウトリーチが効果的な場合が多いです。しかし、個人金融ブロガーがこの業界で受け入れてくれるとは期待しない方が良いでしょう。彼らに売り込むと、他の誰よりも高額な料金を要求されることがほとんどです。

そのため、個人金融に特化しない、関連性のある業界でリンク構築戦略を展開することをお勧めします。具体的な例としては、以下のようなものがあります。

  • 全国ニュース
  • ローカルニュース
  • トップファネルランキングによる受動的なリンク生成
  • ウェルネス、健康、特別関心グループ

共感を呼ぶコンテンツは、しばしばSUCCESモデルに従っています。このモデルは、シンプルで予想外、信頼性が高く、具体的で感情に訴え、ストーリー性があるコンテンツを指します。

お金に関するトピックの魅力の一つは、それが非常に感情的な話題であることです。これを活かして、業界に合ったデータ主導のコンテンツを作成し、その後、ニュースメディアに売り込むことが可能です。

価値実現までの時間が短いシミュレーター

財務的な影響を考慮すると、ほとんどのフィンテック企業にとってシミュレーターの導入は理にかなっています。計算機は競争が激しい用語であることが多いですが、同時にWebサイトの重要な要素でもあります。シミュレーターは、受動的なリンク獲得に最も貢献するツールの一つであり、特にうまく活用できる場合は積極的に取り入れるべきです。

私たちのマクロ戦略では、価値実現までの時間をできるだけ短縮することに重点を置いています。上のGIFで示されているように、このシミュレーターを使用すると、ユーザーはほぼ瞬時に答えを得ることができます。これを実現するためには、ユーザーの一般的な回答を事前に入力したり、geoIPで場所を推測したりする方法が有効です。

ユーザーが入力しなければならない回数を最小限に抑えることで、ランキング上位にランクインし、リンクを生成するための優れたエクスペリエンスを提供できる可能性が最大限に高まります。

クイックアンサーエリアを備えた「What Is」トピックの利点

金融分野でよく使われるクエリタイプの一つに、「キーワードとは何ですか?」があります。ユーザーは複雑な金融に関する課題を理解しようとしており、このようなクエリを通じて情報を得ようとします。

Googleが進化する中で、SEO担当者としての私たちの目標は、ユーザーにできるだけ迅速に情報を提供することです。これを最も効果的に行う方法は、スクロールせずに見える範囲、主にサブヘッダーの部分で、簡単な回答を提供することです。

この戦略を実現するためには、コンテンツ領域のユーザーエクスペリエンス(UX)を再構築する必要がある場合もありますが、長期的なランキングを達成するためには、この方法を強くお勧めします。

さらに、定義を目立たせることで、他のサイトが自分の投稿でそれを参照する可能性が高まり、最終的には受動的なリンクを増やし、成功に繋がる重要な要素となります。

YMYLの編集レビュー

金融業界は「あなたのお金、またはあなたの人生」に深く関わる分野であり、ユーザーがクレジットカードを使用する前にその組織のアドバイスを信頼できることが非常に重要です。

この点を考慮すると、コンテンツは金融の専門家が執筆するか、少なくとも専門家によるレビューを受けることが強く推奨されます。また、著者と編集者の信頼性をWebサイト上で明確に示し、可能な限りファーストビューで信頼性を確立することが必要です。

例えば、Bankrateは、編集者に関する情報だけでなく、コンテンツに入る前に投稿のレビュー担当者に関する情報も提供することで、この点をうまく実現しています。これらのレビュー担当者の略歴はマウスオーバーで表示され、詳細を知りたい読者に迅速に信頼感を与える仕組みになっています。

UX、コンテンツ、リンク = $$$

要するに、フィンテックSEOとは、ページレベルでコンテンツの品質に投資し、リンク生成にリソースを投入して目標を達成することを意味します。そして、これらすべてを結びつけることで、世界クラスの製品を作り上げることができます。

その上で、最も競争が激しい用語のいくつかで上位にランクインするためには、何年も費やす覚悟が必要です。例えば、2語の金融用語で上位にランクインするためには、長期的なタイムラインで見ると、4年以上かかる場合があります。それでも、時間をかけて取り組む価値は十分にあります。

もし、タイムラインを短縮するためのサポートをお求めでしたら、フィンテックに特化したSEO重視のコンテンツマーケティングサービスについて、ぜひお問い合わせください。

やはりUX、コンテンツ、そして獲得が難しい自然リンクにフォーカスされた内容でした。シミュレーターがコンテンツとしてもリンク獲得の側面でも活路となる点は非常にうなずけます。「とは」に位置するコンテンツおいても、長期的なランキングを達成するためにスクロールせずに見える範囲で、簡潔な回答を提供する重要性を説いています。いわゆる「ゼロクリック対策」にも手を伸ばす必要がありそうですね。 – SEO Japan

seojapan

Googleスプレッドシート、GSC、ChatGPT API を使用して SEO分析を自動化する方法

1 year 3ヶ月 ago

この記事は、2025年1月30日に Search Engine Land で公開された  Ludwig Makhyan氏「Automate SEO analysis with Google Sheets, GSC & ChatGPT API」を翻訳したものです。

Google スプレッドシートを使えば、サイト監査の自動化、ページ分析、AIを活用した最適化のためのインサイト生成を一括で行うことができます。

SEO分析は多くの時間を要しますが、自動化を取り入れることで反復作業を減らし、重要なWebサイトの最適化を迅速に行えるようになります。

本ガイドでは、Googleスプレッドシート、Google Search Console(GSC)、ChatGPT APIを活用して、カスタムツールを構築し、SEO監査を効率化する方法を詳しく解説します。これにより、AIを活用した最適化のためのインサイト生成を一括で行うことができます。

このツールでできること

  • GSCデータの取得を自動化し、分析のスピードを向上させる
  • AIを活用して、実用的なSEOの改善提案を生成する

仕組み

まず、GSCに接続されているドメインからURLを選択し、ChatGPT APIキーを入力。その後、ページを分析し、AIを活用したSEOインサイトを取得します。すべての作業はGoogleスプレッドシート上で完結します。

自動化できるSEO分析とは?

このツールを設定すると、キーワードランキング、参照 URL、最終クロール日、robots.txt のインデックス作成ステータスなど、GSC からの主要な SEO データにすばやくアクセスできるようになります。

さらに、ChatGPTを活用することで、以下の項目を分析し、改善のための推奨事項を提供します。

  • タイトルタグ
  • メタディスクリプション
  • 見出しタグ
  • コンテンツの最適化
  • キーワードの配置
  • 内部リンクの構造
  • モバイル最適化
  • ローカルSEO対策
  • スキーママークアップ

このスクリプトはすべてを網羅できるわけではありませんが、数秒で詳細なページ分析情報を提供し、手作業にかかる時間を大幅に削減できます。
分析結果を確認した上で、どの推奨事項を実施するかを決定できます。

独自のGSCカスタムツール+スクリプトを設定する8つの手順

スクリプトの設定は一見複雑に思えるかもしれませんが、各手順を慎重に実行し、スクリプトをコピーして適切に動作することを確認すれば、スムーズに導入できます。

事前に準備するものは以下です。

  • ChatGPT APIキー
  • Google スプレッドシート
  • Google Search Console(リンクされたプロパティを含む)
  • Google Cloud Consoleのデータプロジェクト

それでは、このツールを稼働させるための8つのステップを順番に説明していきます。

ステップ1:ツール用のGoogleスプレッドシートを作成する

Googleアカウントをお持ちであれば、以下の手順で簡単に作成できます。

  1. Google ドライブを開く
  2. ツールを保存するフォルダーへ移動
  3. 画面の背景を右クリック
  4. [Google スプレッドシート] → [空白のスプレッドシート] を選択

シート名は自由に設定できますが、今回は「GSC カスタム ツール」と名付けました。

ステップ2:シートに入力する

D1 に ChatGPT API キーを貼り付けます。このキーがない場合は、上記のリンクにアクセスして、このツールが機能するために必要なキーを取得してください。

ここで、両方の列のいくつかの行を結合する必要があります。次の手順に従って、F2 ~ F30 と G2 ~ G30 を個別に結合します。

  • 結合する行を選択します。
  • [書式] > [セルの結合] > [垂直方向に結合]に移動します。

結合する必要がある F 行と G 行に対してこの手順を繰り返します。

ステップ3: Google Cloudプロジェクトを作成する

ツール用の Google Cloud Console データ プロジェクトを作成します。

セットアップが完了したら、「GSC Custom Tool」という名前の新しいプロジェクトを作成します。

Select Project > New Project に移動し、スクリーンショットの例と同様に情報を入力します。

プロジェクトの名前を設定したら、Create をクリックします。

次に、Google Search Console API をプロジェクトに接続します。

検索バーに「Google Search Console API」と入力して選択し、次の画面で「有効にする」をクリックします。

まだやるべきことはたくさんありますが、近いうちにこのプロジェクトを再検討する予定です。

さらに詳しく: SEO タスクを自動化する 5 つの Python スクリプト

ステップ4: アクセスライセンス情報を追加する

さらに調整するには、Google Cloud Console に戻ります。 

画面の左側にある「Credentials」をクリックします。

画面上部の「+CREATE CREDENTIALS」をクリックし、 OAuth Client ID を選択します。 

「Configure Consent Screen」に移動し、「External」を選択します。画面を作成し、以下の情報を入力します。

  • アプリ名
  • GSC アカウントにリンクされたサポートメール
  • 開発者の連絡先情報

入力後、「Save and continue」をクリックし、次の画面(「Add or Remove Scopes」)に進みます。

「Google Search Console API」のスコープを選択し、更新します。その後、「Save and continue」をクリックします。

アクセス権を付与したいユーザーを追加し、「Save and continue」をクリックします。

ステップ 5: GSC データ用の Google Cloud プロジェクトに変更する

ハンバーガーアイコンをクリックし、Cloud overview > Dashboard に移動します。

ページに表示されている プロジェクト番号 をコピーします。

プロジェクト番号に移動し、それを選択して CTRL + C でコピーします。

Google スプレッドシートのファイルを開き、Project Settings と書かれた歯車アイコンをクリックします。

テキストボックスにプロジェクト番号を貼り付け、Set project をクリックします。

ステップ6: Google Apps Scriptに名前を付ける

スクリプトの管理をしやすくするために、名前を追加します。

これを行うには、Project History に移動し、画面上部にある Untitled project をクリックします。

「GSC Custom Tool」と入力して、プロジェクト名を設定します。

ステップ7: マニフェストファイルを編集する

新しく作成した Google スプレッドシート ファイルに Apps Script を統合します。

これを行うには、ファイルを開き、Extensions > Apps Script に移動します。

次に、以下のコードをコピー&ペーストします。

(コードウィンドウ内のコードを選択し、CTRL + C を押してコピーします。その後、Apps Script に戻り、CTRL + V を押してコードを貼り付けます。)

{
  “timeZone”: “America/New_York”,
  “dependencies”: {},
  “exceptionLogging”: “STACKDRIVER”,
  “oauthScopes”: [
    “https://www.googleapis.com/auth/webmasters”,
    “https://www.googleapis.com/auth/webmasters.readonly”,
    “https://www.googleapis.com/auth/script.external_request”,
    “https://www.googleapis.com/auth/spreadsheets”,
    “https://www.googleapis.com/auth/spreadsheets.currentonly”
  ],
  “runtimeVersion”: “V8”
}

ステップ8: アプリスクリプトを作成する

すべてを貼り付けたら、Code.js ファイルに移動して次のコードを貼り付けます。

// Store the OAuth token and logs in script properties
const scriptProperties = PropertiesService.getScriptProperties();
const OPENAI_URL = “https://api.openai.com/v1/chat/completions”;
const SYSTEM_MESSAGE = { role: “system”, content: “You are a helpful SEO expert.” };


function log(message) {
  Logger.log(message); // Regular Apps Script logging
  const logs = scriptProperties.getProperty(‘customLogs’) || ”;
  scriptProperties.setProperty(‘customLogs’, logs + ‘\n’ + message); // Append message to logs
}


function resetLogs() {
  scriptProperties.deleteProperty(‘customLogs’); // Clear logs for a new execution
}


function getLogs() {
  return scriptProperties.getProperty(‘customLogs’) || ‘No logs available.’;
}


function fetchOAuthToken() {
  let token = scriptProperties.getProperty(‘oauthToken’);
  if (!token) {
    token = ScriptApp.getOAuthToken();
    scriptProperties.setProperty(‘oauthToken’, token);
    log(‘OAuth token fetched and stored.’);
  }
  return token;
}


function onOpen() {
  const ui = SpreadsheetApp.getUi();
  ui.createMenu(‘Search Console’)
    .addItem(‘Authorize GSC’, ‘promptReauthorization’)
    .addItem(‘Fetch GSC Properties’, ‘fetchGSCProperties’)
    .addItem(‘Inspect URL’, ‘inspectUrl’) // Add the Inspect URL button
    .addItem(‘AI Analyze’, ‘aiAnalyze’) // Add the AI Analyze button
    .addToUi();
}


function promptReauthorization() {
  const ui = SpreadsheetApp.getUi();
  const response = ui.alert(
    ‘Re-authorize Script’,
    ‘Re-authorizing will revoke current permissions and require you to authorize again. Do you want to continue?’,
    ui.ButtonSet.YES_NO
  );


  if (response === ui.Button.YES) {
    try {
      scriptProperties.deleteProperty(‘oauthToken’); // Clear old token
      const token = fetchOAuthToken(); // Fetch and store new token
      log(“OAuth Token: ” + token);
      ui.alert(‘Authorization successful. No further action is required.’);
    } catch (e) {
      ui.alert(‘Authorization failed: ‘ + e.toString());
    }
  } else {
    ui.alert(‘Re-authorization canceled.’);
  }
}


function fetchGSCProperties() {
  resetLogs();
  const sheet = SpreadsheetApp.getActiveSpreadsheet().getActiveSheet();
  const oauthToken = fetchOAuthToken();


  const sites = getSitesListFromGSC(oauthToken);


  if (!sites || sites.length === 0) {
    SpreadsheetApp.getUi().alert(‘No GSC properties found. Please ensure you have access to GSC properties.’);
    return;
  }


  const siteUrls = [‘Select a property’].concat(
    sites.map(site => site.siteUrl).sort()
  );


  sheet.getRange(‘A1’).setValue(‘Select GSC property’).setFontWeight(‘bold’);
  sheet.getRange(‘B1’).setDataValidation(
    SpreadsheetApp.newDataValidation()
      .requireValueInList(siteUrls, true)
      .build()
  );
  sheet.getRange(‘B1’).setValue(‘Select a property’).setFontWeight(‘bold’);
  sheet.setColumnWidth(1, 150);
  sheet.setColumnWidth(2, 350);
}


let isProcessing = false; // Global flag to prevent recursive triggering


function onEdit(e) {
  if (isProcessing) return; // Prevent re-entry during execution
  isProcessing = true; // Set flag to true


  try {
    resetLogs();
    const sheet = e.source.getActiveSheet();
    const range = e.range;


    // Always clear A3:D30 on edits to B1 or B2
    if (range.getA1Notation() === ‘B1’ || range.getA1Notation() === ‘B2’) {
      sheet.getRange(‘A3:D30’).clearContent();
      sheet.getRange(‘F1:G30’).clearContent();


      if (range.getA1Notation() === ‘B1’) {
        const selectedProperty = range.getValue();


        // Clear A2 and set loading state
        sheet.getRange(‘A2’).setValue(‘Loading results…’).setFontWeight(‘bold’);
        sheet.getRange(‘B2’).clearContent();


        if (selectedProperty === ‘Select a property’) {
          sheet.getRange(‘A2’).clearContent();
          sheet.getRange(‘B2’).clearContent();
          return;
        }


        const oauthToken = fetchOAuthToken();
        const urls = getUrlsForProperty(selectedProperty, oauthToken);


        if (!urls || urls.length === 0) {
          sheet.getRange(‘A2’).setValue(‘No URLs found’).setFontWeight(‘bold’);
          sheet.getRange(‘B2’).clearContent();
          log(`No URLs found for property ${selectedProperty}`);
          return;
        }


        sheet.getRange(‘A2’).setValue(‘Select a URL’).setFontWeight(‘bold’);
        sheet.getRange(‘B2’).setDataValidation(
          SpreadsheetApp.newDataValidation()
            .requireValueInList([‘Select a URL’].concat(urls), true)
            .build()
        );
        sheet.getRange(‘B2’).setValue(‘Select a URL’).setFontWeight(‘bold’);
      }


      if (range.getA1Notation() === ‘B2’) {
        const selectedProperty = sheet.getRange(‘B1’).getValue();
        const selectedUrl = range.getValue();


        if (selectedUrl === ‘Select a URL’) {
          return;
        }


        sheet.getRange(‘A3’).setValue(‘Loading keywords…’).setFontWeight(‘bold’);


        const oauthToken = fetchOAuthToken();
        const keywords = getTopKeywordsForUrl(selectedProperty, selectedUrl, oauthToken);


        if (!keywords || keywords.length === 0) {
          sheet.getRange(‘A3’).setValue(‘No keywords found’).setFontWeight(‘bold’);
          log(`No keywords found for URL ${selectedUrl}`);
          return;
        }


        // Populate keywords and metrics
        sheet.getRange(‘A3:D12’).clearContent(); // Clear any loading message
        keywords.forEach((keyword, index) => {
          if (index < 10) {
            sheet.getRange(`A${3 + index}`).setValue(keyword.query).setFontWeight(‘bold’);
            sheet.getRange(`B${3 + index}`).setValue(keyword.clicks);
            sheet.getRange(`C${3 + index}`).setValue(keyword.impressions);
            sheet.getRange(`D${3 + index}`).setValue(keyword.ctr);
          }
        });
      }
    }
  } catch (error) {
    log(`Error in onEdit: ${error}`);
  } finally {
    isProcessing = false; // Reset the flag after execution
  }
}


function getApiRequestDetails(selectedProperty) {
  const payload = {
    startDate: getThreeMonthsAgo(),
    endDate: getToday(),
    dimensions: [“page”],
    rowLimit: 100,
    orderBy: [{ fieldName: “clicks”, sortOrder: “DESCENDING” }]
  };


  const apiUrl = `https://www.googleapis.com/webmasters/v3/sites/${encodeURIComponent(selectedProperty)}/searchAnalytics/query`;
  return { url: apiUrl, payload: payload };
}


function getSitesListFromGSC(oauthToken) {
  try {
    const url = ‘https://www.googleapis.com/webmasters/v3/sites’;


    const headers = {
      ‘Authorization’: ‘Bearer ‘ + oauthToken,
      ‘Content-Type’: ‘application/json’
    };


    const options = {
      method: ‘get’,
      headers: headers,
      muteHttpExceptions: true
    };


    const response = UrlFetchApp.fetch(url, options);
    log(`Response Code: ${response.getResponseCode()}`);
    log(`Response Content: ${response.getContentText()}`);


    if (response.getResponseCode() === 200) {
      const json = JSON.parse(response.getContentText());
      return json.siteEntry || [];
    } else {
      throw new Error(`Error fetching data: ${response.getResponseCode()} – ${response.getContentText()}`);
    }
  } catch (e) {
    log(`Error: ${e.toString()}`);
    return [];
  }
}


function getUrlsForProperty(property, oauthToken) {
  try {
    const apiUrl = `https://www.googleapis.com/webmasters/v3/sites/${encodeURIComponent(property)}/searchAnalytics/query`;


    log(`API URL: ${apiUrl}`);
    log(`OAuth Token: ${oauthToken}`);


    const payload = {
      startDate: getThreeMonthsAgo(),
      endDate: getToday(),
      dimensions: [“page”],
      rowLimit: 100,
      orderBy: [{ fieldName: “clicks”, sortOrder: “DESCENDING” }]
    };


    log(`Payload: ${JSON.stringify(payload)}`);


    const headers = {
      Authorization: `Bearer ${oauthToken}`,
      “Content-Type”: “application/json”
    };


    const options = {
      method: “post”,
      contentType: “application/json”,
      headers: headers,
      payload: JSON.stringify(payload),
      muteHttpExceptions: true
    };


    const response = UrlFetchApp.fetch(apiUrl, options);


    log(`Response Code: ${response.getResponseCode()}`);
    log(`Response: ${response.getContentText()}`);


    if (response.getResponseCode() === 200) {
      const json = JSON.parse(response.getContentText());
      return json.rows ? json.rows.map(row => row.keys[0]) : [];
    } else {
      throw new Error(`Failed to fetch data: ${response.getResponseCode()} – ${response.getContentText()}`);
    }
  } catch (e) {
    log(`Error: ${e.toString()}`);
    return [];
  }
}


function getTopKeywordsForUrl(property, url, oauthToken) {
  try {
    const apiUrl = `https://www.googleapis.com/webmasters/v3/sites/${encodeURIComponent(property)}/searchAnalytics/query`;


    log(`API URL: ${apiUrl}`);
    log(`OAuth Token: ${oauthToken}`);


    const payload = {
      startDate: getThreeMonthsAgo(),
      endDate: getToday(),
      dimensions: [“query”],
      dimensionFilterGroups: [
        {
          filters: [
            {
              dimension: “page”,
              operator: “equals”,
              expression: url
            }
          ]
        }
      ],
      rowLimit: 10,
      orderBy: [{ fieldName: “clicks”, sortOrder: “DESCENDING” }]
    };


    log(`Payload: ${JSON.stringify(payload)}`);


    const headers = {
      Authorization: `Bearer ${oauthToken}`,
      “Content-Type”: “application/json”
    };


    const options = {
      method: “post”,
      contentType: “application/json”,
      headers: headers,
      payload: JSON.stringify(payload),
      muteHttpExceptions: true
    };


    const response = UrlFetchApp.fetch(apiUrl, options);
    log(`Response Code: ${response.getResponseCode()}`);
    log(`Response: ${response.getContentText()}`);


    if (response.getResponseCode() === 200) {
      const json = JSON.parse(response.getContentText());
      return json.rows ? json.rows.map(row => ({
        query: row.keys[0],
        clicks: row.clicks,
        impressions: row.impressions,
        ctr: row.ctr
      })) : [];
    } else {
      throw new Error(`Failed to fetch data: ${response.getResponseCode()} – ${response.getContentText()}`);
    }
  } catch (e) {
    log(`Error: ${e.toString()}`);
    return [];
  }
}


function getToday() {
  const today = new Date();
  return today.toISOString().split(“T”)[0];
}


function getThreeMonthsAgo() {
  const date = new Date();
  date.setMonth(date.getMonth() – 3);
  return date.toISOString().split(“T”)[0];
}


function inspectUrl() {
  const sheet = SpreadsheetApp.getActiveSpreadsheet().getActiveSheet();
  const url = sheet.getRange(‘B2’).getValue();
  const property = sheet.getRange(‘B1’).getValue();


  // Clear previous inspection results in A15:D30
  sheet.getRange(‘A15:D30’).clearContent();
  sheet.getRange(‘A15’).setValue(‘Inspecting…’).setFontWeight(‘bold’);


  if (!url || url === ‘Select a URL’) {
    SpreadsheetApp.getUi().alert(‘Please select a valid URL in cell B2 before inspecting.’);
    sheet.getRange(‘A15’).setValue(‘No URL selected’).setFontWeight(‘bold’);
    return;
  }


  const oauthToken = fetchOAuthToken();


  try {
    const result = callUrlInspectionApi(property, url, oauthToken);


    // Extract fields from the response
    const indexStatus = result.indexStatusResult || {};
    const mobileUsability = result.mobileUsabilityResult || {};
    const richResults = result.richResultsInfo || {};
    const referringUrls = indexStatus.referringUrls?.join(‘, ‘) || ‘None’;


    // Populate inspection results in the sheet
    sheet.getRange(‘A15’).setValue(`Inspection Results`).setFontWeight(‘bold’);
    sheet.getRange(‘A16’).setValue(`URL:`).setFontWeight(‘bold’);
    sheet.getRange(‘B16’).setValue(url);


    sheet.getRange(‘A17’).setValue(`Coverage:`).setFontWeight(‘bold’);
    sheet.getRange(‘B17’).setValue(indexStatus.coverageState || ‘Unknown’);


    sheet.getRange(‘A18’).setValue(`Robots.txt:`).setFontWeight(‘bold’);
    sheet.getRange(‘B18’).setValue(indexStatus.robotsTxtState || ‘Unknown’);


    sheet.getRange(‘A19’).setValue(`Indexing State:`).setFontWeight(‘bold’);
    sheet.getRange(‘B19’).setValue(indexStatus.indexingState || ‘Unknown’);


    sheet.getRange(‘A20’).setValue(`Last Crawled:`).setFontWeight(‘bold’);
    sheet.getRange(‘B20’).setValue(indexStatus.lastCrawlTime || ‘Not Available’);


    sheet.getRange(‘A21’).setValue(`Google Canonical:`).setFontWeight(‘bold’);
    sheet.getRange(‘B21’).setValue(indexStatus.googleCanonical || ‘Unknown’);


    sheet.getRange(‘A22’).setValue(`User Canonical:`).setFontWeight(‘bold’);
    sheet.getRange(‘B22’).setValue(indexStatus.userCanonical || ‘Unknown’);


    sheet.getRange(‘A23’).setValue(`Mobile Usability:`).setFontWeight(‘bold’);
    sheet.getRange(‘B23’).setValue(mobileUsability.verdict || ‘Unknown’);


    sheet.getRange(‘A24’).setValue(`Rich Results Eligibility:`).setFontWeight(‘bold’);
    sheet.getRange(‘B24’).setValue(richResults.verdict || ‘Unknown’);


    sheet.getRange(‘A25’).setValue(`Referring URLs:`).setFontWeight(‘bold’);
    sheet.getRange(‘B25’).setValue(referringUrls);


    // Log and alert full response for debugging
    const fullResponse = JSON.stringify(result, null, 2);
    log(`Full Inspection Result: ${fullResponse}`);
    //SpreadsheetApp.getUi().alert(`Inspection Completed. Full Response:\n\n${fullResponse}`);
  } catch (error) {
    sheet.getRange(‘A15’).setValue(‘Inspection Failed’).setFontWeight(‘bold’);
    log(`Error inspecting URL: ${error.message}`);
    SpreadsheetApp.getUi().alert(`Error inspecting URL: ${error.message}\n\nLogs:\n${getLogs()}`);
  }
}


function callUrlInspectionApi(property, url, oauthToken) {
  const apiUrl = ‘https://searchconsole.googleapis.com/v1/urlInspection/index:inspect’;


  const payload = {
    siteUrl: property,
    inspectionUrl: url,
    languageCode: ‘en-US’
  };


  const headers = {
    Authorization: `Bearer ${oauthToken}`,
    ‘Content-Type’: ‘application/json’
  };


  const options = {
    method: ‘post’,
    contentType: ‘application/json’,
    headers: headers,
    payload: JSON.stringify(payload),
    muteHttpExceptions: true
  };


  log(`API URL: ${apiUrl}`);
  log(`Payload: ${JSON.stringify(payload)}`);


  try {
    const response = UrlFetchApp.fetch(apiUrl, options);
    const responseCode = response.getResponseCode();
    const responseText = response.getContentText();


    log(`Response Code: ${responseCode}`);
    log(`Response Content: ${responseText}`);


    if (responseCode === 200) {
      const jsonResponse = JSON.parse(responseText);


      if (jsonResponse && jsonResponse.inspectionResult) {
        return jsonResponse.inspectionResult;
      } else {
        log(`Unexpected API Response Structure: ${responseText}`);
        throw new Error(‘Unexpected API response format. “inspectionResult” field is missing.’);
      }
    } else {
      log(`Failed API Call: ${responseText}`);
      throw new Error(`Failed to inspect URL. Response Code: ${responseCode}. Response: ${responseText}`);
    }
  } catch (error) {
    log(`Error during API call: ${error}`);
    throw new Error(`Error inspecting URL: ${error.message}`);
  }
}


function callChatGPT(prompt, temperature = 0.9, maxTokens = 800, model = “gpt-3.5-turbo”) {
  const sheet = SpreadsheetApp.getActiveSpreadsheet().getActiveSheet();
  const secretKey = sheet.getRange(‘D1’).getValue().trim(); // Retrieve the OpenAI API key from D1


  if (!secretKey) {
    throw new Error(“API Key is missing in cell D1. Please provide a valid OpenAI API key.”);
  }


  const payload = {
    model: model,
    messages: [
      SYSTEM_MESSAGE,
      { role: “user”, content: prompt }
    ],
    temperature: temperature,
    max_tokens: maxTokens
  };


  const options = {
    method: “POST”,
    headers: {
      “Content-Type”: “application/json”,
      “Authorization”: “Bearer ” + secretKey
    },
    payload: JSON.stringify(payload)
  };


  try {
    const response = UrlFetchApp.fetch(OPENAI_URL, options);
    const responseData = JSON.parse(response.getContentText());


    if (responseData.choices && responseData.choices[0] && responseData.choices[0].message) {
      return responseData.choices[0].message.content.trim();
    } else {
      log(“Unexpected response format from OpenAI: ” + JSON.stringify(responseData));
      return “Sorry, I couldn’t process the request.”;
    }
  } catch (error) {
    log(“Error calling OpenAI API: ” + error);
    return “Sorry, there was an error processing your request.”;
  }
}


function aiAnalyze() {
  const sheet = SpreadsheetApp.getActiveSpreadsheet().getActiveSheet();
  const url = sheet.getRange(‘B2’).getValue();
  const keywords = sheet.getRange(‘A3:A12’).getValues().flat().filter(Boolean); // Get non-empty keywords
  const inspectionData = sheet.getRange(‘A16:B20’).getValues();


  // Validate input fields
  if (!url || keywords.length === 0 || inspectionData.some(row => row.length < 2 || !row[0].trim() || !row[1].trim())) {
    SpreadsheetApp.getUi().alert(“Ensure the following are filled before running AI Analyze:\n- URL in B2\n- Keywords in A3:A12\n- Inspection data in A16:B20”);
    return;
  }


  // Prepare the prompt for ChatGPT
  const prompt = `
    Analyze this URL: ${url}
    Also the view-source version from: ${url}
    against these keywords: ${keywords.join(“, “)}
    Considering the URL inspection data from Google Search Console:
    ${inspectionData.map(row => `${row[0]}: ${row[1]}`).join(“\n”)}
    Suggest a short list of specific recommendations on how I can improve the page’s SEO. Make sure the recommendations include details such as change this to that, or add something, etc… Be concrete with SEO recommendations.
  `;


  // Display the prompt in G1
  sheet.getRange(‘G1’).setValue(“Prompt Sent to ChatGPT”).setFontWeight(“bold”);
  sheet.getRange(‘G2:G30’).clearContent(); // Clear previous content in column G
  sheet.getRange(‘G2:G30’).merge(); // Merge cells G2:G30
  sheet.getRange(‘G2’).setValue(prompt).setVerticalAlignment(“top”); // Add the prompt and align to top
  sheet.setColumnWidth(7, 400); // Set column G width to 400px


  // Call ChatGPT API
  const analysisResult = callChatGPT(prompt);


  // Display the result in the spreadsheet (Column F)
  sheet.getRange(‘F1’).setValue(“AI Analysis Result”).setFontWeight(“bold”);
  sheet.getRange(‘F2:F30’).clearContent(); // Clear previous content
  sheet.getRange(‘F2:F30’).merge(); // Merge the cells
  sheet.getRange(‘F2’).setValue(analysisResult).setVerticalAlignment(“top”); // Add the AI result and align to top
  sheet.setColumnWidth(6, 400); // Set column F width to 400px


  // Log the response
  log(“AI Analysis Completed: ” + analysisResult);
}

https://script.google.com/home/projects/12hdeVPtEQBTRuCUUkgzbMx6jKrj9ztgoZ2P4zadLAo0ofHBQpfiLqeYB/edit

完了したら、シートに戻って更新し、新しいSearch Console > Fetch GSC Properties を使用します。

使用しているアカウントを選択し、最終的に使用する予定のアプリを選択するように求められるまで、指示に従います。

すべてがうまくいけば、それをまとめ、新しいスクリプトを使用して最初の SEO 分析を実行するという楽しい部分に進むことができます。

スプレッドシート、GSC、ChatGPTツールを組み合わせる

これまで多くのことを行ってきましたが、ツールが実際に動作する様子を見てみましょう。仕組みは次のとおりです。 

  • Search Console > Authorize GSC に移動します
    • GSC に接続されているアカウントを使用していることを確認してください。異なるアカウントでは機能しません。
  • Search Console > Fetch GSC properties に移動します。
    • スプレッドシートの B1 セルに Select GSC property が表示されるようになります。
    • 分析したいドメインを選択し、B1 の URL を選択します。
  • Search Console > Inspect URL に移動します。
    • スプレッドシートに Inspection Results が表示され、カバレッジ、最終クロール日などの情報が確認できます。
  • 最後に、次の操作を実行します
    • Search Console > AI Analyze に移動します。
    • スプレッドシートの AI Analysis Result に結果が表示され、ページの主要要素と改善のための具体的なステップが提示されます。
  • 注意点
    • 指示をそのまま盲目的に従うのではなく、具体的な改善策として活用してください。
  • カスタムデータの追加
    • ChatGPT のプロンプトを変更 したい場合は、スプレッドシートの G2 セル(”Prompt Sent to ChatGPT” の下)を編集してください。

これで SEO 分析を効率化するスクリプトが完成!

GSC、Google スプレッドシート、ChatGPT を組み合わせることで、ページの最適化により多くの時間を費やせるようになります。

スクリプトを試しながら、自分に合った使い方を見つけてください!

詳しく見る: SEO に使用すべき 15 個の AI ツール

seojapan

Googleが警告:​​偽のGooglebotトラフィックに注意

1 year 3ヶ月 ago

この記事は、2024年12月16日に Search Engine Journal で公開された  Matt G. Southern氏の「Google Warns: Beware Of Fake Googlebot Traffic」を翻訳したものです。

重要点

  1. 多くのウェブクローラーがGooglebotを装っています。これにより、ウェブサイトの分析結果が歪められたり、サーバーリソースが無駄に消費されたりする可能性があります。
  2. 実際のGooglebotトラフィックは、Search Consoleリッチリザルト テストなどのGoogleツールを使用して確認できます。
  3. サーバーの応答やエラーパターンを監視することで、問題のあるクローラーを特定することも可能です。

GoogleのデベロッパーアドボケートであるMartin Splitt氏は、Googlebotを装ったリクエストの多くが実際にはサードパーティのスクレイパーによるものであることを指摘しています。彼は、「Googlebotであると主張するすべてのものが、実際にGooglebotであるとは限らない」と述べ、ウェブサイト所有者に注意を促しました。

偽のGooglebotが引き起こす問題

偽のクローラーは分析を歪め、リソースを消費し、サイトのパフォーマンスを正確に評価することを困難にする可能性があります。

正当な Googlebot トラフィックと偽のクローラー アクティビティを区別する方法は次のとおりです。

Googlebotの検証方法

トラフィックパターンを確認

異常なリクエストではなく、全体的なトラフィックパターンを確認することで、正規のGooglebotトラフィックと偽のクローラーを区別できます。
正規のGooglebotトラフィックは、リクエストの頻度、タイミング、動作が一貫しているという特徴があります。

偽の Googlebot アクティビティが疑われる場合、Splitt 氏は次の Google ツールを使用して検証することを推奨しています。

URL 検査ツール (Search Console)

  • ページにレンダリングされた特定のコンテンツが確認できれば、Googlebotが正常にアクセスしていることがわかります。
  • ライブテスト機能を使って、現在のアクセス状況をリアルタイムでチェック可能です。

リッチリザルトテスト

  • Googlebot アクセスの代替検証方法として機能します。
  • Googlebotがページをどのようにレンダリングしているかを確認できる。
  • Search Consoleにログインせずに使用可能。

クロール統計レポート

  • 検証済みのGooglebotリクエストに基づいた詳細なサーバー応答データを表示します。
  • 正当なGooglebotの動作パターンを特定するのに役立ちます。

注意事項

これらのツールは、Googlebotが何を見て何を実行しているかを検証するためのものです。ただし、サーバーログ内で偽装しているクローラーを直接特定することはできません。

偽のGooglebotからの保護方法

  1. サーバーログをGoogleの公式IP範囲と照合する。
  2. 逆DNSルックアップを使用して検証を行う。
  3. 上記のGoogleツールを活用して、Googlebotの正当な動作基準を確立する。

これらの対策を実施することで、偽のGooglebotによる影響を最小限に抑えることができます。

サーバー応答の監視

Martin Splitt氏は、Googlebotによるクロール要求に対するサーバー応答の監視が重要であると強調しています。
特に注意すべき点は以下の通りです:

  • 500番台のエラー
  • フェッチエラー
  • タイムアウト
  • DNSの問題

これらの問題は、大規模なウェブサイト(数百万ページをホストするサイトなど)のクローリング効率検索の可視性に重大な影響を及ぼす可能性があります。

Splitt氏は次のように述べています:

「サーバーがGooglebotに返した応答、特に500エラーの数、フェッチエラー、タイムアウト、DNS問題には注意してください。」

一部のエラーは一時的である場合もありますが、永続的な問題が確認された場合は、さらなる調査が必要です。

また、Splitt氏は高度な診断を行うためのサーバーログ分析の重要性を指摘しました。サーバーログ分析は簡単な作業ではありませんが、価値のある手段です。彼は以下のように述べています:
「Webサーバーのログを見ることは、サーバー上で何が起こっているかを理解するための強力な手段です。」
参照: Chrome、Edge、Safari、Firefox でユーザーエージェントを変更する方法

潜在的な影響

偽のGooglebotトラフィックはセキュリティ問題だけでなく、以下のようにウェブサイトのパフォーマンスやSEO施策にも影響を与える可能性があります。

Splitt氏は、ブラウザでウェブサイトにアクセス可能であっても、それがGooglebotのアクセスを保証するものではないと強調しています。また、次のような潜在的な障壁も挙げています。

  • Robots.txtの制限
  • ファイアウォールの設定
  • ボット保護システム
  • ネットワークルーティングの問題

今後の展望

偽のGooglebotトラフィックは厄介な問題ですが、通常は稀なケースであり、過度に心配する必要はないとSplitt氏は述べています。ただし、以下のような問題が発生した場合には適切な対策が求められます。

偽のクローラーのアクティビティが問題になったり、サーバーのパワーを過剰に消費したりしたとします。その場合、リクエストのレートを制限したり、特定の IP アドレスをブロックしたり、より優れたボット検出方法を使用したりといった対策を講じることができます。

このトピックの詳細については、以下の動画を参照ください。:

Google SEO Made Easy: Fake Googlebot Traffic

seojapan

問題解決クエリの74%に Google AIの概要が見つかる

1 year 3ヶ月 ago

この記事は、2025年1月28日に Search Engine Journal で公開された Matt G. Southern氏「Google AI Overviews Found In 74% Of Problem-Solving Queries」を翻訳したものです。

新たな調査によると、Google AIの概要(現 : AIO、旧 : SGE)は検索結果の30%に表示され、問題解決型のクエリでは約74%に出現しています。

※2024年5月【SGE】から【AIO(AI Overviews)】に名称を変更いたしました。
※旧名称【SGE】に関する記事はこちら↓
参考:SGEとは?生成AIによる新たな検索体験と対策

概要

・AI概要は、特にトラフィック量が多いクエリではなく、中程度の検索ボリュームを持つクエリに主に表示される傾向にあります。
・また、問題解決や質問ベースの検索クエリでは、AI概要が最も頻繁にトリガーされることが確認されています。
・さらに、信頼性の高い権威あるサイトは、AI概要に表示される可能性が高くなることがわかりました。

重要な調査結果

1. AI概要は検索結果の3分の1未満に表示

調査した10,000個のキーワードの29.9%にAI概要が表示されましたが、検索ボリュームの11.5%にとどまりました。特に月間検索ボリュームが501~2,400の中程度のクエリで約42%の表示頻度が見られます。

要点:AI概要は全体的な存在感は限られますが、中程度のボリュームのクエリではより一般的です。このことは競争の少ない分野でチャンスがあることを示唆しています。

2. 業界とユーザーの意図が影響要因

通信業界では56%と最も高い割合でAI概要にリンクされたキーワードが表示され、最も低かったのは美容と化粧品の14%でした。問題解決や質問ベースの検索クエリでは、AI概要が74%や69%の高い割合で表示されることが確認されました。逆に、特定のWebサイトの検索など、ナビゲーション型クエリではAI概要がほとんど表示されません。

要点:質問や問題解決を目的としたコンテンツは、AI概要に表示される可能性が高いです。シンプルな業界のブランドは、リスク認識や複雑な問題に関連するトピックを調査することが重要です。

3. 非ブランド用語はAI概要を生成する可能性が高い

非ブランドに関する検索の約33.3%でAI概要が表示されるのに対し、ブランド検索では19.6%と少ない割合で表示されます。ブランド検索は通常、購入に近い時期に行われるため、AI概要は潜在顧客の意思決定初期段階において、ブランド認識に影響を与えます。

要点:AI概要は潜在顧客の購入プロセスにおいて遅延を引き起こす可能性がある一方、意思決定の初期段階や中期段階でブランド認識に重要な影響を与える可能性があります。

4. 従来のオーガニック検索結果への影響

デスクトップの場合、「詳細を表示」をクリックするとAI概要が展開され、ページが約220ピクセル下に移動します。このため、画面上のオーガニック検索結果は下に押し出されることがあります。モバイルデバイスでは、スクロールなしで表示されるオーガニックリストは1つまたは2つに限られるため、SEO専門家にとっては新たな挑戦です。

要点:AI概要が検索結果ページ上部で大きなスペースを占めるため、ブランドは目立つ方法を見つけ、AI概要とその下の通常のオーガニック検索結果の両方に表示されることに重点を置くべきです。

5. 従来のランキングとの重複

上位ランクのURLがAI概要に表示される可能性は高いものの、必ずしもそうとは限りません。上位にランクされたページの約半分がAI概要に含まれており、上位10位外のページもいくつか表示されることがあります。また、注目のスニペットはAI概要と共存することが多く、注目のスニペットがある場合、AI概要にも60%以上の確率で記載される可能性があります。

要点:高いランキングや注目のスニペットはAI概要に表示される保証はありませんが、これらを最適化することで表示される可能性が高まります。競争力を維持するためには、明確で信頼性の高いコンテンツ作成を続けることが重要です。

6. 信頼とYMYL(あなたのお金かあなたの人生か)のトピック

特に金融やヘルスケアなど、専門知識が必要な分野で信頼性があるWebサイトは、AI概要に頻繁に取り上げられます。逆に、RedditやQuoraなどのサイトは検索結果で高いランキングを持っているものの、AI概要にはあまり言及されません。

要点:信頼できる意見、検証済みの情報、信頼性の高いコンテンツを持つWebサイトは、AI概要で引用される可能性が高くなります。

結論

AI概要はまだ比較的新しい機能ですが、特に一般的な質問や問題解決型のクエリでは、その影響が急速に拡大しています。特に、詳細な調査や大きな利害関係を伴う業界では、AI概要の表示頻度が増加し、上位の引用を巡る競争が激しくなるでしょう。

現在、あなたの地域でAI概要が目立たない場合でも、Googleが言語モデルを改善し、より多くのユーザー情報を収集するにつれて状況が変わる可能性があります。

SEO担当者と広告主に重要な2課題

1:AI概要に関連するキーワードやユーザーの意図を特定し、それに応じたコンテンツや広告戦略を調整すること

2:注目スニペットやEEAT(Expertise, Experience, Authoritativeness, Trustworthiness)信号の最適化を続け、AI概要のコンテキストで引用される可能性を高めること

seojapan

Google CEO:検索は2025年に大きく変わる

1 year 4ヶ月 ago

この記事は、2024年12月6日に Search Engine Journal で公開された Roger Montti 氏「Google CEO: Search Will Change Profoundly In 2025」を翻訳したものです。

GoogleのCEO、サンダー・ピチャイ氏は、ウェブエコシステムに対する懸念をうまく表現できずにいる一方で、2025年にGoogle検索が大きく変わると語っています。

ピチャイ氏は、ニューヨーク・タイムズのディールブック・サミットでアンドリュー・ロス・ソーキン氏からインタビューを受け、その中で2025年にGoogle検索に何が期待できるかについて話しましたが、コンテンツ制作者に対するGoogleの懸念を明確に表現するのに苦労しました。

インタビューでは、Googleが現在業界の他の企業と比べてどのような位置にいるのか、また「デフォルトの勝者」としてふさわしいかどうかについて尋ねられました。その際、ピチャイ氏は、これらの質問は「大きな変化の初期段階である」とインタビュアーに伝え、GoogleがAI分野でリーダーであり、追随者ではないことを強調しました。AI業界全体は、オープンソース化されたGoogleの研究成果、特にトランスフォーマー技術を基盤に構築されており、もしトランスフォーマーがなければ、現在のAI業界は存在しなかっただろうと述べました。

ピチャイ氏は次のように答えています。

「業界にとって、今は非常にダイナミックな瞬間です。これから起こることを考えると、私たちは大きな変化の初期段階にいると言えます。私たちはAIに対して非常に深いフルスタックのアプローチを採用してきました。」

「当社は世界クラスの研究を行っています。世代AIに関して言えば、私たちは世界で最も引用されている機関です。基礎研究からAIインフラストラクチャの構築、さらにはシリコンを基盤としたAIインフラの構築まで、私たちは第6世代のテンソル処理ユニットに取り組んでいます。また、先ほど当社の製品群について触れましたが、当社は5億人のユーザーを抱える15の製品を提供しており、基礎モデルを構築しています。これらの技術は社内で使用され、さらに300万人以上の開発者に提供されています。これはフルスタックの深い投資です。」

「私たちは次世代のモデルに向けて準備を進めており、これから多くの革新が待ち受けていると確信しています。私たちはこの分野の最先端をリードすることに注力しており、その方向で進んでいくつもりです。実際、今日、私たちは3Dシーンを作成するためのテキストと画像のプロンプトに関する画期的な研究を発表しました。この最先端技術は急速に進歩しており、2025年が楽しみです。」

ブルーリンクエコノミーとAI

インタビュアーは、GoogleがAIの先駆者だったが、その後はそうではなくなったと指摘し、特にOpenAIが2022年に急成長し、その後大成功を収めたことに言及しました。そして、ピチャイ氏に対し、Googleが「ブルーリンクエコノミー」を守るためにどれほどの費用をかけて、数千億ドルの価値を持つ「そのビジネスを傷つけたり食い物にしたりしないようにした」のかを尋ねました。

ピチャイ氏は、Googleのすべてのプロジェクトの中でAIが最も多く適用されているのは検索であり、BERT、MUM、マルチモーダル検索が検索品質のギャップを埋めるのに役立っていると答えました。また、検索業界の一部の人々が理解していないことは、2012年にGoogleが画像識別と音声認識にディープニューラルネットワークを使用し、2014年にはテキストの文字列を理解するシーケンストゥーシーケンス学習を世界に紹介した時点で、AIはすでにGoogleの一部になっていたという点です。さらに、2015年にはGoogleが検索結果のランキングに直接関連するAIシステムであるRankBrainを導入したこともあります。

ピチャイ氏は次のように答えました。

「社内で最も積極的にAIを適用した分野は検索で、検索品質のギャップはすべて社内で開発したTransformer技術に基づいています。私たちはこれをBERTとMUMと呼んでおり、検索をマルチモーダルにすることで検索品質を改善し、検索の言語理解を向上させました。これが、社内でTransformerを構築した理由です。」

「過去数年間を振り返ると、AIの進展を見て、Geminiは検索だけで10億人以上のユーザーに利用されています。」

2025年、検索は大きく変化する

ピチャイ氏は、検索が2025年だけでなく、その初めの段階でも大きく変化するだろうと語り続けました。さらに、革新しやすい段階はすでに実現されているため、今後の進展は以前よりも難しくなるだろうとも述べました。

彼は次のように言いました。

「私たちはまだ始まったばかりだと感じています。検索自体は、2025年に大きく変化し続けるでしょう。私たちはこれまで以上に複雑な問題に取り組むことができるようになると思います。そして、2025年の初めの段階でさえ、検索が現在と比べてどのような新しいことを可能にするのかに驚かされることでしょう。」

ピチャイ氏はまた、進歩は容易ではないとも強調しました。

「2025年を見据えると、進歩はより困難になると感じています。簡単に達成できる目標は、もう残っていないと思います。しかし、今後のブレークスルーや差別化の源泉となるのは、技術的なブレークスルーやアルゴリズムの進化、そしてシステムをどのように機能させるか、つまり計画や推論の観点からシステムをどう改善するかにあると考えています。これらが今後の技術的なブレークスルーとなるでしょう。」

検索はなくなるのか?

インタビュアーは、ピチャイ氏に対して、GoogleはAIに十分力を入れているのかを尋ね、ある著者の言葉を引用しました。その著者は、検索以外のAIや他のプラットフォームから答えを得ることが増えているため、Googleの「コアビジネスは危機に瀕している」と指摘し、オンラインコンテンツの多くがAIによって生成されるようになるため、検索の価値は「低下する」と述べていました。

これに対し、ピチャイ氏は、インターネットが偽のコンテンツで溢れている現状こそが、検索の価値をさらに高めると答えました。

ピチャイ氏は次のように述べました。

「コンテンツが溢れかえる世界では、検索のようなものがより価値を持つようになるでしょう。情報が氾濫している中で、信頼できるコンテンツ、つまり確実に使える方法で自分にとって意味のあるコンテンツを見つけるためには、検索の役割が一層重要になると思います。」

また、ピチャイ氏は以下のようにも述べました。

「先ほどおっしゃった通り、現在の世の中には膨大な情報が存在し、人々はさまざまな方法で情報を入手しています。情報は人類にとって本質的なものであり、私たちはその扱い方において多くの変遷を経てきました。例えば、Facebookが登場したとき、人々はYouTubeやFacebook、TikTokなど、まったく新しい方法で情報を入手するようになりました。挙げればきりがありません。」

「しかし、こうした情報消費の構造には多くの問題があると思います。その本質的な問題は、ゼロサム的な見方に基づいていることです。つまり、人々が情報を限られた方法で消費し、それをみんなで分け合っているかのように見えるのです。しかし、実際には人々が行っていることはそうではないのです。」

ピチャイ氏、クリエイターへの影響についての質問につまづく

インタビュアーは次に、コンテンツの価値が下がっているかどうかを尋ねました。具体的には、本のテーマについて調べ、20冊の本を読み、その出典を参考文献に引用して本を出版する人々を例に挙げました。一方で、Googleはあらゆるものを取り込み、一日中コンテンツを「吐き出し」、かつては本を書いていた人々を打ち負かしていると指摘されました。

アンドリュー・ロス・ソーキン氏は次のように語りました。

「それを百万回吐き出すことができるのです。一日に百万回。そして、最初にそれを作った人たちにとって、それが経済的にどうなっているのか疑問に思うのです。」

これに対し、ピチャイ氏は、Googleがパブリッシャーの「エコシステム」への影響や、パブリッシャーにどれだけのトラフィックを送っているかを考えるのに多くの時間を費やしていると述べ、Googleを擁護しました。インタビュアーはピチャイ氏の答えに耳を傾けましたが、重要な問題については触れませんでした。具体的には、Redditや広告で埋め尽くされた検索結果が実際の専門家が作成したコンテンツを押しのけ、ニュースコンテンツの優先順位が下がることで、世界中のニュース組織へのトラフィックに悪影響を与えていることについてです。

ピチャイ氏はこの時点で、返答の言葉を見つけようとしてつまずいたように見えました。彼はウェブサイトについて言及することを避け、「エコシステム」について抽象的に話し始め、そして話すことが尽きると方向転換し、YouTubeのコンテンツIDプログラムにサインアップした著作権保有者にGoogleがどのように補償しているかについて話し始めました。

彼はこう答えました。

「そうですね、それは…とても重要な質問です…ええと…私は…考えます…他のどの会社よりも…ご存知のとおり、私たちは長い間、検索においても、エコシステムに送信するトラフィックについて考えることに多くの時間を費やしてきました。これはよく議論されることですが、私たちはエコシステムに送信するトラフィックについて考えることに多くの時間を費やしています。過去数年間の移行期間中も、それは私たちにとって重要な優先事項です。」

続けて彼は、GoogleのコンテンツプラットフォームであるYouTubeと、著作権で保護されたコンテンツを識別するために使用される「コンテンツID」について話し始めました。コンテンツIDは、音楽、映画、テレビ業界の企業、つまり「YouTubeに頻繁にアップロードされる大量のオリジナルマテリアルに対する独占的権利を所有する」著作権所有者に利益をもたらすプログラムです。

ピチャイ氏は続けました。

「YouTubeでは、コンテンツを理解し、コンテンツIDでコンテンツを識別し、クリエイターの収益化を図ることに多大な努力を払っています。」

「私は…それらは重要な原則だと思います。新しいテクノロジーが登場したときに何がフェアユースなのかを理解することと、IPの価値、つまり人々が費やした努力に比例して価値を還元する方法との間には常にバランスがあると思います。」

アルファベットのCEOの洞察に満ちたインタビュー

インタビュアーは難しい質問をすることに成功しましたが、検索結果に詳しい検索マーケティングコミュニティの多くの人々は、GoogleのYouTubeプラットフォームに参加していないコンテンツクリエイターや、実際の専門家によるコンテンツを押し下げる非専門家のコンテンツについて、さらに詳細な質問をしたのではないかと考えられます。

ニューヨーク・タイムズでのインタビュー(英語)は、こちらからご覧いただけます。

注目の画像:Shutterstock/Shutterstock AI ジェネレーター

seojapan

GoogleはなぜEUで市場シェアを失っているのか?

1 year 4ヶ月 ago

この記事は、2024年12月3日に Search Engine Journal で公開された Kevin Indig氏「Why Is Google Losing Market Share In The EU?」 を翻訳した記事です。

EUにおけるGoogleの市場シェアの最新の動向と、それに関連する規制上の課題がGoogleのビジネスに与える潜在的な影響について詳しく見ていきます。多くのマーケティング担当者は、GoogleがEU諸国で検索市場シェアを失っていることに気づいていないかもしれません。

EU市場シェア低下の背景

この市場シェアの低下は、Googleのビジネスが危機的な状況にある時期に起こっています。

  • アメリカの司法省は、Googleの持ち株会社「アルファベット」に対する訴訟の中で、GoogleをChromeやAndroidから分離することを推奨しました。(この訴訟やその潜在的な結果については、Monopoly で触れています。)
  • 司法省はまた、Googleの広告事業に対して別の訴訟を起こしています。
  • カナダは、オンライン広告における反競争的行為を理由にGoogleを訴えました。
  • さらに、ChatGPTやPerplexityなどの企業は、急速に知名度と市場シェアを拡大しています。(ChatGPTの急成長については、ChatGPT Search で詳しく取り上げています。)
  • GoogleはEUで、デジタルマーケティング法(DMA)による厳しい規制に直面しています。この問題については、2 Internets で取り上げています。

このような背景を踏まえた上で、2つの重要な疑問が浮かび上がります。それは、市場シェアの低下がどの程度重要なのか、そしてその要因は何なのか、ということです。

簡単に言うと、このシェアの減少は、アルファベットが認めたくないほど深刻な問題です。減少は、競合他社にチャンスを与えるだけでなく、外部要因に対するGoogleの対応力を弱めています。確かに、Googleの収益は依然として堅調ですが、広告市場のシェアは低下しています。

規制、競合他社の台頭、そしてGoogleに対する否定的な感情が、シェア減少の主要な原因となっているようです。

そのため、マーケティング担当者は今後、より多くの検索エンジンを追跡し、最適化する必要が高まっています。また、競争がさらに細分化されることで、検索エンジンからウェブサイトへの参照トラフィックが増加する可能性も考えられます。

Googleで何が起こっているのでしょうか?

過去10年間におけるGoogleの市場シェアは、フランスで-5.6ポイント(パーセントポイント)、ドイツで-3.3ポイントと低下しました。StatCounterによると、2009年1月からデータを測定し始めた以来、これほど低いシェアは記録されていません。

フランスやドイツだけでなく、ほとんどのEU諸国では、過去5年間でGoogleの市場シェアが低下しています(主にモバイル市場で)。具体的には次のような変動が見られました:

  • オーストリア:-4.1ポイント
  • ポーランド:-3.1ポイント
  • スイス:-2.3ポイント
  • オランダ:-2.1ポイント
  • デンマーク:-1.5ポイント

さらに状況は過去12ヶ月間にも続いており、以下のようなシェアの変動が確認されています:

  • フランス:-4.6ポイント
  • オーストリア:-3.2ポイント
  • ポーランド:-2.4ポイント
  • ドイツ:-2.1ポイント
  • スイス:-1.3ポイント
  • オランダ:-1.0ポイント
  • デンマーク:-1.0ポイント

では、いったい何が起きているのでしょうか?トレンドが変化するタイミングを見ると、状況がより明確になります。その変曲点は、2018年11月と2024年4月の2つです。

データによれば、AndroidとAppleがブラウザや検索エンジンの選択画面を導入した1ヶ月後の2024年4月頃から、ユーザーがGoogleから離れ始めたことが示されています。

言い換えれば、Googleはモバイルデバイスやデスクトップデバイスにおけるデフォルトの検索エンジンではなくなり、その結果が徐々に表れ始めているのです。

とはいえ、すべての国でシェアが減少しているわけではありません。一体なぜなのでしょうか?

なぜ一部の国では市場シェアが平坦なのか?

Googleの市場シェアがEU諸国全体で低下しているわけではありません。具体的には、以下の国々ではシェアが比較的安定しています:

  • ポルトガル
  • スペイン
  • イタリア
  • アイルランド

なぜこれらの国々ではシェアが安定しているのでしょうか?これらの国々もヨーロッパの一部であり、ユーザーには選択画面が表示されるにもかかわらず、その理由はデバイスにあります。上記の国々では、デスクトップ市場ではGoogleのシェアは減少しましたが、モバイル市場ではシェアを失っていません。

EU全体でも同様の現象が見られます。過去5年間で、GoogleはEUにおけるモバイル市場で2.1%のシェアを失い、デスクトップ市場では10%のシェアを失いました。

なぜこのようなことが起きたのでしょうか?

その大きな理由の一つは、Appleとの独占的な販売契約です。Windowsは、主に企業向けのコンピュータでの優位性により、EUでのデスクトップオペレーティングシステムとして75%を超えるシェアを占めており、MacOSはわずか15.1%に過ぎません。

また、GoogleのOSであるAndroidはモバイル市場で66.5%のシェアを占めており、これに対してAppleのiOSは33%のシェアを持っています。

加えて、GoogleはAppleデバイスのデフォルトの検索エンジンとなるために200億ドルを支払っています。この契約により、モバイル市場におけるGoogleの地位は強固になっています。ただし、この状況は3月に施行されたDMA(デジタル市場法)によって選択画面が強制されるまでは続いていました。

しかし、Googleの市場シェアが低下した国々はどうでしょうか?これらは3月以前からすでにシェアが低下していた国々であり、その現象はかなり前から始まっていたのです。

なぜ一部の国では後退が早く始まるのでしょうか?

2018年11月には、すでにドイツやポルトガルなどの国でGoogleが市場シェアを失い始めていました。したがって、選択画面やデバイス固有のダイナミクス以外にも何かが影響しているに違いありません。

2018年には2つの重要な出来事がありました。1つ目は、欧州のデータ保護法であるGDPR(一般データ保護規則)が2018年5月に施行されたことです。2つ目は、EUがGoogleのAndroidに関する市場支配について独占禁止法違反と判断し、Alphabetに43億4,000万ユーロの罰金を科したことです。

これらの出来事は、Googleの市場シェアを直接的に減少させたわけではありませんが、Googleに対する不信感を高め、その結果、DuckDuckGoやBingなどの小規模な競合他社にスペースを提供することになりました。

ヨーロッパの人々はプライバシーに非常に敏感であり、規制上の罰金やプライバシー法が消費者行動に米国よりもはるかに大きな影響を与えています。例えば、欧州のプライバシーを重視した検索エンジンであるStartPageでは、検索トラフィックの56%がEUから、21%が米国から来ていることがわかっています。

プライバシーへの懸念が高まる中、ユーザーはGoogleを以前ほど利用しなくなっています。実際、フランスでは2018年11月に、一部の省庁がGoogleをデフォルトの検索エンジンとして使用しないことを宣言しました。※1

選択画面と世間の認識の変化が、Googleの衰退の最大の要因となっています。その影響として、Googleがウェブサイトに送る参照トラフィックの減少が見られています。では、その影響は何なのでしょうか?

Googleが失ったものを勝ち取るのはか?

Googleの衰退で最大の勝者はBingです。常に第2位の検索エンジンであるBingは、Googleの衰退から最も恩恵を受けています。

特に、ChatGPTとMicrosoftとの密接な関係が、当初予想されていたよりもヨーロッパでBingの検索エンジンに大きな後押しを与えた可能性が高いですが、Bingも依然としてコンサルタントの中では第2の選択肢として位置づけられています。

ただし、現時点ではこれらの数字はまだわずかであり、DuckDuckGo、Ecosia、QWANTなどの検索エンジンは、BingやGoogleから検索結果のライセンスを取得しています。言い換えれば、現在のところ、GoogleとBingが検索エンジンの勝者と言えるでしょう。

しかし、EcosiaとQWANTは、他の検索エンジンから独立するため、共同でウェブインデックスの作成に取り組んでいます。DuckDuckGoや他の企業が独自のインデックスを発表するまで、どれくらいの時間がかかるのでしょうか?

アルファ(大手企業)が弱くなると、より小さな企業たちがその隙間を狙ってチャンスを見つけます。

Googleの検索収益が依然として成長する理由

市場シェアが減少しているにもかかわらず、Googleの検索収益は依然として規模から見て驚異的な成長を続けています。その理由は何でしょうか?

市場シェアが必ずしも検索ボリュームや収益化可能なクエリと相関するわけではないからです。モバイル検索はデスクトップ検索よりも多く、モバイル検索の減少幅は比較的小さいことが影響しています。Googleは他の市場では依然として優位に立っており、EU市場の変動はGoogleの収益に深刻な影響を与えるには十分ではない可能性もあります。

また、Googleは市場シェアの低下以上に検索収益化に積極的に取り組んでおり、その成長を維持しています。来年には相対的な広告収入の伸びが50%を下回ると予測されていますが、これは絶対的な伸びよりも良い指標となる可能性があります。

さらに、このデータには注目すべき点があります。StatCounterは150万のサイトから参照トラフィックを測定してデータを収集していますが、Googleがウェブサイトに送るトラフィックを減らし、自社内に留めることで、この数字に影響を与えている可能性があります。

「EUにおけるGoogleの市場シェアの低下」の意味は?

EUにおけるGoogleの市場シェアの低下、さらに潜在的な独占禁止法の救済措置(例えば、Appleとの販売契約の強制終了)や競争の激化が相まって、検索市場はさらに細分化される可能性が高いと言えます。

言い換えれば、今後、より多くの検索エンジン向けに最適化する必要が出てくるかもしれません(再び)。これらの検索エンジンは、ランキングに関してはほとんど同じように機能しますが、サイト所有者がBingのIndexNOWとの統合など、専用のインデックス作成アクションを実行する必要があるかもしれません。

また、ChatGPTがBingの検索結果を使用していることが明らかになったため、私たちはすでにBing Webマスターツールを再利用しています。次に注目すべきは、Perplexity Webマスターツールでしょうか?市場シェアの拡大に後押しされ、SEOの専門家はBingにもっと注意を払うべき時期に来ていると言えます。

驚くべきことに、他の検索エンジンにはまだウェブマスターツールがありません。ポータルサイトよりも、サイト所有者との関係を育むのに適した方法があるのではないでしょうか?

インデックスの独立性が高まるにつれて、このようなツールは今後現実となる可能性があります。

皮肉なことに、Googleに対する独占訴訟は、Googleが競争相手を増やし始めたタイミングで起こされました。Alphabetのような巨大企業にとって、市場シェアの1%でも、年間経常利益(ARR)が17億5000万ドルを生み出す可能性があるのです。

ブラウザは検索エンジン戦争において重要な役割を果たしています。司法省はChromeがGoogleから撤退するよう圧力をかけており、OpenAIは独自のブラウザの開発に取り組んでいます。※2

私の意見では、OpenAIはArcを買収すべきだと思います。いずれにせよ、ブラウザは究極のインターネットユーザーインターフェイスであり、検索エンジンが処理できる以上のユーザー情報を提供します。

ここで明確にしておきたいのは、私はGoogleが失敗する運命にあるとは思っていないということです。Googleには「新しいAIの世界」でトップに立つための要素がすべて揃っています。Googleが失敗する唯一の理由は、自らがその足を引っ張ることになるからです。

1.フランスはオンラインの独立を取り戻すためにGoogleを捨てる

フランスは、Googleからの独立を目指して、フランスとドイツの検索エンジンであるQwant(ユーザーを追跡しない仕様を採用)を使用する。この動きは、EU内でのオンラインプライバシーと競争に対する強い関心が反映されたものです。フランス政府は、Googleが提供する検索エンジンの支配を減らし、他の選択肢を促進するために、より厳しい規制を導入することを選びました。

参考:https://www.wired.com/story/google-france-silicon-valley/

2.OpenAIはブラウザでGoogleに対抗することを検討している

OpenAIは、ChatGPTを統合したウェブブラウザの開発を検討しており、検索機能強化のための契約も進めていると報じられています。既にプロトタイプが存在し、複数のウェブサイトやアプリ開発者と協議を行っています。

この動きは、ブラウザ市場と検索市場で大きなシェアを持つGoogleとの競争を引き起こす可能性があり、OpenAIは自社のAI機能をSamsung製デバイスに搭載することも検討しているとのこと。Googleが支配しているブラウザ市場に挑戦し、ユーザー体験を革新しようとするものです。

参考:https://gigazine.net/news/20241122-openai-considers-taking-on-google-with-browser/

seojapan

構造化データとSEO:2025年に知っておくべきこと

1 year 5ヶ月 ago

本記事は、2024年10月 7日に Search Engine land で公開された Olya Ianovskaia「Structured data and SEO: What you need to know in 2025」を翻訳した記事です。

構造化データがなぜ重要なのか、使用するべき主要なスキーマタイプ、そしてリッチリザルトの可視性を最大化するための高度なテクニックについて解説します。

検索エンジンは、ユーザーエクスペリエンスを向上させるために構造化データへの依存をますます強めており、この傾向は2025年以降も続くと考えられます。そのため、構造化データは単なる「付加価値」ではなく、あらゆるSEO戦略において欠かせない要素となっています。

ここでは、構造化データが重要な理由、注目すべきトレンド、主要なスキーマタイプ、高度な技術を含む「構造化データ」についての基礎と応用を詳しく説明します。

構造化データとは?

構造化データとは、ウェブページ上のコンテンツを整理し、ラベル付けするための標準化された形式です。これにより、検索エンジンはコンテンツをより効率的に理解できるようになります。

たとえばGoogleは、構造化データを活用することで、検索結果画面(SERP)において拡張リストやリッチリザルトといった特別な機能を表示しています。これらの機能を通じて、特にエンティティベースの検索で、ウェブサイトの可視性とオーガニックリーチが向上します。

構造化データの構成要素

1. 語彙(Vocabulary)
構造化データで最も一般的に使用される語彙は、オープンソースのフレームワークであるSchema.orgです。このライブラリには、広範な「タイプ」と「プロパティ」が含まれています。

例として、ProductやEventといった数百種類の定義済みタイプ、またname、price、descriptionのようなプロパティがあります。これらは、コンテンツの種類や特性を詳細に指定するために使用されます。

2. 形式(Format)
構造化データを実装する際には、Googleなどの検索エンジンが推奨するJSON-LD(JavaScript Object Notation for Linked Data)が最適な形式とされています。

JSON-LDは、構造化データをHTML内の<script>タグにカプセル化する形で実装し、HTML本体から分離することで柔軟性が向上します。この形式は特に、大規模なウェブサイトでの動的コンテンツ管理に有用です。さらに、実装が簡単でメンテナンスの手間も軽減される点が特徴です。

3. 検証(Validation)
リッチリザルトを獲得するためには、構造化データを正しく実装することが不可欠です。そのため、以下のようなツールを活用して検証を行うことが推奨されます。

  • Google リッチリザルト テスト
  • スキーマ マークアップ バリデーター

これらのツールは、スキーマのエラーや不足を検出し、構造化データが有効かつ検索エンジンで正しく処理されることを確認します。

構造化データがこれまで以上に重要になる理由

構造化データは、検索エンジンがウェブサイトのコンテンツをより深く理解し、ページのインデックス化や検索結果での表示方法を向上させるための重要な手段です。

これにより、ブランドは音声検索や画像検索といった競争の少ない検索分野でオーディエンスにリーチすることが可能となり、従来のSEOの枠を超えてトラフィックやエンゲージメントを促進することができます。

ゼロクリック検索とブランドの権威性

近年、ナレッジパネルや注目のスニペットなど、多くのSERP機能が検索結果内で直接回答を提供するために構造化データに依存しています。これにより、ユーザーはパブリッシャーのサイトを訪れることなく必要な情報を取得できるようになり、いわゆる「ゼロクリック検索」が増加しています。

ゼロクリック検索の普及により、構造化データはSEOにおいてさらに重要な役割を果たすようになりました。これらのSERP機能は、クリックによる訪問を直接的に促進することが難しい場合もありますが、次のような効果をもたらします。

  • オーガニックインプレッションの増加
  • ブランド認知度の向上
  • ユーザーとのインタラクション維持

さらに、リッチリザルトに頻繁に表示されることで、トップオブマインド認知度(TOMA)が強化されます。特に、信頼性と権威性を評価するEEAT(専門性・権威性・信頼性)の観点から、信頼されるブランドを築くことがSEOの成功に欠かせません。

2025年に注目すべき主要なスキーマタイプ

新しいスキーマタイプが定期的に登場する中で、以下の「エバーグリーン」と呼ばれるスキーマタイプは、その有効性が長期的に実証されています。

1. 電子商取引(eコマース)

  • Productスキーマ
    製品の詳細情報(例:価格、在庫状況、レビュー)を検索エンジンに提供するため、eコマースサイトには不可欠です。このスキーマは、SERP内での製品カルーセルやレビューのスター評価といったリッチリザルトを強化し、クリックスルー率(CTR)を大幅に向上させます。
  • Offerスキーマ
    Productスキーマと組み合わせることで、新規のeコマースサイトがGoogleショッピングを活用し、早期段階での認知度向上とトラフィック獲得を実現します。
  • AggregateOfferスキーマ
    同じ製品について複数の販売者のオファーを表示し、ユーザーが価格や選択肢を比較できるようにします。これにより、マーケットプレイス型のウェブサイトに適しています。

2. 情報提供

  • FAQスキーマ
    一般的な質問とその回答を検索結果に直接表示でき、リッチリザルトや音声検索での可視性を向上させます。簡潔な回答を提供することで、ユーザーエンゲージメントを高める効果があります。
  • Q&Aスキーマ
    ユーザーが質問を投稿し、複数の回答を得られるページに最適です。フォーラムやコミュニティベースのプラットフォームでよく活用され、SERP内のQ&Aカルーセルを強化します。これにより、ロングテールクエリや会話型検索のCTRと可視性が向上します。
  • Articleスキーマ
    GoogleニュースやDiscover、トップストーリーのカルーセルでの可視性を高め、音声検索での露出も促進します。

3. イベント

  • Eventスキーマ
    コンサート、会議、ウェビナー、ローカルミートアップなど、仮想または物理的なイベントの詳細をマークアップするために使用されます。日付、場所、開始・終了時刻、チケットの空き状況、出演者といった情報を提供し、Googleのイベントリストに掲載されることで、ローカル検索やイベント関連検索での可視性が向上します。
  • BroadcastEvent・ScreeningEventプロパティ
    ライブイベントや上映会の検索結果での表示を強化し、特定の視聴体験を探しているユーザーにアピールします。

2025年に構造化データを活用する方法

以下のアプローチは特に目新しいものではありませんが、ユーザーの行動が進化し続ける中で、2025年までにその重要性がさらに高まると予測されています。

エンティティベースの検索

エンティティベースの検索では、検索エンジンが個別のキーワードではなく、エンティティ(人、場所、物、概念)を優先して扱います。
これにより、検索エンジンは単語そのものやその間の関係だけでなく、エンティティ間のつながりや、それらがどのように広い文脈に適合するかを深く理解できるようになります。

  • Personスキーマ、Organizationスキーマ、Placeスキーマ
    関連するエンティティを明確に定義することで、ナレッジグラフやエンティティベースの検索結果での可視性を向上させることが可能です。
  • SameAsスキーマ
    特定のエンティティが他の信頼性のある情報源(Wikidata、Wikipedia、信頼できるソーシャルメディアプロファイルなど)と一致することを検索エンジンに伝えるために使用されます。これにより、関連性が強化され、ナレッジグラフやリッチ検索結果での認知度やリーチが拡大します。

これらのスキーマを活用することで、Googleがコンテンツをより深く理解できるようになり、SEOの成果がさらに向上します。

Speakableスキーマ

Speakableスキーマ(現在Googleでベータ版)は、音声検索結果の最適化に役立つ重要なツールです。

  • 機能
    検索エンジンがWebページ内で音声再生に適したセクションを識別する際に利用されます。特に、Googleアシスタント対応デバイスでのテキスト読み上げ(TTS)に使用されるコンテンツに適しています。
  • 目的
    ユーザーの質問に対して簡潔かつ明確な音声回答を提供することです。この機能は特にニュースサイトや出版社に適しており、重要な情報を効率的にユーザーに届ける手段となります。

マルチモーダル検索

マルチモーダル検索は、テキスト、画像、音声など複数の形式の入力を組み合わせて検索クエリを実行できる機能です。このトレンドは、異なるデータ形式を同時に処理するAIモデルによって支えられています。

  • VideoObjectスキーマ・ImageObjectスキーマ
    マルチメディアコンテンツを適切に理解し、インデックス付けし、ランク付けできるようにします。これにより、画像や動画の可視性が向上し、より多くのトラフィックを獲得できます。

スキーマのネスト

スキーマのネストは、構造化データ内で複雑な関係を表現するための方法です。これにより、検索エンジンはデータポイント間の接続を理解し、コンテキストに基づいたリッチリザルトを提供できます。

  • ネストの例
    たとえば、以下のようなスキーマをネストして利用することが考えられます。
    • Productスキーマ内にOfferスキーマをネストし、それをさらにLocalBusinessスキーマ内に含める。
      → 製品の在庫状況、価格、販売場所に関する階層化された情報を提供します。
    • Recipeスキーマ内にHowToスキーマをネストし、さらにPersonスキーマを含める。
      → 特定の人物(著者やシェフ)が作成したレシピの材料、調理手順、栄養情報を詳細に記述します。
  • 実用例
    Recipeスキーマを使用することで、検索エンジンは次のような情報をリッチリザルトとして表示できます:
    • レシピの作成者(Personスキーマで定義されたシェフの名前やプロフィール)
    • 料理の手順(HowToスキーマで整理されたプロセス)
    • 材料や栄養情報(Recipeスキーマのデータ)
  • 主な利点
    ネストされたスキーマにより、検索エンジンはコンテキストを深く理解し、ユーザーの検索意図に応じて情報を適切に優先順位付けできます。また、リッチリザルトを通じて検索結果の視認性を大幅に向上させます。

構造化データで検索の可視性を最大化する

構造化データは、現在すでに多くのWebサイトにとって、規模を問わずSEO成功の鍵となる要素の一つです。
数百種類におよぶスキーマタイプ、数十種類のGoogleの検索結果ページ(SERP)の機能、さらにはAIや音声検索の用途が広がる中で、構造化データの重要性は2025年以降もますます増していくと予想されています。

Googleをはじめとする検索プラットフォームが進化し続ける中で、構造化データを慎重かつ創造的に活用することが、競争上の大きな優位性をもたらします。
これにより、現在利用可能な機能の可視性を最大化するだけでなく、将来的なチャンスを捉えるための準備を整えることが可能になります。

seojapan

Google ヘルプフルコンテンツアップデートの回復に寄与した5つの要因(と寄与しなかった3つの要因)

1 year 5ヶ月 ago

本記事は、2024年10月14日に Search Engine land で公開されたLeigh Stark氏「5 things that led to a Google HCU recovery (and 3 that didn’t)」を翻訳した記事です。

Googleのヘルプフルコンテンツアップデート(HCU)は、多くのWebサイトにとって大きな課題となっています。しかし、これに適切に対応することで、回復や改善につながる可能性があります。

ウェブの競争が激化する中、2024年は出版業界にとってまさにジェットコースターのような年でした。AIが検索結果に与える影響が増大し、競争がさらに激しくなる中、Googleの絶え間ないアップデートに対応しながらランキング上位を維持するのは簡単ではありません。

特に、HCUによって多くのサイトがトラフィックの減少やランキングの低下に苦しんでいます。この状況を経験した結果、万能の解決策は存在しないと痛感しました。しかし、戦略的な変更を加えることで、回復への道筋をつけることは可能です。ここでは、私自身がどのように取り組んだのか、また他の出版社がこの経験から何を学べるかをお伝えします。

GoogleのHCU(ヘルプフルコンテンツアップデート)への対処

まず一つ明らかにしておきます。Googleは「ヘルプフルコンテンツアップデート」という表現を好まないようです。これはシステム全体の一部として機能しており、定期的に異なる信号の重み付けが再解釈されるものだからです。

とはいえ、HCUは多くの人々にとって大きな課題となり、ランキングの急落やトラフィックの激減を招きました。一部のサイトにとっては、このアップデートがフラストレーションや失望、そして「Googleは我々を気にかけていないのではないか」という感情を呼び起こすきっかけにもなったでしょう。

私自身、Googleのファンではありません。また、この巨大検索エンジンがいくつかの間違いを犯していると信じています。しかし、ただ傍観しているだけではありませんでした。それは私の性格に反します。

2023年9月、HCUが展開された際、私が運営するオーストラリアのテクノロジーWebサイト「Pickr」は新たな課題に直面しました。このアップデートにより、ランキングが大幅に低下したのです。イライラしながらも、私は手をこまねいて待つつもりはありませんでした。

そこで、あらゆる方法を試みました。サイトの更新をスピードアップし、調査と実験を繰り返し、さらにさまざまな施策を講じました。そのたびに記録を取り、次に活かすことを意識しました。

2024年3月に次のアップデートが行われましたが、状況は変わらず、さらに秋を迎えても目立った改善は見られませんでした。他の影響を受けた出版社コミュニティと同様に、「これはペナルティではないか」と感じながらも、試行錯誤を続けました。

そして2024年8月、再びアップデートが行われたその日、ついに変化が現れました。サイトは部分的ではあるものの回復を見せ、2024年3月のアップデート以前の状態に戻ることができたのです。

ただし、2023年9月以前の大きなトラフィックが完全に戻るかどうかは不明です。なぜなら、状況が変化し、アルゴリズムもそれに合わせて進化しているからです。それでも、私の取り組みの一部が成果を出しているように見え、今後の改善に希望を抱いています。

まだ道半ばです。「知る人ぞ知る」という精神で、ぜひお使いのツールで「Pickr」をチェックしてみてください。回復が進んでいるか、確かめることができるでしょう。

ここからは、私の試行錯誤から得られた教訓を共有します。改善のヒントがそこにあります。

私はサイトを改善するために何十もの取り組みを行いましたが、どれか一つが決定的な要因だったわけではありません。むしろ、多くの小さな努力が積み重なり、全体として大きな成果を生んだのです。

いくつかの施策は私のサイトに特有のものでしたが、幸いなことに、多くは他のサイトでも応用可能なものでした。他のパブリッシャーもこの経験から学び、次のGoogleアップデートの際に、自分たちの成功を手にできるようになるはずです。そのためには、HCUが何を意味するのかについての考え方を変える必要があるかもしれません。

1. コンテンツを徹底的に内省する

SEOの実務で得た大きな教訓の一つは、コンテンツとページの監査を定期的に行うことの重要性です。自分たちが提供しているコンテンツが本当に優れているのかを検証することは非常に有益です。

多くのサイト運営者と話して感じたのは、多くの人が自分たちのコンテンツは良いものだと信じているということです。特に、パフォーマンスの良いページがいくつかある場合、それだけで問題ないと考える傾向があるようです。「Googleが間違っているに違いない」と結論づけるのもよくある反応です。

しかし、本当の問題は、自分のサイトと他のサイトをどう比較するかにあります。自分のコンテンツが良いと思っていても、競合のコンテンツがさらに優れている可能性は否定できません。Googleは膨大な量のコンテンツを比較して評価するため、「競争に勝てるほど優れていない」と考えるのが現実的です。

コンテンツの質について冷静に考える必要があります。たとえ自分やチームが優れたライターであっても、必ずしも最高のコンテンツが作れているとは限りません。適切な内部リンクや、信頼できる外部リンク、そしてそれらのリンクに関する十分な文脈が欠けていることも多いでしょう。

私が携わった多くのサイトでは、コンテンツのバランスが大きな課題でした。素晴らしいページが10~20%ほどある一方で、残りの大半は「まあまあ」か、それ以下の品質だったのです。この問題はページ数が増えるほど深刻になります。

たとえば、100ページあるサイトでは10~20ページが素晴らしくても、残り80ページが質の低いものであれば、全体の評価に悪影響を及ぼします。大規模サイトでは、この傾向がさらに顕著になります。先日、15,000ページ以上を持つパブリッシャーと話しましたが、その中で素晴らしいと言えるのは10%にも満たない印象でした。

Googleの視点を理解する

Googleはサイトに提出されたすべてのコンテンツを分析し、それをもとにサイト全体を評価します。仮に提出したコンテンツのうち、最高品質といえるものが全体の10%しかない場合、Googleがそのサイトを高く評価することを期待するのは難しいでしょう。

これはHCUにおける「人を傷つけるコンテンツ」に該当する部分です。しかし、コンテンツの監査を実施することで、これを改善する道が開けます。監査は時間と労力がかかり、広範囲に及ぶため疲れる作業ですが、その価値は大きいです。ブランドやサイトの現在の姿を正確に反映していないコンテンツが見つかる可能性が高く、それらを削除または非インデックス化することで改善につなげられます。

どのコンテンツが自分たちを苦しめているのか、批判的に考えましょう。その分析と対応が、サイト全体の評価を大きく向上させるきっかけとなります。そして、それが最終的には回復への道を切り開くのです。

2. より役に立つ方法を見つける

コンテンツを批判的に見直す話題に触れた今、Googleが「役立つコンテンツ更新(HCU)」を通じて目指そうとしていた本質を考えてみましょう。GoogleはHCUを、「役に立つ」ことだけを目的として設計したと説明しましたが、アップデートの影響で多くのサイトが苦戦した現実を踏まえると、改めて自分のサイトがどのように役立っているか、あるいはどのように役立たせるべきかを考える必要があります。

もちろん、私たちのウェブサイトが役立つよう努めていたとしても、必ずしもそれがGoogleの定義する「役立つ」に合致しているとは限りません。情報を提供したり、エンターテインメント性を持たせたりすることが目的のサイトであっても、それが直ちに「役立つ」とみなされるわけではありません。この点は、Googleが「役立つ」という基準を標準化しようと試みているため、私たちとしてもそれを考慮しなければならないのです。

「役立つ」の曖昧さを理解し、対応する

問題の一部は、GoogleがHCUについて非常に曖昧な立場をとっていることにあります。「役立つコンテンツ」とは具体的に何を指すのか?Google自身がその定義を慎重に避けている以上、私たちはどう解釈すれば良いのでしょうか。

むしろ、「役に立つコンテンツの更新」という名前の方が現実に即しているかもしれません。この名前も曖昧ですが、少なくとも「何を改善すべきか」を考えるきっかけを与えてくれます。役立つコンテンツをどう評価するのかは完全には分からなくても、自分のページを見直し、「何を削除するべきか」「どう改善するべきか」を判断することは可能です。

自問するべきことは「ユーザーのための価値

ページやコンテンツを評価する際に、次の質問を自分に投げかけてください。

  • 各記事やページの要素は、ユーザーにとって本当に価値を提供しているか?
  • コンテンツをもっと「役立つ」ものにするために、何を変えることができるか?

たとえば、以下のような改善策を検討できます

  1. 目次の追加
    長い記事では特に、目次を追加することでユーザーが必要な情報に迅速にアクセスできるようになります。
  2. サブヘッドラインの見直し
    サブヘッドラインが分かりやすいか、標準的な順序で情報を提供しているかを確認してください。
  3. ページ全体の自動化改善
    レイアウトの最適化やフォントサイズの調整など、視覚的に見やすい工夫ができるか検討しましょう。
  4. インデックス付きタグやカテゴリページの活用
    サイト内でタグやカテゴリが分かりやすく整理されていれば、ユーザーが目的の情報を見つけやすくなります。
  5. 説明文の追加
    タグやカテゴリページに短い説明文を加えることで、それらのページが検索エンジンにもユーザーにも役立つものになります。
  6. 他の改良点を模索する
    ユーザーにとってウェブサイトがより有益になるための手段を積極的に探してください。

次のアップデートに向けて準備する

こうした改善を迅速に実行に移すことが重要です。次のGoogleアップデートはいつ行われてもおかしくありません。その時に備え、今のうちに役立つコンテンツへの見直しを進めておくことで、より高い評価を得るチャンスを広げられるでしょう。

3. 透明性を保ち、嘘をつかない

サイト運営やコンテンツ作成において、嘘をつかないことが極めて重要です。あなたがサイトの内容をどれだけよく知っているかに関わらず、気づかないうちに誤解を招く情報を提供している場合があります。

嘘をつかないというのは、人生全般においても素晴らしい原則です。正直でいることで、余計なストレスや矛盾を抱えずに済みます。同様に、Googleに対しても正直でいるべきです。なぜなら、Googleは非常に高い精度で問題を検出し、いわば「嘘」を見破る能力を持っているからです。

「正直なコンテンツの更新」を目指す

ここでは、特に検索エンジンが容易に検証できる、表面的な修正や無意味なアップデートについて注意を促します。これを「正直なコンテンツの更新」と考えましょう。検索エンジンは透明性を基盤として設計されているため、不誠実な操作は逆効果です。

たとえば、以下のような例は嘘に当たります

  • 記事の更新を装う
    サイトマップの日付だけを変更して、あたかもコンテンツが更新されたように見せかける。
  • タイムスタンプの不正使用
    新しい著者名やタイムスタンプを追加しただけで、実際には内容に何の変更も加えていない。

これらは、見せかけだけの変更であり、Googleにとっては容易に見抜ける行為です。SEO対策として一時的に効果があるかもしれませんが、長期的には信用を失う原因になります。

透明性を高める具体的な方法

透明性を保つことは、Googleだけでなくユーザーとの信頼関係を築く上でも重要です。以下のような対策を取り入れることで、透明性を高めることができます。

  1. 広告ポリシーの明確化
    サイトでの収益獲得方法(広告やスポンサーシップなど)をフッターのメニューや専用ページで説明し、インデックスに登録されるようにします。
  2. アフィリエイト情報の公開
    アフィリエイトリンクを使用している場合、その旨をできるだけ明確に表示します。ユーザーにとってわかりやすい記載が必要です。
  3. 正確なコンテンツ更新
    コンテンツの更新には実際の価値ある変更を伴わせるべきです。記事内容を刷新し、新しい情報や視点を加えることで、更新が実際にユーザーの役に立つことを確認してください。

嘘をつかないことで得られるメリット

正直であることは、ユーザーにも検索エンジンにもプラスになります。Googleは、コンテンツやサイト運営に透明性があるサイトを信頼し、その結果、より良いランキングやトラフィックをもたらす可能性があります。一方、嘘をついているサイトはペナルティを受けたり、信用を失ったりするリスクが高まります。

最後に、こう覚えておきましょう。正直さは信頼を生み、信頼は成功につながります。
Googleはあなたの行動を評価するので、誠実さを最優先に取り組みましょう。

4. 技術的な問題を解決する

検索エンジンのパフォーマンスを向上させるには、技術的な問題の解決が欠かせません。プレゼンテーションを通じて検索マーケティングについて話す際、Googleが意識しているが私たちが見落としている問題がいかに多いかを常に強調しています。これを改善するためには、Google Search Consoleを活用することが重要です。

Search Consoleを活用したエラーの修正

Search Consoleの「ページ」セクションを確認すると、多くのエラーが見つかることがあります。たとえば、

  • 見つからないページ (404エラー)は修正するか、適切なページにリダイレクトする必要があります。
  • noindexに設定されたページなどは、意図的に設定されている場合もありますが、これが誤設定でないかを確認してください。

これらの問題をどのように処理するかは、検索マーケティング担当者の責任です。HCUへの対応中、私はエラー修正に数か月を費やし、Googleがその変更を認識し、結果に反映させるのを待ちました。その結果、問題のあるページが徐々に検索結果から取り除かれ、サイト全体が「健康的な状態」へと変わっていったのです。

HCUへの対応ではなくても、技術的な問題の解決は、検索エンジンやユーザーにとっての信頼性向上につながります。特に以下のポイントを確認しましょう。

  1. コードと構造
    HTMLやCSS、JavaScriptにエラーがないか。
  2. robots.txt
    検索エンジンに不適切な指示を与えていないか。
  3. サーバーやホスティングの問題
    ページのロード時間や応答性を最適化しているか。

これらの改善は、サイトをスムーズに機能させ、Googleが評価するサイト作りの基礎を築きます。

5. ブランドに取り組む

ブランド力を高めることも、長期的なSEOの成功には欠かせません。しかし、これは非常に難しい課題であり、Googleが言う「役に立つコンテンツ」を実現することと同様に、簡単ではありません。

ブランドと検索エンジンの関係

ブランドの改善は難しく、特に「役立つ」という曖昧な概念を追求するのと同じように簡単ではありません。しかし、ブランドについて言及されることは、時間とともに徐々に増えていくものです。

数年前、Googleの担当者が「ブランドの牽引力」や「サイトのマーケティング」について触れたのを覚えています。その担当者は「それは検索エンジンの役割ではない」と明言しつつも、間接的に役立つ可能性があると示唆していました。この正確な引用は見つけられませんが、その言葉が強く印象に残っています。

そして、今年になってその言葉の重要性を特に感じています。

MozのTom Capperが行った優れた研究では、HCU(Helpful Content Update)の狙いについて示唆されています。その核心は「ブランド」にあるようです。

関連:ヘルプフルコンテンツアップデートはGoogleの説明と違う動きをしているとデータで判明(前編) | Moz – SEOとインバウンドマーケティングの実践情報 | Web担当者Forum

確かに、この研究はGoogleが使用しないとされる「ドメインオーソリティ」や、Moz独自の「ブランドスコア」という指標に関連しており、それがどれだけ有用かは議論の余地があります。しかし、この研究は詳細かつ緻密で、いくつかの点は非常に納得のいくものです。

これは検索の人気度に似たものでありながら、あなたのサイトや関連するウェブサイトの「ブランド」に結びついています。

これが役立つコンテンツアップデートの特徴というよりも、「重要な特質」に関するアップデートのように感じられます。

これを「ハルマーク・コンテンツ・アップデート」と呼びましょう。「ハルマーク(特徴的な印)」は品質を示唆するものであり、Googleが伝えようとしているのはそういうことかもしれません。

具体的には、「検索されるブランド」はそのまま「品質」を示しているということです。

一部のブランドはメディアへの登場が検索量の増加を引き起こす原因かもしれませんし、しっかりとしたマーケティング努力も同様の効果をもたらす可能性があります。

ここで、テレビやラジオがランキングを直接押し上げるとは主張しませんし、そもそもそれらのメディアを利用するのは簡単ではありません。しかし、それが関連する検索用語とつながる可能性は間違いなくあります。

ジョン・ミュラー氏(Googleの担当者)は、「ブランドの言及」がランキングを押し上げるという考えを否定していますが、ブランド自体に関する検索については議論を避けています。

実際、Googleトレンドで検索が増加する場合、それは「トレンド検索」と見なされます。

つまり、ブランドに関連する検索の増加は、そのブランドの「権威」を示唆するものであり、マーケティングやブランド関連の施策が必要であると推測されます。

私がやらなかった3つのこと

私がサイトの回復に向けて実行した施策は多岐にわたりますが、SEOコミュニティの一部で推奨されるある種の行動は意図的に避けました。それでも改善が見られたことは、興味深いポイントです。ここでは、私が「やらなかった」3つのことを取り上げます。

1. ランキングについてソーシャルメディアやフォーラムで苦情を言うこと

私は、自分のサイトが突然過小評価されるようになった理由について、不満を公開の場で叫ぶようなことはしませんでした。
代わりに、自分で何が問題なのかを理解し、具体的な解決策を見つけるために行動しました。苦情を言うよりも、実践的な修正に集中することが重要だと考えたからです。

2. Googleフォームでフィードバックを送信すること

2024年3月のアップデート後、Googleが提供するフィードバックフォームを使う時間はありませんでした。これらのフォームが実際にGoogleに影響を与えるかどうかが不明だったためです。
SEOの修正作業に時間をかける方がはるかに効率的だと判断しました。

3. バックリンクを獲得しようとすること

バックリンクについて、RedditのSEOコミュニティではその重要性がしばしば議論されますが、私は一切追求しませんでした。
人工的なバックリンクはゼロで、必要だと推測するクライアントに対しても反対しています。バックリンクは確かにランキング要因の一つですが、それが全てではありません。AI時代のSEOでは、他にも多くの重要なシグナルが存在します。

私が代わりに行ったこと

デザインとフォントに変更を加え、ユーザーにとって全体的な読みやすさが向上するスタイルを模索しました。また、管理ページを通じて透明性を向上させることに重点を置き、編集方針や広告方針を明確にし、それらをより見つけやすくしました。

より良いページを作成する間、検索結果に表示させたくない特定のページにはnoindexタグを使用しました。

内部リンクについては、一部をnofollowとしてマークし、他のリンクはアクティブのままにしました。適切なバランスを見つけることが重要です。

さらに、カスタムコードの導入やメディアサイズの拡大を行い、検索エンジンが発見できるすべてのページが、ユーザーと検索エンジンの両方にとって可能な限り最適な状態になるよう努めました。

専門家の意見を求めることの重要性

HCUからの回復を目指している場合、実際にその分野で経験があり、成果を出した実績がある人に助けを求めることをお勧めします。

その人の実績や証拠、データを確認しましょう。可能であれば、トラッカーを使って回復成功事例を検証してください。SEOのアドバイスを鵜呑みにしてしまうと、自分のサイトに適用できない戦略に時間やお金を浪費してしまう可能性があります。

あなたの具体的な課題を理解できる人を探してください。必要に応じて、SEOコミュニティ全体の知見を活用することも視野に入れましょう。

また、医者にセカンドオピニオンを求めるように、別の専門家の意見を求めることも選択肢です。多くの専門家が、他者の学びを助けるために協力を惜しまない姿勢で活動しています。

seojapan

効果的なFAQページ ベスト25選

1 year 5ヶ月 ago

本記事は、2024年10月24日に Search Engine Journal で公開された Lee Wilson氏 「25 Best Examples Of Effective FAQ Pages」を翻訳した記事です。


効果的なFAQページを構築するためのポイントを、最適な例とともに学びましょう。ユーザーのエンゲージメントを高め、サイトのユーザー体験を向上させます。

FAQページ(または情報ハブ)を利用することで、企業は従来のランディングページよりも迅速かつ的確にユーザーのニーズに応えられるようになります。FAQページは、ユーザーに役立つ情報を提供しながら、自然と目標や成果に向けて誘導するための重要なコンテンツです。現在、FAQページは多くのサイトで必須の要素となっています。

FAQページの目的は何ですか?

まず、FAQページはオーガニック検索を通じて新しい訪問者をサイトに誘導し、関連ページ(多くの場合、回答しようとしている質問に関連するブログやサービスページ)にスムーズに案内するための有効な手段です。

また、検索エンジンの結果ページ(SERP)内でブランドの可視性を向上させる最も重要な機会の一つとして、ユーザーの質問やニーズ、課題をターゲットにすることが挙げられます。

FAQページは、サイトを訪問したユーザーが検索結果をクリックする前に回答のスニペットを確認できる最適な方法の一つです。これにより、ユーザーが求める情報に早くアクセスでき、検索ニーズを迅速に満たします。

さらに、効果的なFAQページ(コアページやトピックに基づくFAQハブ)は、初めての訪問からコンバージョンまでのユーザー体験を効率化します。これは、情報や信頼を得る際の障壁が取り除かれるためです。

企業にとっては、FAQを通じて専門知識を披露し、主要なスタッフや知識、独自の視点を業界に迅速に紹介することができます。

さらに、視聴者が求めるさまざまな形式で価値あるコンテンツを提供することで、信頼性や価値も向上します。これには、従来のテキスト中心のコンテンツ提供だけでなく、音声やビジュアル/ビデオ、コンテンツの階層的な展開も含まれます。

また、迅速で常時利用可能なオンラインのメカニズムを通じて、オフラインでのコミュニケーションや体験ニーズにも応えることが可能です。人々は常に助けやアドバイスを求めており、電話をかけたり店舗に出向いたり、情報が得られるまで長時間(数分でも)待つことを好みません。FAQは、今すぐ利用可能であり、ユーザーが最も利用しやすい形式で提供されることが求められます。

なぜFAQページが重要なのか

FAQページは、SEOおよびデジタルマーケティングの視点からも優先されるべきページです。FAQページはサイトを改善し、訪問者を支援する最も簡単で効果的な手段の一つです。

顧客の要求が増え続けるなか、FAQセクションは常に変化と拡張が求められる価値の源です。FAQページは、音声検索やモバイル検索の普及、スマートアシスタントやスピーカーの増加に伴い、さらに重要性を増しています。これにより、事前結果(Googleの回答や注目スニペット)におけるFAQページのターゲット化が可能となり、効果的にユーザーを引き付けます。

効果的なFAQページは次の要素を意識して設計されるべきです。

  • 視聴者のニーズを徹底的に反映し、それに応える内容を提供
  • 取引、情報提供、場所に関する情報など、幅広い目的に対応
  • 最新のデータや業界動向、ベストプラクティスから得た洞察を基に、常に更新を行う
  • 定期的な情報追加と専門知識の共有により問題解決を支援し、再訪問を促進することで新規ユーザーの獲得をサポート
  • 他の重要なページへの内部リンクを促進し、主要なコンバージョンパスをサポート
  • Fuelブログやさらに深いコンテンツでは、関連性の高いコンテンツを論理的かつ直感的に繋げる
  • 自社の専門知識、信頼性、権威を強調し、ブランドとスタッフがコミュニティに対して教育的で情報提供的、支援的なプラットフォームを提供

効果的なFAQページは、ユーザーの疑問に迅速に対応し、企業の信頼性や専門性を確立するための貴重なツールです。

ここでは、FAQページやリソースの優れた例 25選と、それらが効果的である理由を見ていきます。

1. Caesarstone UK
Caesarstone UKのFAQリソースは、一般的な質問をカスタマイズしたランディングページにグループ化し、シンプルで直感的なユーザー体験を提供しています。この例からわかるように、FAQは分かりやすく、データに素早くアクセスできる設計が重要であり、ワンクリックで回答を得られる利便性が求められます。

2. Siren Craft Brew
Siren Craft Brewは、セカンダリナビゲーション要素と展開可能なdivコンテンツを使用して、デバイスに依存せず簡単に情報へアクセスできるよう工夫されています。

3. Amazon
AmazonのFAQページも注目すべき事例です。同社はデータを活用してカスタマイズした体験を提供し、AIで継続的な会話を可能にすることで、ユーザーのニーズを的確に理解し、ほぼ人間のようなサポートを実現しています。

4. WhatsApp
WhatsAppのヘルプセンターは、分かりやすく使いやすい構成で、デスクトップやモバイルでも迅速にアクセスできるよう効果的に分類されています。会話調の口調を使うことで、支援・解決・アドバイスの場として親しみやすさが増しています。

5. Wikipedia(Wikiヘルプ)
Wikipediaのヘルプセンターは、従来のテキスト重視のFAQページの好例です。膨大なテキスト量を主要なトピックに分けて整理しており、全てのサポート領域に広範囲にアクセスできる構成になっています。

6. P&O Cruises
P&O CruisesのFAQページは、ライフスタイルに基づいた選択肢とクルーズ予約に関する情報をバランスよく提供し、利用者にシンプルで効果的なソリューションを提供しています。

7. Lucy and Yak
Lucy and Yakは、ユーザーフレンドリーで親しみやすいFAQハブを提供しており、電子商取引サイトにありがちな機能的なFAQから一歩進んだ、ユーザー重視の設計となっています。

8. Asda
Asdaのカスタマーヘルプセンターは、トーンやデザイン、画像に親しみやすい雰囲気があり、遊び心のある「既成の回答」といった表現で利用者の関心を引きます。

9. Truhouse
Truhouseのクライアントヘルプ/FAQリソースは、情報検索や購入プロセスを各ステップに分割して整理しており、ユーザーが容易にアクセスして進められる優れた例です。

10. ナイキ
Nikeの「ヘルプを取得」セクションは、ホワイトスペースを効果的に活用し、行動喚起の工夫が凝らされています。複雑になりがちなFAQページですが、Nikeはシンプルさが効果的であることを示しています。

11. 世界動物保護協会
世界動物保護協会のFAQページは、分散している多くのコンテンツをシンプルで論理的な構成にまとめ、使いやすくしています。ユーザーは限られた時間の中でサイトを移動したいと考えるため、このような情報の整理と提示は、デザインによって機能性を引き出しています。

12. LinkedIn
LinkedInのFAQは、ユーザーにとって邪魔にならない設計が特徴です。プラットフォームでの集中力を保ちつつ、インタラクティブなFAQ機能でサポートします。プロフィールアイコンのドロップダウンリストから簡単にアクセスできる点も魅力的です。

13. Microsoft
MicrosoftのサポートFAQは、複雑な情報を一口サイズでまとめ、ビデオやコミュニティを取り入れてコンテンツ配信を効果的に行っています。これにより、ユーザーがFAQを通して直接サポートを得やすい設計になっています。

14. UCFB
UCFBのFAQリソースは、教育に関する重要な意思決定を支援するため、シンプルで視覚的にわかりやすいデザインで豊富な情報を提供しています。

15. Google
GoogleサポートはFAQに期待される機能を超え、大量の情報を効率よく整理し、デザインやレイアウトで直感的にアクセスできるようになっています。

16. Hillier
オンラインでオフライン体験を再現するのは難しい場合もありますが、HillierのFAQセクションは、園芸に関する専門知識を効果的に共有し、まるでガーデニングセンターにいるかのような感覚を提供しています。

17. Tilda Rice
Tilda RiceのFAQは、コミュニティ全体で役立つリソースの一部として機能し、広範囲なコンテンツの一部として利用者に情報を提供しています。

18. Trent Furniture
Trent FurnitureのFAQは、FAQリソースとしての役割に加え、ガイドリソースも兼ねています。ユーザーは、詳細な購入ガイドや測定情報などの追加情報にアクセスでき、購入決定に役立つ豊富なコンテンツを提供しています。

19. Spotifyコミュニティ
SpotifyのコミュニティFAQは、情報へのアクセスをプッシュとプルの両方で実現し、定期的に利用するユーザーのニーズを迅速に満たせるようセグメント化されています。

20. Etsy
Etsyは、FAQハブを通じて多層的な情報を共有し、ユーザーが頻繁にアクセスする基礎的なコンテンツを中心に据えています。近年のeコマースサイトにおけるFAQの重視の好例です。

21. Carbase
CarbaseのFAQページは、ユーザーが少ないクリック数で迅速にアクセスできるよう、重要なトピックが明確に表示されています。特定の問題解決を明確にサポートする構成になっています。

22. Wateraid
WateraidのFAQは、ストーリー性を持たせてユーザーの行動を促し、サポートや寄付の意思を高める効果的なハブです。AIチャットボット機能と従来のテキスト情報提供を組み合わせて、シームレスに支援を提供しています。

画像に alt 属性が指定されていません。ファイル名: image-1024x606.png

23. Airtable
Airtableのヘルプセンターは、数か月前にレビューした際と比べて大きく改善されています。それでも、このトップFAQリストに含める価値はあります。コンテンツが適切にセグメント化され、チャットボットによるサポートもあり、インターフェースがシンプルで使いやすい点が、FAQコンテンツに最適な要素となっています。

24. Reddit
RedditのFAQセクションには、どこか懐かしさを感じさせるものがあります。しっかりと機能しており、使いやすいものの、なぜか2000年代初頭に戻ったような感覚も覚えます。テキストリンクへの実用的なアクセスが提供されており、さまざまな方法で情報にアクセスできることを思い出させてくれます。

25. スティーブン・キング
私はスティーブン・キングの大ファンなので偏りがあるかもしれませんが、彼のウェブサイトにあるFAQハブが、まるで文学体験をしているかのような感覚を与えてくれる点が気に入っています。目次や背景が、本を読みながら物語の一部になるシーンを設定するような役割を果たしています。

効果的なFAQページの作成

FAQページがすでに存在する場合、さらに有用なものにするため、または新たにFAQリソースを作成する際には、次のステップを検討することが重要です。FAQセクションで得られるデータを活用し、継続的に更新・改良し、視聴者に対する価値を拡充していくことが求められます。FAQリソースは、オンライン・オフライン問わず、新しいデータセットに基づいて常に更新されるべきです。

1. FAQページの目的を決める

専門家の支援を前面に出し、継続的なユーザーサポートを提供したい場合と、Webサイトの基礎となるコンテンツへのアクセスを向上させることを目的とする場合では、FAQハブの役割は大きく異なります。FAQセクションの目的を明確に定義し、ビジネス目標やKPIでそれをサポートすることが重要です。これにより、リソースの優先順位と正当性が維持され、FAQの開発が強化されます。

2. FAQハブの維持と成長のための事前計画

ユーザーの質問は頻繁に変化するため、FAQコンテンツがこれを反映していることを確認する必要があります。Google Search Console (GSC) やサイト内検索のデータ、さらには業界動向を活用して判断を行いましょう。データ収集を一つのソースに限定せず、競合他社やGoogleリッチリザルトを分析し、FAQコンテンツを通じて専門知識を効果的に提供することが求められます。

3. 社内データ環境の外側に目を向ける

既存の顧客データを活用することは重要ですが、FAQセクションは多様な質問に対応する必要があるため、一般的な質問については「Answer the Public」や「Google トレンド」などの無料ツールや競合サイトを活用できます。また、In-SERP(検索結果内)の質問に答えるチャンスを逃さず、FAQコンテンツを紹介し、これらにターゲットを絞った魅力的なコンテンツを作成することが大切です。

4. FAQの構造化

FAQページや個々のFAQ(単一のページや専用セクション)をどのように構成するかについては、ユーザーと検索エンジンの両方が多様なコンテンツにアクセスできるように検討が必要です。回答をわかりやすく、クリックで展開される形式で提供し、ページ構造においてはスキーマの使用やページ速度、モバイル対応などの技術的最適化にも時間をかけましょう。FAQはテキストだけでなく、視覚的に豊かなコンテンツであれば、より広範囲にリーチし、価値を提供できます。

5. データを活用して改善

FAQページは時間と共に古くなるため、変更をテストし、コンテンツの見直しを繰り返し行うことが重要です。データに基づいた改善は毎月行い、結果としてユーザーとビジネスに大きな影響を与えることができます。

6. 人材の要素を忘れない

成功するFAQページやヘルプセンターは、ユーザーへの深い理解を基盤に作られています。データや証拠を重視しつつ、現実世界の洞察をバランスよく取り入れることが求められます。最前線で積極的にユーザーと関わり、オフラインとオンラインのFAQがどのように問題解決に役立つかを理解しているスタッフの支援が重要です。

簡単なヒント
FAQリソースは、完成したように見えても、常に新しい方法で価値を最大化し、成長できる余地があります。既存のコンテンツを再利用し、検索機会に合わせて強化し、テキストにビジュアルコンテンツを加えることで、短期的および継続的に利益を得ることが可能です。

まとめ

FAQリソースは、Webサイトの大きな資産となり、ユーザーの問題解決や変換の加速、ビジネスの強化に貢献します。FAQハブは、常に進化し、データセットを最新に保ち、ユーザーのニーズに基づいてトピックを拡張していくべきです。これにより、外部リソースではなく、自社サイトで直接解決策を提供し、ユーザーを引きつけることができます。

FAQアプローチを始める場合は、小規模から始め、時間をかけて拡張していくことが効果的です。

seojapan

2024年8月のコアアップデートに関するGoogleのダニー・サリバン氏へのインタビュー

1 year 7ヶ月 ago

本記事は、2024年9月6日にSEARCH ENGINE ROUNDTABLEで公開された「My Interview Of Google’s Search Liaison On The August 2024 Core Update」を翻訳した記事です。Googleのダニー・サリバン氏が2024年8月に実施されたコアアップデートと今後の展開について語ってくれました。

今週、私はGoogleのダニー・サリバン氏にインタビューを行い、Google検索の現在の品質状況、将来の方向性、そしてコンテンツクリエイターや検索マーケターが知っておくべきことについて話を聞きました。

※記事内では、ウェブコンテンツ制作者を「クリエイター」と呼称します。

このインタビューでは、議論を呼んだ2023年9月のヘルプフルコンテンツアップデートや2024年3月のコアアップデートを含む、最新のコアアップデートに焦点が当てられました。過去11か月間にサイト運営者が直面した厳しい状況と、Google検索がその影響を和らげるために行っている対策について伺いました。

本記事はインタビュー形式で、非常に長い構成となっています。ChatGPTやGeminiで要約することもできますが、完璧な要約が難しく、全ての内容をお伝えしたいと考えております。

※SEO Japan編集部では、生成AIを活用し翻訳を実施しましたが、可能な限り原文に沿った内容になるよう努めています。

Googleコアアップデートの目的

サリバン氏は、コアアップデートの目的として、全てのユーザーを対象にGoogle検索を改善することだと述べています。また、コアアップデートに関する公式文書を基に、詳細な説明を加えました。

サリバン氏は、コアアップデートをスマートフォンの大規模なソフトウェアアップデートに例えました。

「スマートフォンは時々、小さなアップデートを行いますが、ほとんどの人は気づきません。Google検索も同様に年間約5,000回のアップデートを行っています。
そして、スマートフォンは大規模なアップデートも行います。検索エンジンにとって、コアアップデートは同様に大規模なアップデートに相当するのです。」と述べました。

3月のコアアップデートから8月のコアアップデートへの変化

SEO業界の関係者が抱いていた大きな疑問の1つは、【2024年3月と8月のコアアップデート間でGoogleが行った変更は何だったのか】ということでした。

Googleは当初、3月のコアアップデートが最大級のものだと発表し、多くの人は2023年9月のヘルプフルコンテンツアップデートで大きな影響を受けたサイトが改善されるだろうと期待しました。しかし、ほとんどのサイトに改善が見られない結果となりました。

その後、8月のコアアップデートで、様々な順位変動が見られましたが、何が変わったのでしょうか?

サリバン氏は、今回のコアアップデートの変更について具体的に説明してくれませんでしたが、「定期的かつ段階的な改善を行おうとしました」と語っています。それはどういう意味なのでしょうか?

サリバン氏は、そのプロセスを次のように述べました。「様々なランキングシステムを見直し、より改善する方法を検討します。そしてテスト検証を行い、最終的には人間の評価者に送ります。評価者たちは、全体的に検索結果が改善されたかを確認し、アップデートを公開します。」

「それでもまだ完璧ではないので、そのプロセスを繰り返し、さらなる評価やテストを行います。加えて、異なる側面を見つつ、ランキングシステムをより良くする方法を探ります」と彼は言いました。

また、「小規模な独立サイト」を、より適切に評価する方法についても言及していました。彼は「我々は、それらのサイトを助けるいくつかの変更を行いました」と述べています。

ただし、「それらの改善はまだ完了しておらず、将来のコアアップデートでさらなる改善が行われるだろう」と、Googleは付け加えました。

私が小規模で独立した高品質なサイトについて質問したとき、サリバン氏は「高品質なコンテンツを発信している優れたサイトは確かに存在します」と共感してくれました。

「我々は、それらの優れたサイトが検索上でも正しく評価されることを望んでいます。Googleが行っている改善は、最終目標であるユーザーの役に立つコンテンツを適切に評価できるランキングシステムに改善し続けることです」とも述べていました。

したがって、3月のコアアップデートから8月のコアアップデートにかけてのGoogleの取り組みは、これらの小規模で独立したサイトをより適切に評価することでした。また、Googleはまだ改善を続けているため、将来のコアアップデートでさらなる進展が期待できます。

今後のコアアップデート

前述の通り、Googleは、「特に小規模な独立系サイトからの高品質コンテンツを適切に評価する改善を続ける」と述べました。

この取り組みについて質問した際、サリバン氏は「明らかに改善できる点、改善すべき点、改善したい点がある」と述べました。

素晴らしいコンテンツを作成しているにもかかわらず、Google検索で適切に評価されていないと感じているサイト保有者に対して、諦めるべきではないと、サリバン氏は語っています。

「本当に良いコンテンツを作成しているにもかかわらず、最新のアップデートで十分な成果が得られなかったとしても、諦める必要はありません。
なぜなら、我々の目標は、良いコンテンツを発信しているサイトを評価することだからです。そして、我々があなたのコンテンツを十分に評価できていなかったとしたら、それは今後のアップデートで改善したいと思っている箇所です。」

「我々は将来のアップデートが、より良い方向に向かっていくことを願っています。」と彼は付け加えました。

将来、Googleは我々のサイト順位を向上させるか

私が質問とともに、いくつかの例を挙げると、サリバン氏は「今回のアップデートで一部のサイトに良い影響を与えたと思いますが、昨年9月頃の状態には戻っていません。」と述べました。

サリバン氏は、そのうち一部のサイトは時間とともにランキングの改善が見られる可能性があると示唆しました。

「小規模なサイトであれ、大規模なサイトであれ、もし本当にユーザーのためになる高品質なコンテンツを作成しているなら、自ずとランキングは上昇してくるはずです。私もそう望んでいます。

しかし、全てのサイトの回復を約束することはできません。なぜなら、アルゴリズムは変化し、インターネット上には常に新しいウェブサイトやウェブページが存在するからです。

つまり、9月の状況から変化してしまった今、元のランキングに戻すことはできないのです。」とサリバン氏は言いました。

「そして、我々のランキングシステムは変化しており、その中でも、フォーラムコンテンツやソーシャルコンテンツなど、様々なコンテンツも評価しています。なぜなら、それは多様な検索結果を提供する上で重要な部分だからです」とも述べています。

サイト順位を回復させるには、次のコアアップデートを待つ必要があるかもしれません。「あなたがすべきことは、検索ユーザーのために正しいことをしているかを確認することです。

そうすれば、Googleは長期的にあなたのサイトを適切に評価するはずです。我々のランキングシステムはユーザーの役に立つコンテンツを評価しようとしています。」とサリバン氏は述べています。

しかし、「もしランキングシステムを追いかけているなら、あなたは少し遅れをとっています(※)」と彼は警告しました。(※「ランキングシステムを追いかける」のではなく、「ユーザーのニーズを満たす高品質なコンテンツを作成する」ことに注力すべきだと示唆している。)

2024年3月、Googleは、3月のコアアップデートの影響に対して、静観するように促しました。8月のコアアップデート後も同様です。

5月、Googleのジョン・ミュラー氏は、「Googleがより心のこもった良いコンテンツを評価する取り組みをしている」と述べました。

その1週間前、サリバン氏は、「これらのサイトをより適切に評価する作業をしている」と述べました。Googleは、「これらのサイトが回復できるだけでなく、9月以前の結果を超えて急上昇する可能性がある」と述べています。

つまり、 検索改善に関するGoogleの声明は11月まで遡ります。私たちは6か月後にその声明を詳しく調べました。

Googleはヘルプフルコンテンツアップデートの回復時間について、当初は数週間かかると言いましたが、今では一部のサイトで11ヵ月以上かかっています。後にGoogleは、「これらの変更が当初議論されたよりもずっと長くかかる可能性がある」と私たちに伝えました。

11か月が経った今、Google は依然として、素晴らしいコンテンツを作り続ければ順位を回復することは可能だと言っています。しかし、Hardbaconや他のサイトで見られたように、多くの人は経済的にも精神的にも余裕がなくなってきています。

ランキングとトラフィックの変化

ランキングが向上しても、必ずしもウェブサイトへのトラフィック増加につながるとは限りません。これまでと異なるSERPsは、トラフィックに大きな影響を及ぼします。例えば、広告やスクロール検索結果、その他のインターフェース要素があり、自然検索結果を押し下げ、トラフィックが減少する可能性があります。

「Google検索は、あなたのコンテンツを高く評価しています。本当に良いコンテンツを作成しており、検索結果の最初のページにランキングされているなら、あなたは正しいことをしていると感じるべきです」と述べました。

ただし、「1位から2位に移動すると、顕著なトラフィックへの影響となる可能性があります」と付け加えました。「それは我々があなたのコンテンツを好まないということではありません。我々はあなたのコンテンツを高く評価しており、それ故、1ページ目のような高いランキングを獲得できているのです。

しかし、検索者がそれらの結果をクリックしていない可能性があります。おそらく、1ページ目の中でも順位が低いか、Redditやほかのフォーラムのコンテンツが上位に表示されているためかもしれません。

Googleはこの状況を、「検索トラフィックのデバッグに関するヘルプドキュメント」で説明していると、サリバン氏は述べました。

サリバン氏のコメント:「1位から2位に移動すると、それは顕著なトラフィックへの影響となる可能性があります。
それは我々があなたのコンテンツを好まないということではありません。我々は明らかにあなたのコンテンツを高く評価しています。だからこそあなたはトップ領域の検索結果にいるのです。

しかし、他の要素や広告がより高く表示されているため、かつてのトラフィックを取り戻すのは難しいでしょう。その上位にランクされたコンテンツも同様に人々にとって有用なものです。そして全体的に見て、検索結果のすべてが人々にとって有用であれば、結果的にみんなが利益を得ることになります。」

ヘルプフルコンテンツアップデートに何が起こったか

2024年3月のコアアップデートにより、Googleは新しいヘルプフルコンテンツアップデートの発表を停止しました。これは、ヘルプフルコンテンツシステムがコアアップデートシステムに統合されたためです。

ヘルプフルコンテンツシステムは大幅に見直しされ、現在は2024年3月のコアアップデートに組み込まれています。

サリバン氏は、ヘルプフルコンテンツアップデートがなくなったため、「人々がヘルプフルコンテンツシステムについて話し続けるのは難しい」と述べました。現在は、「あらゆる側面で有用性を評価するコアランキングシステムがある」と説明しました。

2023年9月のヘルプフルコンテンツアップデートでネガティブな影響を受けたサイトについて、サイト運営者たちは今後どのように対応すべきか悩んでいました。

サリバン氏はこの状況を認識しており、『そういった影響を受けたサイトの例をいくつも見てきた』と述べました。さらに、彼はそれらの例を『心に響く例』と表現し、中には『私たちのシステムがもっと適切に評価できればいいのに』と思うサイトもあった」と付け加えました。

しかし、上記のようなアップデートの影響を受けたと思われていたサイトの中には、実際にはそうでないものもありました。

以前のコアアップデートの影響を受けたのかもしれませんし、後のコアアップデートの影響を受けたのかもしれません。

サリバン氏は、「実際にトラフィックが増加しているのに、まだ何か問題があると考えている」サイトの例も見たと言いました。サリバン氏はそれらのフィードバックフォームを通じて多くの例を確認したと語っています。

ヘルプフルコンテンツアップデートに何か問題があったのか

次に、ヘルプフルコンテンツアップデートに何か問題があったのかという質問を投げかけました。なぜ2023年9月に一部のサイトが大きな影響を受け、 2024年8月のコアアップデートで改善が見られたのでしょうか?何らかのバグや問題があったのでしょうか?

サリバンは「いいえ」と答え、バグはなかったと述べています。ヘルプフルコンテンツアップデートが無くなった理由は、「ヘルプフルコンテンツシステムを、より広範なランキングシステムに統合したためです」と説明しました。

Googleは、以前にも同様のことを行っており、サリバン氏は「これは、Pandaのような他の独立したシステムでも起こったことです」と述べました。なお、この統合プロセスは2016年にパンダアップデートでも実施されました。

では、なぜ今回のアップデートまで改善が見られなかったのでしょうか?彼もはっきりとは分からないようで、3月のコアアップデートが「全く新しいシステム」だったため「明確に回答するのは難しい」と言いました。

「改善されたサイトの順位がもっと良くなっていればいいのに」と3月のアップデートについて言及しましたが、コアアップデートには多くの異なるシグナルが関与しているため、確実なことは言えないとのことでした。そのため、どのシグナルがいつ登録されたかを一般的な観点で測定するのは難しいのです。

「システムが停止してしまったということはないと思います」とサリバン氏は言いました。これまでのアップデートのリリースは、Googleのエンジニアがこれまでの方法に基づいて実施しているとのことです。

しかし、どんなに優秀なエンジニアでも問題が発生する可能性はあり、私がそのことを指摘すると、サリバン氏は再び「いいえ、システムがそのように停止してしまったということはないと思います」と言いました。

コアアップデート中の変動や調整

コアアップデート中に見られるランキングの変動について質問しました。コアアップデートの展開中にGoogleが調整を行うのかと尋ねたところ、「いいえ、調整は行いません」との回答で、「アップデートの進行中にランキングシステムを変更することはありません」とサリバン氏は明言しました。

続けて、「アップデートを展開する前に、評価、テスト、検証が行われ、最後に評価者によるレビューが行われます」と述べました。したがって、アップデートの途中で変更する必要はないとのことです。

唯一の調整は、アップデートがすべてのデータ センターに展開されていない場合に行われますが、これはランキングシステムの調整ではなく、展開方法のバグにすぎないそうです。

ランキングの問題

8月のコアアップデートの開始時に検索ランキングの問題が発生しましたが、リリースの4日後に修正されました。サリバン氏は、この問題とコアアップデートは無関係であり、コアアップデート自体には「全く関係がなかった」と繰り返し強調しました。

サイト順位の回復は?

私はこちらの記事でサイト順位の回復に関するデータをサリバン氏に共有し、「今回のアップデート以降、小規模な独立系のサイトがどのくらい回復しているのか、そのデータがあるかどうか」を尋ねましたが、サリバン氏は、「具体的な数字は持っていない」とのことでした。

今後、サイト順位は回復するのか?

Googleの検索アルゴリズムが原因で破産に追い込まれた「Hardbacon」というサイトのケースを取り上げ、Google検索からのトラフィックがほとんどないサイトが、どうやって11か月という長期にわたって、優れたコンテンツを作り続け、従業員の給与を支払い、事業を続けることができるのかと言及しました。

サリバン氏は、そのようなケースに対して「コンテンツ制作意向は間違っておらず、我々のランキングシステムが十分に機能していない場合もあります。それが我々が引き続き改善すべき課題です」と述べました。

また、「読者のために、高品質なコンテンツを制作しているのであれば、続けるべきです。最終的には、我々はそのようなコンテンツを適切に評価できるように努力し続けます」と言いました。

サリバン氏は再度、以下のように語りました。「優れたコンテンツを作り続けているのであれば、それは続けるべきです。そして、私たちはそのコンテンツを正しく評価するためにもっと良い仕事をしなければならない」

サリバン氏のコメント: 「良質なコンテンツを制作しているサイトが明らかにあり、その意図が正しいにもかかわらず、我々のランキングシステムがそれに応えられていない場合があります。そういったケースについて、我々は改善に取り組んでいます。もしあなたがユーザーに役立つコンテンツを作成しているなら、作成し続けてください。そして、我々はそのようなコンテンツを評価できるよう、引き続き努力します。」

さらに、サリバン氏は「9月以前のレベルを超えて改善が見られる可能性もあります」とも述べています。

フィードバックフォームとインサイト

Googleは、2024年3月のコアアップデート時にフィードバックフォームを公開しましたが、2024年8月のコアアップデートでは公開されませんでした。

その理由を尋ねたところ、サリバン氏は「前回のフィードバックがまだ多く残っており、それを処理する必要があるため」と説明しました。

前回のフィードバックフォームでは、12,000件の提出があり、1,300件の異なるドメインが報告されました。サリバン氏によれば、多くのユーザーが複数回フォームを提出しており、同じドメインから1,700回以上も提出された例もあったとのことです。

フォームは約1か月間利用可能で、1,300件の異なるドメインが報告されました。サリバン氏は、フォームの提出が何万件、何十万件もあったわけではない、全員がフィードバックフォームを記入するとは限らないが、それでもかなりの数が集まったということを指摘しています。

サリバン氏はすべてのフィードバックを確認し、「非常に有益で役立つものがたくさんありました」と述べました。また、提出されたすべてのフィードバックを手作業で確認し、Google検索のエンジニアリングチームに改善点を報告したとのことです。

「これらのフィードバックに基づいて、最新のコアアップデートでもいくつかの改善が行われましたが、まだやるべき作業が残っています」とサリバン氏は付け加えました。

サリバン氏はこのフィードバックの確認作業を、「Miracle on 34th Street」という映画のシーンに例えました。「サンタに送られた大量の手紙が法廷に積み上げられる場面があるでしょう。その時の気持ちと同じです。フィードバックがたくさんあって非常に有意義でした」と述べました。

Googleは、これらのフィードバックを処理しているため、新しいフィードバックフォームを公開する予定はありません。「現在のフォームから十分なフィードバックが得られているので、次のフォームをまだ公開する必要はありません」とサリバン氏は説明しました。フィードバックの処理が終わり次第、新しいフォームが公開されるとのことです。

フィードバックを提出したからと言って特定サイトの順位は回復しない

ダニー・サリバン氏が強調したもう1つの点は、フィードバックフォームの記入が特定のサイト変更につながることはないということです。Googleは、フォームを記入したからといって、特定のサイトを優遇したり、ペナルティを科したりすることはありません。

Googleは、フィードバックの内容をアルゴリズム改善に活用しており、特定のサイトのランキングを手動で調整することはありません。サリバン氏も「フィードバックフォームを送信したからといって、そのサイトが特別な利益を得るわけではありません。また、声を上げたからといって、不利益を被ることもありません」とサリバン氏は語っています。

また、「ランキングシステムは、特定のサイトを強化したり、ランクを下げたりするわけではなく、全てのサイトに対して機能するように設計されています」と述べました。そのため、フォームを使用していないサイトでも、ランキングが改善している例があると説明しています。

私がインタビューの後半で再度この話題に触れたところ、サリバン氏は「以前も言いましたが、我々はサイトを動かしているわけではありません」と繰り返しました。

コンテンツマーケティングの取り組み

会話の中で、コンテンツマーケティングについて議論になりました。これは、Google検索を意識して、上位表示されやすいコンテンツを作成し、サイトへの訪問者を増やす戦略です。

サリバン氏は、フィードバックフォームで挙げられた例として、地元の配管工のサイトを取り上げました。このサイトは、地域の配管に関する検索で上位に表示されていませんでした。サリバン氏によると、そのサイトのコンテンツは「蛇口の修理方法など、ありふれた配管工の情報」に過ぎないようでした。つまり、一般的すぎて、実際の顧客獲得にはつながりにくいと考えられます。

サリバン氏は、「そのサイトが得ているアクセスの多くは、おそらく実際のリードにつながっていないものだろう」と推測しました。一方で、「その配管工が地域特有の配管問題について、自身の経験に基づいた専門的な情報を共有していれば、Googleはそれをより高く評価するだろう」と述べています。

ページエクスペリエンスと広告

コアアップデートに関連して、広告過多や悪いユーザー体験についても話題になりました。この点については以前から議論されてきましたが、サリバン氏は「基本的な方針は変わっていない」と明言しました。

Googleのページ体験ガイドラインでは、広告掲載を禁止しているわけではありません。サリバン氏は、広告を掲載しているサイトでも、検索結果で上位表示されているものが多いと指摘しています。「ユーザーが嫌がるほどページ内に多くの広告を掲載しているサイトは、検索結果上に数多くあります。」とも述べています。

とはいえ、サリバン氏はこの点について、Googleがより明確にできることがあるとも述べています。「サイトで何が起きているのかを理解するために、より多くのページエクスペリエンスに関する情報を人々に提供できるような、より良い状態になれればいいと思っています。それは重要なことですから」とサリバン氏は語りました。
(今後Googleが、ページエクスペリエンスに関してより詳細で有用な情報を提供することで、ウェブサイト運営者とユーザーの双方にとってより良い環境を作り出したいという意図と理解しています。)

またサリバン氏は「コアウェブバイタルを確認することは重要ですが、それだけがすべてではありません」と強調しています。さらに、「初めてサイトを訪れるユーザーの立場に立って、満足できる体験ができるかどうかを考えるべきです」とアドバイスしました。

そして、「良好な体験を提供できているなら、それこそがGoogleのランキングシステムが評価しようとしている要素の一つです」と語りました。

RedditやフォーラムのコンテンツがGoogle検索で上位表示される件

Googleは最近、RedditなどのSNSやフォーラムのコンテンツを検索結果に表示する傾向が強まっています。私は、特に健康関連の検索でこれらのコンテンツを表示することについて質問しました。

サリバン氏は次のように回答しました。「確かに、SNSコンテンツの表示量は増やしています。多くの検索クエリにおいて、SNSコンテンツは役立つからです。完璧とは言えませんが、常に改善を続けています。特に健康問題で悩む人々が、同じ経験をした人々の声を聞けることは非常に有益です。」

サリバン氏は、さらに個人的な経験も交えて説明を続けました。「SNSコンテンツが役に立たないと一概に言うのは間違いです。私自身、日常的にその有用性を実感しています。例えば、家の修理方法を調べていて、あるプラットフォームにたどり着きました。Redditに限らず、小規模なプラットフォームで空調設備の修理方法を見つけたこともあります。まさに求めていた情報がそこにあり、とても助かりました。」
Googleは、今後も有用なコンテンツを表示し続ける方針ですが、サリバン氏は「完璧ではないものの、多くの場合で役立っています」と述べています。特に「健康問題に直面している人々が、同じ経験をした人々の声を聞けることは非常に有益です」と強調しました。

一方で、Redditがオリジナルコンテンツよりも上位に表示される場合については、サリバン氏も「それは別の問題です」と認めています。そのような場合、Googleはオリジナルのコンテンツを優先的に表示するよう、より注意を払う必要があると述べました。

ただし、これらのケースは人々の検索行動にも起因していると指摘しています。「通常、人々は記事の正確な見出しで検索するわけではありません。見出しそのもので検索する場合、一般的な検索パターンとは異なります」と説明しました。

では、なぜGoogleが元の情報源よりもRedditを上位に表示することがあるのでしょうか。サリバン氏は「特定の見出しで検索した場合、それらの単語が全て含まれているコンテンツを優先的に探します。また、情報の新しさなども影響する可能性があります」と解説しています。

隠れた宝石(Hidden Gems)の発掘

Googleの検索結果に「隠れた宝石(Hidden Gems)」を表示させるアルゴリズムの取り組みについて、多くの混乱が生じています。

サリバン氏は「当初はソーシャルコンテンツに重点を置いていましたが、今後のアップデートでは他の形の隠れた宝石も評価していきたいと考えています。」と説明しました。

彼は具体例を挙げながら、「フィードバックで目にしたサイトの中に、映画やドラマに登場するアイテムを探すのに役立つものがありました。これは非常に興味深い発見でした」と述べています。さらに、「このような本物の人間の声を反映したコンテンツを、より適切に評価し、今後さらに取り上げる方法を模索しています」と付け加えました。

サイト評価のスパムポリシー

インタビューが進む中で、私は他の検索ポリシーやアルゴリズムについても掘り下げました。その一つが、いわゆる「パラサイトSEO」とも呼ばれる、サイト評判のスパムポリシーの現状についてです。

サリバン氏によれば、今年初めにGoogleがこのポリシーを手動で施行し始め、現在も変わっていないとのことです。今後もアルゴリズムや自動化による施行は予定されていないそうです。

「アルゴリズムによる対応は現在行っておらず、近い将来に導入する予定もありません」とサリバン氏は明言しました。もし将来的にアルゴリズムによる対応を行うことになれば、その際にはGoogleから発表があるとのことです。

なぜアルゴリズム化されていないのか。サリバン氏は「極めて慎重に、十分な検討を重ねながら進める必要があるからです。そのためには時間がかかるので、当面は手動での対応が適切だと考えています」と説明しています。

AIコンテンツとスケールコンテンツポリシー

次に、AIコンテンツについて質問したところ、サリバン氏は「問題はAIによって作成されたかどうかではなく、スケールコンテンツポリシーに関わることです」と回答しました。

彼によれば、コミュニティの多くが誤ったメッセージに注目してしまったようです。つまり、AIで書かれたコンテンツが一部で許容されることに目が行ってしまい、本来注目すべき「コンテンツが検索エンジンのためではなく、ユーザーのために作られているか」という点を見逃してしまったのです。「スケールコンテンツの濫用に関する我々の発表を、もう一度注意深く読み直すべきです」とサリバン氏は語っています。

「多くの人が発表の前半部分だけに注目し、後半を無視してしまいました」とサリバン氏は指摘しています。前半で「コンテンツの作成方法ではなく、その有用性に注目している」と述べたことが、「GoogleはAIコンテンツを気にしない」という誤解を招いており「そのような解釈は間違いです」とサリバン氏は強く語っていました。

「本当に重要なのは、コンテンツが役立つかどうかです。」

AIによる生成かどうかは問題ではなく、「検索結果で上位表示を狙って、大量のコンテンツを機械的に作成しているかどうかが問題なのです」と彼は説明しました。「問題は、それが大規模に行われているかどうか、そして主にランキング目的で行われているかどうかです」とサリバン氏は述べています。

Navboostとコアアップデート

次に、司法省の裁判で明らかになった「Navboost」というデリケートな話題に触れました。私たちの報道で、ナヤック氏が「Navboostは、Googleにとって重要なシグナルの一つ」であると述べました。この「コアシステム」はウェブ検索結果に焦点を当てたもので、Googleのランキングシステムガイドには記載されていません。また、メモリシステムとも呼ばれているようです。

Navboostがコアシステムの一部かどうか尋ねたところ、サリバン氏は具体的な回答を避け、「コアアップデートではさまざまなランキングシグナルが使用されていますが、その詳細には触れることができません。コアアップデートには様々なシステムが含まれることがあり、それらは我々のランキングシステムの中核を成すものです」と留めています。

また、Googleが2009年から匿名のクリックデータを使用していることを述べ、これは新しい取り組みではないとも付け加えました。「結局のところ、私たちはさまざまなシグナルを理解し、組み合わせて使用​​しています。匿名化されたユーザーインタラクションもその1つとなるでしょう」と説明しました。

レビューシステムアップデート

最後に、レビューシステムがコアアップデートに組み込まれたかを尋ねました。サリバン氏によれば、2023年11月のレビューアップデート以降、変更は行われていないとのことです。
このアップデートは定期的に実施されており、2024年8月のコアシステムには含まれていなかったそうです。

「私の理解では、現在も別システムとして運用されており、定期的かつ頻繁に実行されています」とサリバン氏は説明しました。

サリバン氏がLinkedInに投稿した本インタビューの要約

サリバン氏がLinkedInにこの件に関する要約を投稿しました。その内容は以下の通りです。
今週、私はバリー・シュワルツと、クリエイターに関する最新の検索アップデートについて話をしました。インタビューの全容を記事に反映することはできませんでしたが(インタビューが長時間に及んだため)、ランキング回復を望んでいるクリエイター向けに重要な点をまとめてお伝えしたいと思います。

①先月のブログ記事でも触れましたが、「役立つオリジナルコンテンツを作成している小規模サイトや個人サイトを含む、質の高いサイトとユーザーをつなげる」取り組みは、今回のアップデートで完結したわけではありません。この分野は引き続き注視し、今後のアップデートでさらなる改善を図っていきます。

②SNSでも何度か述べましたが、読者のために素晴らしいコンテンツを作り続けることが、理想的な指針です。私たちのシステムは、そういったコンテンツを評価しようと努めているため、その点を念頭に置いて、これまで通り取り組んでください。私たちも引き続きシステムの改善に取り組み、より適切な評価ができるよう努めます。

③特定の検索クエリで上位表示されている場合、私たちがあなたのコンテンツを高く評価していることを意味します。さらに1、2順位上げる方法を考える人もいますが、ランキングは自然に変動することもあります。急激な変更は推奨しません。

インタビューでは、2024年3月のアップデート後に実施したフィードバックフォームについても触れました。建設的で有意義なフィードバックをお寄せいただいた皆様に感謝申し上げます。すべて手作業で確認し、提出されたサイトを参考にさせていただきました。

皆様のご意見はしっかりと我々に届いており、これからも耳を傾けていきます。私はすべてのフィードバックを要約し、特にオープン ウェブ クリエイターへ向け、当社のシステムが改善できる点について有益な例を数点挙げました。当社の検索エンジニアは、頂戴したフィードバックとともに、クリエイターを含むすべての人にとって検索を改善する方法を検討しています。

ちなみに、フィードバックを提出したからといって、提出者のサイト順位が回復するわけではありません。提出したサイトの中には、順位が上がったものもあれば、上がらなかったものもあります。

頂戴したフィードバックは、確実に我々の改善作業を助けてくれました。また、今後も頂戴するフィードバックを改善作業の参考とするため、クリエイターの皆さんの助けにもなるでしょう。

サリバン氏がLinkedInに投稿した「How Google’s core update feedback led to more insight about creators」の記事

ダニー・サリバン氏は「Googleのコアアップデートのフィードバックが、どのようにコンテンツ制作者の洞察理解につながったのか」という記事も投稿しています。その中で、フィードバックフォームについて次のように述べています。

「生産的なフィードバックを提供してくれた人々に感謝しており、その中でも特に、特定のクリエイターの世界について、より深い洞察を得ることができました。

1,300のユニークなドメインの中には、独立した小規模なサイトのクリエイターだけでなく、大規模なサイトも含まれていました。また、コンテンツマーケティングを行っている人たちもいました。

頭に浮かんだ1つの例は、あまりうまくいっていない地元の配管業者のサイトです。そのサイトは、一般的な配管のトピックに関する内容で、いわゆる『シンクの修理方法』のような一般的なコンテンツを多く作成し、トラフィックを得ていました。

これは検索者にとっては役立つ情報として良かったかも知れませんが。おそらくその配管業者が得ていたトラフィックは、実際にリードに結びついていなかった可能性が高いです。これがまさにコンテンツマーケティングの問題点です。

このようなケースでは、コンテンツマーケティングの努力が実っていないと心配しているかもしれませんが、実際にはクリエイターがオリジナルコンテンツを作成しているわけではありません。

もし仮に、その配管業者が『世界の配管業者』のようになり、そのブログで情熱的に情報を共有していたなら、私たちのランキングシステムでより良い結果を得られるでしょう。

もう1つの例を紹介します。1,300のドメインには、独立系サイトばかりではなく、優れていないサイトも多く含まれていました。スパムも確かに存在していましたし、提出されたフィードバックの中には、『これはランクインすべきではない』と誰もが思うようなサイトもありました。

その中で、ある人が期限切れのドメインを使用して、ある企業のログインページで上位にランクインしようとしていました。そして、その人が『この企業のログインページでランクインしようとしているが、うまくいかない』とフィードバックを提出してきたのです。

それに対しては「うまくいっていないのは当然です。あなたはそのページでランクインすべきではなく、回復することもないでしょう。」と回答しました。

ただし、私たちは真摯にコンテンツを作成しているクリエイターたちの存在や、彼らの良質なコンテンツが期待通りのパフォーマンスを発揮できていないという懸念を決して軽視しているわけではありません。むしろ、このフィードバックを通じて、SEOとは無関係に、ただ良いコンテンツを作りたいと考えているクリエイターの存在を、よりよく理解することができたのです。

例に挙げたクリエイターは、SEOに関心がなく、ただ素晴らしいコンテンツを作りたいだけだったのです。そして私たちは、そういった人々たちに報いたいと思っており、正しく評価したいと思っています。

もちろん、優れたSEO対策を否定するわけではありませんが、私たちが取り組むべき領域は幅広く、今回のフィードバックはその理解を深めるのに非常に役立ちました。

seojapan

オンページSEOで知るべき重要な13の要素

1 year 8ヶ月 ago

本記事はSearch Engine Journalの「13 Essential On-Page SEO Factors You Need To Know」を翻訳した記事です。

オンページSEOで検索での可視性を最大化しよう。ウェブサイトのランキングに影響を与える要素について学び、コンテンツ最適化からサイト速度、モバイルフレンドリーまで理解しよう。

オンページSEOとは、検索エンジンがページをクロール、理解し、関連クエリに対してランク付けするのを助けるために、さまざまなウェブサイトのコンポーネントを微調整することです。

バックリンクやブランドシグナルなどのオフページ要因も重要ですが、オンページ要素を最適化することで、検索での可視性を最大化するための基盤を築くことができます。

コンテンツ自体に加えて、オンページ要因はページの関連性と品質を示すシグナルとなります。サイト速度、モバイルフレンドリー、URL構造などを含むウェブサイトのアーキテクチャもオンページSEOに影響を与えます。

オンページSEOが重要な理由:

  • 検索エンジンがあなたのページをユーザーに見つけて表示するのを助ける
  • より上位にランクされたページは、より多くのクリックと訪問者を獲得する
  • 良好なランキングはあなたのブランドの信頼性を高める
  • オーディエンスのニーズに合ったコンテンツを作成できる
  • リンク構築などの他のSEO活動の基盤となる

このガイドでは、E-E-A-TとキーワードのセマンティクスからHTMLタグ、サイトアーキテクチャまで、13の重要なオンページSEO要素について探っていきます。

オンページSEOで知るべき重要な13の要素

オンページSEOは、コンテンツ、HTML、ウェブサイトアーキテクチャに分けることができます。それぞれ個別に見ていきましょう。

コンテンツ

よく耳にする言葉です:コンテンツは王様である。

コンテンツなしのSEOは、エンジンのない新しいスポーツカーのようなものです。見栄えは良いかもしれませんが、どこにも行けません。しかし、すべてのコンテンツが平等に作られているわけではありません。

オンサイトSEOを最大化するために考慮すべきコンテンツ要因は以下の通りです:

1.E-E-A-T

Googleがあなたのサイトを評価する一つの方法は、E-E-A-T、つまり経験(Experience)、専門知識(Expertise)、権威性(Authoritativeness)、信頼性(Trustworthiness)に基づいています。

Googleの検索品質評価ガイドラインで強調されているように、E-E-A-Tは、ウェブサイトとそのコンテンツ作成者が示す直接的な経験、主題の専門知識、権威性、信頼性を評価します。

Googleは経験を新しい要素として追加し、関連する資格と話題に関する直接的で実世界の経験を持つ人々によって作成されたコンテンツの価値が増していることを示しています。これは特に、健康、財務、安全性などのYMYL(Your Money or Your Life)トピックにとって重要です。

GoogleはPageRankやリンクなど、E-E-A-Tの一部の要素しか確認していませんが、著者の専門知識、トピックの権威性、透明性、実践的な経験などの要因がE-E-A-Tの評価に重要な役割を果たしていると一般的に考えられています。

2.キーワード

ターゲットとする顧客が検索している言葉やフレーズを含むコンテンツを作成することは不可欠です。

しかし、AIと自然言語処理の進歩により、個々のキーワードを超えて考える必要があります。

以下の点を最適化しましょう:

意味的に関連するフレーズとトピック(エンティティ):例えば、クラウドデータストレージサービスを提供している場合、関連するエンティティにはバックアップソリューション、災害復旧、データ管理などが含まれる可能性があります。

文脈的な意味と意図:「クラウド移行」の検索には、技術的なハウツーガイド、価格/コスト情報、移行戦略など、さまざまな意図がある可能性があります。

・包括的な回答の提供:顧客の旅を完全にカバーするために、関連するサブトピックをカバーしましょう。

キーワード調査ツールを使用して、メインのトピックに関連するエンティティと関連クエリを特定しましょう。

3.SEOライティング

検索エンジンを優先しつつ、人間の訪問者をサイトに転換させるコンテンツを作成することは一つの芸術です。

SEOのベストプラクティスに従いながら、読みやすい文章を書くことは、経験がなければ難しい場合があります。

私たちはこの技術をマスターするための完全なガイドを用意していますが、いくつかの重要なポイントを紹介します:

読みやすさを重視する:ユーザーが求める情報を素早く見つけられるよう、コンテンツは簡単にスキャンできるようにすべきです。

キーワードの過剰使用を避ける:キーワードの詰め込みは、不誠実なSEO専門家がシステムを操作するために使用する手法です。Googleはキーワードを過剰に使用するサイトを嫌います。発見された場合、あなたのページはSERPで降格されたり、完全に削除されたりする可能性があります。

文章と段落を簡潔に保つ:途切れのない長い文章の壁に遭遇したウェブページをクリックしたことがあれば、長い文章を読むのがいかに大変かわかるでしょう。文章と段落を短くすることで、ユーザーを追い払わないようにしましょう。

見出しを使用する:見出しはサイズが目立つため、ページをスキャンする人々の注目を集めます。読者をページの下まで導くのに十分な量のコンテンツを使用しましょう。

箇条書きリストを使用する:これは非常にメタに感じるかもしれませんが、箇条書きリストは情報を簡単に消化できる塊に分割する素晴らしい方法です。意味がある場合はいつでも使用しましょう。

個人的な経験を追加する:関連する場合は、著者の経験、背景、トピックに関する実践的な知識について議論し、経験のクレデンシャルを示しましょう。

4.フレッシュネス

急速に進化するトピックは、コンテンツを新鮮に保ち、オーディエンスのニーズを多く学ぶごとに新しい価値を提供することが重要です。

Googleは、コンテンツが古くなったり時代遅れになったサイトよりも、メンテナンスをするサイトに報酬を与えます。

いくつか情報を提供します:

  • 新しい情報、洞察、または視点を定期的に更新する。
  • 不正確な情報や時代遅れの情報を迅速に修正する。
  • オーディエンスの興味から新たに発見されたテーマのコンテンツを拡張する。
  • 頻繁に更新されるコンテンツについては、コンテンツのエクスポートやオプトインオファーを検討する。

5.視覚的なアセット

写真、ビデオ、チャート、その他の目を引くビジュアルを追加することで、訪問者にとってより魅力的になり、検索結果での外観も向上します。

画像を最適化することで、画像検索やSERPの画像カルーセルでより多くの可視性を獲得することもできます。

テキスト検索と画像ベースの検索の両方でコンテンツを見つけやすくするためのヒントをいくつか紹介します:

  • 画像のキャプションに文脈情報と関連する詳細を提供する。
  • 画像、ビデオ、製品などのスキーママークアップを実装して、検索の可視性を高める。
  • ビジュアル資産が高品質で、オリジナルで、ページコンテンツに関連していることを確認する。
  • eコマースサイトの場合、さまざまな角度から複数の明確な製品画像を提供する。

コンピュータビジョンモデルが進歩するにつれて、検索エンジンはより適切な画像と動画を理解し、表示できるようになるでしょう。

今からビジュアル検索を最適化することで、将来のコンテンツを保護することができます。

HTML

HyperText Markup Language(HTML)は、ウェブページとコンテンツの構造を定義するための標準マークアップ言語です。ユーザーのブラウザにページ上のどこに何を表示するかを伝え、検索エンジンにもページの内容を伝えます。

考慮すべきオンページSEOのHTML要因は以下の通りです:

6.タイトルタグ

タイトルタグは細部に焦点を当てるべき重要な領域の一つです。

このコードの断片だけでは、おそらくSERPランキングを急上昇させることはないでしょう。

しかし、他のオンページ要素(ここで議論されているもの)と組み合わせることで、タイトルタグはコンテキストを提供し、サイトの関連性を示すのに役立ちます。

タイトルタグを最適化する方法についてより詳しく知るには、こちらをお読みください。

7.メタディスクリプション

ベテランのSEO専門家は画面に向かって手を挙げています。「おいおい」と彼らは言うでしょう、「メタディスクリプションがSEOランキング要因ではないことは誰もが知っているよ」と。

彼らは部分的に正しいです。メタディスクリプションがランキング要因ではないという証拠は多くありますが、全員がそれを知っているというのは間違いです。

しかし、彼らにサイトへのメタディスクリプションの追加を思いとどまらせないでください。

SEOへの利用が比較的少ないにもかかわらず、ディスクリプションには2つの重要な利点があります:

  • Googleがあなたのウェブページの内容を理解するのに役立つ。
  • クリック率(CTR)に大きな影響を与える。

より良いメタディスクリプションは、検索者にあなたのページについてより良い理解を提供し、より多くのクリックスルーにつながります。したがって、これらを軽視しないでください。

8.画像の最適化

ページ上のビジュアル資産の重要性について議論しましたが、ここではその技術的な側面をより詳しく検討します。

あなたの画像を最適化するためのヒントをいくつか紹介します:

  • SEOフレンドリーな代替テキストを含める。
  • 高速読み込みのための適切な形式とファイルサイズを選択する。
  • IMG_08759のような名前ではなく、カスタムファイル名を使用する。
  • 画像がモバイルフレンドリーであることを確認する。

ここでも、HTMLでの画像最適化についてより詳細な情報を提供する素晴らしいリソースがあります。こちらをお読みください。

9.ジオタギング(ローカル検索向け)

グローバル経済かもしれませんが、ほとんどのビジネスはまだローカルレベルで行われています。オンページのローカルSEOを最適化して、近隣の人々とつながりましょう。

ローカルトラフィックに焦点を当てる際に考慮すべき3つの主要なSEO戦術があります:

  • リスティングと引用の最適化:名前、住所、電話番号(NAP)、ウェブサイトURL、ビジネスの説明を含め、レビューを獲得する。
  • ローカルコンテンツの最適化:「近くの」検索に対応し、

場所に基づいたコンテンツを提供したり、ローカルのウェブサイトやブログを購入したりする。 ・他のローカルビジネスや組織とのリンク構築。

取り入れるべき追加のローカルSEO戦術:

  • ローカルビジネスリスト、イベント、特別オファーなどのためにローカライズされたスキーママークアップを実装する。
  • 最新の情報、写真、投稿、Q&A、ローカルに関連するコンテンツでGoogleビジネスプロフィールを最適化する。
  • モバイル検索のために近接性と位置情報データを活用する。 ・ロケーション固有のページ、コンテンツハブ、またはマイクロサイトを作成する。

効果的なローカルSEOの例:

  • 地元で調達した食材の特徴を専用ページで紹介するレストラン。
  • すべてのサービスエリアに対応したジオページを持つサービスプロバイダーのサイト。
  • 地元での受け取りが可能な在庫を強調するeコマースストア。

ジオタギングSEO戦略の構築についてより詳しく知るには、こちらをお読みください。

ウェブサイトアーキテクチャ

適切に構造化されたウェブサイトを持つことは、2つの理由で重要です:第一に、論理的にレイアウトされたウェブサイトは検索エンジンによってより効果的にクロールされ、第二に、よりリッチなユーザー体験を生み出します。

サイトのアーキテクチャを最適化する際に考慮すべき要因は以下の通りです:

10.サイトスピード

重たくて読み込みの遅いサイトは、訪問者をいらだたせ追い払うだけでなく、検索ランキングも損なわれます。

Search Engine Journalは、ページの読み込み時間がSEOに与える影響を調査し、ページ速度が検索結果のランキング要因であることを確認しました。

しかし、サイトが満たすべき最低速度は常に変化しています。

これは、Googleのコアウェブバイタルの最小閾値を満たすことで達成できます。現在、あなたのサイトがこれらの基準を満たしていない場合、以下のような手順を取ることができます:

  • 圧縮を有効にする。
  • リダイレクトを減らす。
  • 画像を最適化する。
  • ブラウザキャッシュを活用する。

11.レスポンシブデザイン

モバイル検索の量は2016年にデスクトップを上回り、それ以来増加し続けています。

より多くのユーザーがモバイルデバイスを使用しているため、Googleは論理的な道筋を辿り、モバイル画面に適応するデザインを持つサイトを優先し始めました。

レスポンシブデザインなしで検索結果にランクインすることは依然として可能ですが、Googleは強くレスポンシブデザインを推奨しています。

サイトのレスポンシブ性が検索結果に与える影響についてはこちらで詳しく読むことができます。

12.URL構造

かつてURLはSEOにおいて重要な役割を果たしていました。企業はより高いランクを獲得するためにドメイン名にキーワードを含めていました。

しかしGoogleは、Googleらしくアルゴリズムを変更しました。かつてはランキングにとって非常に重要だったものが、現在ではずっと小さな役割しか果たしていません。

これは重要ではないという意味ではありません。検索エンジンは依然としてURLを全体的なスコアに含めています – ただし、かつてのような重要性はありません。

しかし、URLがサイトの初期ランキングに役割を果たしているという証拠があり、一部の専門家はURLがページのグループ化に使用されていると考えています。URLをトップのSEO優先事項にする必要はありませんが、無視すべきでもありません。

URLがGoogleのランキングにどのように影響するかについて、詳しくはこちらをお読みください。

13.リンク

この記事の冒頭で触れたE-E-A-Tを覚えていますか?

あなたのウェブサイトがそれを確立する最良の方法の1つは、他の評判の良いウェブサイトからのリンクです。

このように考えてみてください:401(k)を誰に任せたいですか – ウォーレン・バフェットのポートフォリオを管理する金融アドバイザーと、叔母の地下室に住むいとこのジミーのどちらでしょうか?ジミーも素晴らしい仕事をするかもしれません。バフェットの人を上回る可能性さえあります。しかし、彼には強力な推薦によってもたらされる信頼性がありません。

リンクも同じように機能します。

SEOに関して知っておくべき3つの主なタイプのリンクがあります:

内部リンクこれのように、あなたのウェブサイトの別のページに向けるリンク。

・アウトバウンドリンク(外部リンク)これのように、異なるドメインのサイトを指すリンク。これはGoogleのSEOページを指しています。

・インバウンドリンク(バックリンクとも呼ばれる):他のウェブサイトからあなたのページを指すリンク。

この3つの中で、インバウンドリンクがE-E-A-Tシグナルを高めるのに最も重要です。高品質で関連性のあるインバウンドリンク、特に権威があり経験豊富なソースからのものは、あなたのサイトの専門知識、権威性、信頼性を示すのに役立ちます。

SEO専門家は、ソーシャルメディア、共有可能なインフォグラフィックの作成、さらにはバックリンクを直接依頼するなど、さまざまな方法で質の高いインバウンドリンクを生成しています。

しかし、注意してください:すべてのインバウンドリンクが有用というわけではありません。リンクファーム、フォーラム投稿、ゲストブックなどからのものは、ランキングシステムを欺く偽のリンクである可能性があります。これらを否認しないと、ランキングに悪影響を与える可能性があります。

オンページSEO vs オフページSEO

オンページSEOについて多く話してきましたが、オフページSEOと呼ばれるものもあります。その違いは、名前からも推測できるように、それが起こる場所です。

オンページSEOは、キーワードの最適化、メタディスクリプション、タイトルタグ、代替テキスト、ウェブサイト構造など、ランキングを高めるために内部的に行えるすべてのことです。

オフページSEOは、あなたのサイトのランキングに影響を与えるすべての外部要因を指します。これには、バックリンク、E-E-A-T、ローカルSEO、ソーシャルメディアでの言及、ペイパークリックなどが含まれます。

あなたはオンページSEOをより多くコントロールできますが、オフページSEOも考慮することが重要です – 目標を達成するには両方が必要です。

しかし、まずは検索エンジンに最適化された良質で関連性のあるウェブページを構築することに集中し、その後でリンクの構築やサイトのプロモーションにリソースを投資し始めるのが最良です。

結論

検索アルゴリズムが進化しても、高品質で関連性のあるコンテンツを作成し、技術的な要素を最適化する必要性は続きます。

覚えておくべき重要なポイント:

  • E-E-A-Tを示す、価値があり、ユーザー中心のコンテンツの作成に焦点を当てる。
  • HTMLタグ、サイト速度、モバイルレスポンシブ性などの技術的要素を最適化する。
  • 論理的なサイト構造を維持し、内部リンクを効果的に使用する。
  • 定期的にコンテンツを更新し、鮮度を保つ。
  • オンページSEOはオフページ要因と連携して全体的なSEOの成功につながることを忘れないでください。
  • これを一回限りの修正ではなく、継続的なプロセスとして捉えてください。

これらの戦術を一貫して実施することで、検索結果で良好なランキングを獲得する可能性が大幅に向上します。

本記事はSearch Engine Journalの「13 Essential On-Page SEO Factors You Need To Know」を翻訳した記事です。

seojapan

SEOクライアントと持続的な良好関係を築く方法

1 year 9ヶ月 ago

本記事はSearch Engine Landの「How to build lasting relationships with SEO clients」を翻訳した記事です。SEOクライアントとの永続的な良好関係を構築することは、ビジネスの成功に必要不可欠です。

常に新規顧客を獲得し続けるよりも、既存顧客を支援する方がはるかにコスト効率が高いです。しかし、多くの企業が既存顧客との関係維持を軽視していると思います。

したがって、本記事ではSEOクライアントと持続的に良好関係を築く方法を紹介していきます。

期待値の調整

新規クライアントとのプロジェクトがスタートする際、期待値を調整することが非常に重要です。

高すぎる成果を約束してしまうと自分の首を絞めることになりかねません。したがって、あなたの経験や過去の成功例を提示し、現実的な成果や見込みを提示しましょう。

また、SEOの効果を発揮するまでに時間がかかることや、短期的な結果を期待することは非現実的である点をクライアントに理解してもらうことも重要です。

初期フェーズ

契約し始めた初期段階で、施策の進捗を説明し、クライアントに定期的に情報を提供することは非常に重要です。

報告を怠り、具体的な結果が見えない場合、多くのクライアントは進行施策について不安を感じ始めます。時には、この不安が関係値低迷につながり、プロジェクトの契約が早期に終わってしまうこともあります。

リードや売上につながっていなくても、施策の進捗や重要指標の推移を共有し、今後の展開をすり合わせましょう。

クライアントリテイナー

クライアントとの長期的な関係を確保する最も効果的な方法の1つは、リテイナー契約(コンサルティング契約)にあります。

リテイナー契約は安定した収入源を提供し、クライアントの継続的な成功へのあなたのコミットメントを示します。

これは、短期的な成果だけでなく、持続可能なプロジェクト支援に専念することを示します。この安定性は信頼を育み、より包括的で戦略的な計画を立てることができます。

【成功するリテイナー契約のためのヒント】

  • 作業範囲と期待される成果を明確に定義する。
  • 価格モデルの透明性を確保する。
  • 進捗を確認し、必要に応じて戦略を調整する定期MTGをスケジュールする。
  • 変化するニーズや市場条件に適応できる柔軟性を含める。

施策効果の提供

施策の効果は、クライアントとの関係の基礎になるものです。一貫して高品質の結果を提供することは、クライアントとの信頼を構築し、貴社の介在価値を証明することができます。

クライアントは、オーガニックトラフィックの増加、検索ランキングの向上、コンバージョン率の改善など、SEOメトリクスの具体的な改善からプロジェクトの良し悪しを判断します。

したがって、これらの結果が契約期間内に実現しない場合、クライアントとの契約は続かない可能性が高くなります。

もし施策が思うように早く進まない場合は、クライアントより早く問題提起しましょう。

これにより、収集したデータに基づいて戦略を調整する時間を得ることができます。しかし、最終的には、その問題を改善し、プロジェクトにインパクトをもたらす成果を提供する必要があります。

関連記事:SEOの価値を説明する7つの実証済み方法

コミュニケーション

オープンで誠実なコミュニケーションは、強固なクライアント関係を維持するために不可欠です。

定期的で透明性のあるコミュニケーションは、クライアントが施策進行を把握することができ、以下の機会もつながります。

  • 懸念事項に対処する。
  • 質問に答える。
  • 必要な調整を行う。

状況が悪化し始めた場合、情報共有が滞らないよう注意が必要です。何が起こっているのか、そしてどう対応するかの計画をクライアントに説明してください。

クライアントに対してオープンで正直であることは、長期的な信頼を維持するのに役立ちます。

【クライアントコミュニケーションのベストプラクティス】

  • 進捗と戦略を議論するための定期的なミーティングをスケジュールする。
  • メールやレポートを通じて詳細な更新を提供する。
  • タスクとマイルストーンを追跡するためにプロジェクト管理ツールを使用する。
  • クライアントの依頼に迅速に対応し、潜在的な問題に積極的に対処する。

関連記事:SEOクライアントの関与を維持する方法:8つのコミュニケーションタッチポイント

レポーティング

定期的なレポーティングは、実施施策の価値を示します。包括的なレポートは以下を行うべきです。

  • 達成した進捗施策を明確に示す。
  • 主要な指標を強調する。
  • 次回アクション・ステップを説明する。

この透明性は、クライアントが施策の効果を理解し、プロジェクト成功へのあなたのコミットメントへのアピールにつながります。

なお、レポーティングがクライアントの要件に合わせてカスタマイズされていることを確認してください。不必要な質問や確認を行ってしまうケースもあるため、重要な情報を簡単に、必要最小限に抑えたレポート作成を心掛けましょう。

また、過去のパフォーマンスを踏まえて、今後注力する施策提案を含めることができます。

例えば、非常に良い成績を上げている特定ページのトラフィックが低下した場合、その問題に対処する施策をレポートに含めることをおすすめします。

顧客に合わせた対応

各クライアントに合わせた対応を行うことが重要です。

クライアントは独自の目標、課題、市場条件を持つため、彼らのニーズに合わせて施策をカスタマイズすることが必要があります。

また、関係値を強化するための個人的なアプローチもあります。

例えば、クライアントの子供の名前を覚えたり、誕生日を祝ったり、前月に取り組んでいた大きなプレゼンテーションがどうだったか尋ねたりするような簡単なことです。

個人的なタッチを加えることで、長期的なクライアント維持の鍵となります。自然に行うことが重要で、無理に行うと、逆効果になるため注意してください。

クライアントの成功が私たちSEOベンダの成功

SEO担当者として私たちの使命は、クライアントのプロジェクト成功を支援することです。それを達成すれば、最終的に私たち自身のキャリアやビジネスでも成功を収めることができます。

常に新しいクライアントを獲得し、最終的に期待に応えられずに離れていくようなサービスは誰も幸せになることができません。

オープンで正直に、そして協力的なアプローチでSEOに取り組むことで、クライアントとの長期的な関係を構築する可能性が大きく高まります。このようなクライアントとの関係は何年も続き、他社や別案件を紹介してくれる可能性もあるでしょう。

seojapan

サイトの直帰率が高くなる12の原因と解決策

1 year 10ヶ月 ago

本記事はSearch Engine Journalの「12 Reasons Your Website Can Have A High Bounce Rate」を翻訳した記事です。

もしあなたのウェブサイトの直帰率が高い場合は、より良い体験をユーザーに提供するため、改善が必要となります。本記事では、高い直帰率の原因と直帰率を下げる方法を紹介します。ぜひ参考にしてみてください。

直帰率の高いページはフラストレーションを引き起こすかもしれませんが、直帰率自体は有用な指標です。

GA4 の直帰率が高いからといって、必ずしもウェブサイトやページのパフォーマンスが悪いというわけではありません。直帰率を正確に追跡するには、GA4 を適切に設定する必要があります。

直帰率について学び始めたばかりなら、まずこのガイドを読むことを強くお勧めします。

直帰率が高いと、Web サイトのユーザビリティやコンテンツの問題を発見しやすくなります。これらの問題を修正することは、全体的なSEOに非常に効果的です(ただし、直帰率自体がSEOに直接影響するわけではありません)。

直帰率が高い原因を特定し、改善するのは難しいケースもあります。

また、一部のページでは直帰率が高くても問題ありませんが、特に「収益」ページで直帰率が高すぎるのは避けたいものです。

直帰率が高い理由

以下は、直帰率が高くなる 12 の一般的な原因と6つの改善方法を紹介します。

1. ページの読み込みが遅い

Google は「Interaction to Next Paint」と呼ばれる新しいCore Web Vitals指標を導入し、ページの読み込み速度に改めて重点を置きました。

ページの読み込みが遅いと、直帰率が高くなる大きな原因となります。

ページの読み込み速度は、Google のランキング アルゴリズムの一部です。Googleは、ユーザーに良い体験を提供するコンテンツを推奨したいと考えています。一方で、速度が遅いサイトは悪い体験を提供する可能性があります。

ページの読み込みに2.5秒以上かかると、訪問者はイライラして離脱してしまうかもしれません。サイト速度を改善することは、SEOやマーケティングのプロにとって生涯の取り組みとなります。

次のようなツールを使用して、ページ速度(全体および個々のページ)を確認します。

  • Google PageSpeed Insights
  • ライトハウスレポート。
  • ピングダム。
  • GTメトリックス。

画像の圧縮、サードパーティのスクリプトの削減、ブラウザのキャッシュの活用など、サイト固有の推奨事項が提供されます。

2. 必要な情報をすぐに得られるコンテンツ

時に、コンテンツが効率的すぎて、ユーザーが必要な情報をすぐに得て離脱することがありますが、これは悪いことではありません。

むしろ、あなたは素晴らしいコンテンツを作成し、ユーザーを数分間引き込んだのかもしれません。

直帰率が心配な場合は、Google Analyticsの「ページ滞在時間」と「平均セッション継続時間」の指標を確認しましょう。また、ユーザーエクスペリエンステストやA/Bテストを実施して、高い直帰率が問題かどうかを確認することもできます。

ユーザーがページに数分以上滞在している場合、それはGoogleに対して、そのページが検索クエリに非常に関連しているというポジティブなシグナルを送ります。これが特定の検索クエリでランクインするためには重要です。

ユーザーがページに1分未満しか滞在していない場合(適切に最適化されたランディングページの場合など)、フォームを記入した後に関連するブログ記事を読んだり、キャンペーン関連のビデオを視聴したりするように誘導することを検討してください。

注:GA4では、ビデオ再生を「主要イベント」として設定すると、この種のセッションは直帰としてカウントされず、「エンゲージメント」としてカウントされます。

3. 特定のページが全体の直帰率に影響を与えているケース

一部のページが、サイト全体の直帰率に影響を与えている可能性があります。幸いGoogleはこれらの違いを認識してくれます。

単一のCTAランディングページがユーザーの意図を満たし、アクションを取った後にすぐに離脱する場合でも、長いコンテンツページの直帰率が低い場合は問題ありません。しかし、詳しく調べてこれが事実であることと、直帰率が高いページの原因を確認する必要があります。

Google Analyticsを開き、「行動 > サイトコンテンツ > ランディングページ」に移動し、直帰率で並べ替えます。不必要なページを除外するために、高度なフィルターを追加してください。

フィルターを追加する際には、ページにとって重要なボリュームの最小しきい値を決定します。例えば、100回の訪問や1,000回の訪問などです。

Google Search Console 4 のスクリーンショット(2024 年 4 月)

「探索」レポートに移動し、指標として「直帰率」と「セッション」を選択し、ディメンションとして「ランディング ページ」を選択します。

訪問数の少ないページを削除するには、100 ではなくセッション数 (特定のプロジェクトの場合は 50 など) でフィルタリングします。

やり方についてはビデオガイドをご覧ください

ビデオプレーヤー

4. 誤解を招くタイトルタグやメタディスクリプション

タイトルタグとメタディスクリプションがページの内容を正確に要約しているか確認してください。そうでない場合、訪問者は誤解してサイトにアクセスし、すぐに離脱してしまいます。

コンテンツを確認し、それに応じてタイトルタグとメタディスクリプションを調整しましょう。あるいは、検索クエリに対応するようにコンテンツを書き直すことを推奨します。

5. 空白ページまたは技術的なエラー

直帰率が非常に高く、ユーザーがページに数秒未満しか滞在していない場合、ページが空白であるか、404エラーを返しているか、適切に読み込まれていない可能性があります。

視聴者の最も人気のあるブラウザとデバイス構成からページを確認し、視聴者のエクスペリエンスを再現しましょう。また、Search Consoleの「カバレッジ」で問題を確認し、修正してください。

Google アナリティクス 4 のスクリーンショット(2024 年 4 月)

6. 別のウェブサイトからの不正なリンク

オーガニック検索結果からの直帰率を通常または低く抑えるために、自社側で対策しているにもかかわらず、参照トラフィックからの直帰率が高い場合があります。

参照元サイトが不適切な訪問者を送信している可能性や、リンクのアンカー テキストが誤解を招く形で設定されている可能性があります。

そのような場合は、まず記事の著者に連絡してください。返答がなかったり、公開後に記事を更新できない場合は、サイトの編集者またはウェブマスターに問題を報告することができます。

あなたのサイトへのリンクを削除するか、文脈を更新するか、どちらか適切な方を依頼してください。

スパムソースからのトラフィックを除外する方法

7. アフィリエイトランディングページまたはシングルページサイト

あなたがアフィリエイトを行っている場合、ページの目的は訪問者を意図的にあなたのウェブサイトから販売者のサイトに誘導することだと思います。その場合、ページの直帰率が高いのは正常です。

また、単一ページのウェブサイト(電子書籍のランディングページやシンプルなポートフォリオサイトなど)でも直帰率が高くなるのは一般的です。このようなサイトでは他に移動するページがないため、訪問者がすぐに離れることが多いです。

このようなサイトでは、他に行く場所がないため、直帰率が非常に高くなるのが一般的です。

Googleは通常、ユーザーのクエリに素早く回答するサイトがユーザーの意図をうまく満たしているかどうかを判断します。

しかし、アフィリエイトリンクのクリックをコンバージョンイベントとして設定している場合、この種のセッションは直帰としてカウントされず、「エンゲージメント」としてカウントされます。

8. 低品質なコンテンツ

訪問者があなたのウェブサイトからすぐに離脱するのは、コンテンツが低品質であるか、最適化されていない可能性があります。

自分のページをじっくりと見て、最も判断力があり誠実な同僚や友人にレビューしてもらいましょう(コンテンツマーケティングまたはコピーライティングの経験があり、ターゲットオーディエンスに属している方が理想的です)。

コンテンツが良くても、オンラインでの閲覧やターゲットユーザー向けに最適化されていない場合があります。例えば、簡単な文章で書かれているか、ヘッダータグがたくさんあって簡単にスキャンできるか、質問に明確に答えているか、文章を区切るための画像が含まれているかなどを確認してください。

また、フリーランスのコピーライターやコンテンツディレクターを雇って、あなたのアイデアをコンバージョンにつながる強力なコンテンツに変えてもらうことも検討してください。

9. 不快なユーザーエクスペリエンス(UX)

広告、ポップアップアンケート、メール購読ボタンなどを多用していませんか?このようなCTAを多用すると、訪問者がすぐに離脱してしまいます。

GoogleのCore Web Vitalsはユーザーエクスペリエンスに関するものであり、ランキング要因であるだけでなく、サイト訪問者の満足度にも影響を及ぼします。あなたのサイトのナビゲーションがわかりにくい場合、訪問者はさらに詳しく調べたいと思っても、ブログに検索ボックスがなかったり、スマートフォンでメニュー項目をクリックするのが難しかったりすると、すぐに離脱してしまいます。

こうしたデザインミスを避けるために、ウェブデザイナーやUXデザイナーにサイトをレビューしてもらい、問題がある部分を指摘してもらいましょう。

10. ページがモバイルフレンドリーではない

SEO のプロはモバイルフレンドリーな Web サイトの重要性を理解していますが、必ずしも遵守されているわけではありません。Googleは2017年にモバイルファーストインデックスへの移行を発表しましたが、今でもモバイルフレンドリーではないウェブサイトが多いです。

モバイル向けに最適化されていないウェブサイトは、モバイルデバイス上では見栄えが悪く、読み込みも遅くなります。これが直帰率が高くなる原因です。レスポンシブデザインを使用して実装されている場合でも、ページがモバイルフレンドリーではない可能性があります。モバイル形式に圧縮されたときに重要な情報が見えにくくなることがあります。

ページが直帰率が高く、すぐに目立った問題がない場合は、モバイルフォンでテストしてみてください。また、Google Search ConsoleとLighthouseでモバイルの問題を確認することもできます。

11. コンテンツの深さ

Googleは、スニペットとナレッジパネルを通じてユーザーに迅速な回答を提供できます。しかし、それよりも一歩進んだ、奥深く、興味深いコンテンツを提供できるのはあなただけです。訪問者がクリックして、サイト上の他のページも閲覧したくなるようなコンテンツを作成しましょう。

関連性の高い内部リンクを提供し、訪問者が長く滞在できるように心がけましょう。すぐに答えが欲しい人のために、冒頭に要約を記載することも考慮してください。

12. 記載項目が多すぎる

初めからクレジットカード番号や個人情報を求めるのは避けましょう。

サイト訪問時は、ユーザーはまだあなたを信頼していません。多くの詐欺サイトが存在するため、新しいウェブサイトに訪れた際には疑念を抱くものです。大きなポップアップで情報を求めると、多くの人がすぐに離脱してしまうでしょう。

あなたの仕事は訪問者との信頼関係を築くことです。信頼を築くことで、訪問者は安心し、直帰率も低くなります。ユーザーが満足するサイトを作ることが大切です。

直帰率を下げるためのヒント

直帰率を下げるために、以下のベストプラクティスを紹介します。

1. タイトルタグとメタディスクリプションを作り直す

場合によっては、ページが素晴らしい内容でも、タイトルタグとメタディスクリプションが一致していないと訪問者が離脱してしまいます。ページの内容と一致するようにメタタグを見直しましょう。

2. コンテンツが検索意図に一致しているか確認する

タイトルタグとメタディスクリプションが内容を過剰に宣伝している場合、コンテンツを見直して一致させる必要があります。

次の方法でコンテンツを読みやすくしてみましょう。

  • 空白スペースでテキストを分割する。
  • サポート画像を追加します。
  • 短い文章で書く。
  • 優れた、すっきりとしたデザインを使用する。
  • 訪問者に過度の広告を大量に表示しない。

3. 重要な要素を上に配置する

コンテンツがタイトルタグやメタディスクリプションの内容と一致していたとしても、コンテンツの内容、とくに重要な要素とも一致している必要があります。

特に、コンテンツの結論にあたる部分などは上部に配置し、ポップアップ広告などで隠れないようにしましょう。

4. 不必要な要素を最小限に抑える

ポップアップ広告、インラインプロモーションなど訪問者が関心のないコンテンツを過度に掲載するのは控えましょう。

視覚的に圧倒されると、訪問者が離脱してしまう可能性があります。該当ページにとって最も重要な CTA を強調できるように調整しましょう。

5. ユーザーが望む場所に早く到達できるようにする

より多くの人々にあなたのサイトを閲覧してもらいたいですよね。以下のように、ユーザーが望むページへ移動できるようナビゲーションを含む改善を実践してみてください。

  • 予測検索、便利なフィルターを使用して、サイト内検索を円滑にする。
  • ナビゲーション メニューを作り直し、複雑なドロップダウン メニューとシンプルなドロップダウン メニューが直帰率にどのような影響を与えるかを A/B テストしてみる。
  • 長文の記事には、読者が読みたいセクションに直接移動できるアンカー リンクを含む目次を含める。

6.疑問がある場合はテストする

直帰率を改善するために、どのような変更すべきかかわからない場合があります。そんな時は、A/B テストと多変量テストを活用してください。

さまざまな改善を試して、視聴者の反応を確認してみてください、さまざまなタイトル、ヘッダー、コンテンツ、画像、レイアウト、デザインをA/Bテストしてみましょう。

まとめ

直帰率は数多くあるSEO指標の一つに過ぎませんが、改善可能な指標です。Google Analyticsを活用し、ウェブサイトの直帰率を分析して、適切な対策を講じましょう。直帰率を下げるための取り組みは、ユーザーエクスペリエンスを向上させるためにも重要です。それでは幸運を!

本記事はSearch Engine Journalの「12 Reasons Your Website Can Have A High Bounce Rate」を翻訳した記事です。

seojapan
確認済み
2 時間 42 分 ago
SEO Japan フィード を購読

人気記事トップ10

人気記事ランキングをもっと見る