SEO Japan

複数のAIプラットフォームが機能する時代を先行するCMO・SEO担当者になるには(Part1)

3 週間 2 日 ago

本記事は、「BrightEdge」というSEOとAIに関するサイトパフォーマンスを計測できるツールを提供している企業のLemuel Park氏の発信を元にしたSearch Engine Journalの記事「The CMO & SEO: Staying Ahead Of The Multi-AI Search Platform Shift」を翻訳したものです。

※SEO Japan補足:「BrightEdge」
企業向けSEOプラットフォームを提供する企業。この記事の著者Lemuel ParkはBrightEdgeの共同創設者兼CTO。BrightEdge分析は同社のデータ分析ツールによる調査結果を指す

AI検索とGoogle検索を行き来する、マルチプラットフォームでの検索の世界が到来しつつある今、「検索はどのように進化していくのか?」「ChatGPTは脅威なのか、それともチャンスなのか。」「大規模言語モデル(LLM)の最適化は、検索エンジンの最適化と同じなのか。」とSEO担当者とCMOの双方が最も気にかけている問題があります。

この2部構成のシリーズでは、こうした疑問に答えながら、今後SEO担当者およびマーケティング責任者(CMO)が大きな変化を乗り越えるための明確な方向性と焦点をお伝えします。

この記事で学べること

エコシステムの進化

依然としてGoogleが優勢な世界ですが、ネイティブAI検索プラットフォームがどこで成長しているのか、そしてそれが何を意味するのかを解説します。

チャンス vs. ピンチ

AIプラットフォームがかつてないブランドの露出の機会を生み出す一方で、新しい投資収益率(ROI)の考え方が求められる理由と、それが我々にとってピンチとなるのか、チャンスとなるのかを解説します。

LLM最適化戦略

AIと検索プラットフォームを問わず、SEOの重要性がこれまで以上に高まっている理由と、最適化すべき具体的なポイントを解説します。

CMOの優先事項

AI検索において、権威性と信頼性のシグナルがこれまで以上に重要になっている理由を解説します。

組織の連携

AIファーストの検索市場で戦略的に戦うために、マーケティング、PR、技術チームを統合する必要がある理由を解説します。

検索エコシステムは今後6か月でどう発展するのか?

上記の質問に答える上で、私は今、本当に興味深い現象を目撃していると感じています。検索環境は根本的な変革を遂げており、今後6か月で大きく加速していくでしょう。

Googleは依然として約90%の市場シェアを握っていますが、AI検索プラットフォームは無視できない爆発的な成長を見せています。

具体的な数字を見てみましょう。ChatGPTは月次で21%の成長を示しており、週間アクティブユーザーの数は7億人に到達する勢いです。

ClaudeとPerplexityも、それぞれ21%と19%の成長で同様の数字を記録しています。しかし、私が特に注目しているのはGrokです。月次で1,000%を超える成長を記録しました。

出典:BrightEdge Generative ParserおよびDataCube分析、2025年7月。

※SEO Japan補足:「Generative Parser」
AI生成コンテンツを解析するツールの名称。

確かに小さな基盤からのスタートですが、この成長軌道は注目すべきダークホースと言えるでしょう。一方、DeepSeekは1月の急増後、徐々に減少を続けており、この新興市場のボラティリティを浮き彫りにしています。これについては後ほど詳しく触れます。

※SEO Japan補足:「Deep Seek」
中国発のAI企業が開発した大規模言語モデル(LLM)。

※SEO Japan補足:「ボラティリティ(volatility)」
価格や数値の変動の激しさ、不安定さを表す用語。ここではAI検索プラットフォームの利用者数の変動性を指す

ユーザー行動も複数のAIプラットフォーム上で進化している

特に興味深いのは、ユーザー行動の進化です。人々は単にGoogleからAI検索へ切り替えているわけではなく、具体的なニーズに応じてプラットフォームを使い分け始めています。私が観察している使い分けは以下の通りです。

  • 深い調査が必要な時はChatGPT。
  • 素早く事実を確認したい時はPerplexity。
  • 信頼できる情報が必要な時はClaude。
  • 包括的な情報を得たい時はGoogle。
BrightEdgeからの画像、2025年8月

BrightEdgeから引用:2025年8月

CMOに求められる、AIとSEOに対する向き合い方の変化

マーケティングの観点から見ると、各種AIプラットフォームへの最適化は急務であると言えます。SEOはもはやGoogleだけを対象とするものではありません。もちろん、依然としてGoogleに最も注力すべきという点は変わりませんが。

マーケターは、それぞれ独自のデータ取り込みパイプラインを持つ複数のAI検索への最適化を考える必要があります。ChatGPTとClaudeの場合、AIモデルが安全に再利用できる、明確で構造化された引用付きのコンテンツが必要です。Perplexityの場合は、従来のキーワード密度よりも、タイムリーさ、信頼性、簡潔さが重要になります。

もはやWebサイトの運用は、クリック数を増やすための最適化だけでは不十分です。影響力と引用を得るための最適化が求められています。つまり、これらすべての異なるタイプのAI体験において、適切なタイミングで適切なコンテキストの中に表示されることを確実にする必要があるのです。

検索ボットからAIユーザーエージェントへの進化

この動きを主導しているのが、ChatGPTとそのユーザーエージェントです。

7月のBrightEdgeの分析によると、ChatGPTのユーザーエージェントによるリアルタイムページリクエストが、その活動量をほぼ2倍に増やしたことが明らかになりました。つまり、質問に答えるためにリアルタイムのウェブ検索を利用するユーザーが、わずか1か月で2倍近くに増えたということです。

例えば、最新のレビューをもとに「Apple Watch vs. Fitbit」を比較したいとします。この場合、ChatGPTユーザーエージェントはあなたのブラウジングアシスタントとして機能し、あなたの代わりに情報を探します。これは従来の検索エンジンやクローラーとは根本的に異なる仕組みです。

「Apple Watch vs. Fitbit」

BrightEdgeから引用:2025年8月

まとめると、今後6か月間で、私が「マルチAI検索の世界」と呼ぶものが確立されると考えています。ユーザーは、その時々のニーズに応じて、プラットフォーム間を流動的に切り替えることに慣れていくでしょう。クロスプラットフォーム最適化をいち早く理解した人々には、大きなチャンスをもたらす事になるでしょう。

ChatGPTのようなAIプラットフォームの台頭は、CMOにとってチャンスなのかピンチなのか

すべてチャンスと捉えるべきです。

各AIプラットフォームは独自の機能やその特性を確立しつつあります。GoogleはAI OverviewsとAI Modeに注力しています。ChatGPTは会話型Q&Aから完全なウェブ検索とAIを統合したサービスへと、興味深い進化を遂げています。

Perplexityは、引用を重視し、モバイルユーザーにとって使いやすいUIで、一流の「回答エンジン」としての地位を確立しています。また、ニュースプロバイダーやリアルタイムデータとのより深い統合も計画しています。

Claudeは会話機能を超えて、優れたファクトチェック機能を備えたコンテキスト検索へと拡大しています。一方、MicrosoftのBing Copilotは、ドキュメント生成とウェブ検索をシームレスに統合したハイブリッド型として位置づけられています。

AIプラットフォームの台頭により、CMOは新たなマーケティングチャンスを得られる反面、各プラットフォームの特性を理解し、将来を見据えた戦略的な対応が必要になっています。

CMOが理解すべき、ランキングから参照・引用への移行

ここで重要なマインドセットの転換があります。私たちがWebサイトの運用において注目すべき指標は「ランキング」から「参照」へと移行しているのです。AIによる要約は単に上位10件のリンクを表示するのではなく、回答の中でサイトを参照し、出典として示します。

AIによる要約の中で引用されることは、従来のブルーリンクで上位にランクすることよりも大きな影響力を持つ可能性があります。そのため、CMOは自社がどこにランクしているかだけでなく、自社のコンテンツがどこでどのようにAIから参照され、引用されているかを追跡し始める必要があります。

技術インフラの要件とCMOのSEOチームへの依存

技術面では、構造化データと明確な情報設計は、もはや「あれば良い」というものではなく、必須の基盤となっています。

技術インフラの要件

BrightEdgeから引用:2025年8月

AIは正確な情報を引き出すためにこの構造に依存しているため、schema.orgマークアップ、クリーンな技術的SEO、マシンリーダブルなコンテンツ形式が不可欠です。

※SEO Japan補足:「schema.orgマークアップ」
検索エンジンにコンテンツの意味を伝えるための標準化されたタグ

ブランド、CMO、そして権威性と信頼性の重要性

ここで重要になってくることがあります。権威性とブランドの信頼性が、これまで以上に重要になっているのです。AIは、権威があり、信頼でき、頻繁に引用されていると判断するサイトから情報を引き出す傾向があります。これは、すべてのデジタルチャネルにわたる長期的なブランド構築、ソートリーダーシップ(「この業界ならこの企業」という認知、ブランディング)の重要性を高めています。

人間とAIアルゴリズムの両方に向けて、E-E-A-Tシグナル(経験、専門性、権威性、信頼性)に注力する必要があります。

CMOがSEOとAIで競争優位性を獲得する方法

こうした変化に積極的に適応しているCMOこそが、競争優位を獲得していると言えます。

つまり測定方法、技術的SEO、ブランドの信頼性、チーム間の連携を見直しているCMOです。優秀なCMOは、既に自社が継続的な可視性と影響力を確保できるよう、対策を始めています。

AI検索への移行は急速ですが、賢明なエンタープライズマーケターは、これをブランドエンゲージメントを深め、人間のユーザーとAIエンジンの双方にとって信頼できる情報源になるチャンスとして捉えています。

確かに挑戦的な取り組みと捉えられますが、これを正しく実行できることの、ブランドにとっての潜在的な利益は計り知れません。

これはROIについて考える、まったく新しい方法なのです。

LLMへの最適化は、Googleが言うように検索エンジンの最適化と同じなのか

タイで開催されたGoogle Search Central Liveでの、「SEO担当者はGEOのために最適化する必要はない」というGaryのアドバイスを受けて、私はGaryの意見が正しいと考えています。「SEO」と「GEO」は頭字語が違うだけで、特にGoogle検索に関しては、本質は変わっていません。

SEOはこれまで以上に重要になっており、AIはこの分野の専門家への需要を加速させています。あなたのウェブサイトは依然として、高速で、モバイルフレンドリーで、技術的に正しく構築されている必要があります。検索エンジンとAIシステムの両方が、あなたのコンテンツを効率的にクロールしてインデックスできなければなりません。適切なURL構造、XMLサイトマップ、クリーンなコード、高速な読み込み時間といった技術的最適化は、今でも成果をもたらしています。

CMO、SEO、そしてLLM最適化の基礎

さて、すべてのLLMに向けた最適化について話す時、成功の鍵は依然としてコアSEO(特にテクニカルSEO)とコンテンツの基礎にあるという共通点があります。

  • 強力な内部リンクは、AIクローラーがあなたのページ間のつながりを理解するのに役立ちます。
  • すべてのページがクロールしやすい状態であることを確認してください。
  • 明確な見出し、スキーママークアップ、FAQセクションを使って、コンテンツ全体で関連する質問に答えましょう。
  • 人々が何を達成しようとしているのかを理解し、答えを提供して、AI検索結果で引用される情報源になることを目指してください。

    これまでのSEOと同じように。

LLMプラットフォーム固有の違い

より多くのブランドが複数のAIプラットフォーム上で発見され、解釈されるようになるにつれ、各プラットフォームが独自のインターフェース、ロジック、そしてブランド認識の形成方法を持っていることを理解することも重要です。

各プラットフォームは独自の強みを発展させています。ChatGPT Searchは包括的な文脈を持った回答を提供します。Perplexityは視覚的な統合と関連コンテンツで優れています。Google AI Overviewは構造化された階層的な情報の提示に長けています。

具体例を挙げましょう。ユーザーが「何が最高か?」のような比較の質問をすると、ChatGPTとGoogleのアプローチは似ています。しかし、「どうすればよいか?」のような行動指向の質問になると、両者は大きく異なります。ChatGPTは意思決定をサポートするコーチのように振る舞い、Google AIOは調査アシスタントの役割を保ちます。

画像に alt 属性が指定されていません。ファイル名: chatgpt-v-google-sej-lem-park-46-1024x581.webp

BrightEdgeから引用:2025年8月

トラストシグナルの違い

各プラットフォームは、トラストシグナルのパターンも異なります。Google AI Overviewsは、レビューサイトやRedditのようなコミュニティソースを引用する傾向があり、「コミュニティはどう考えているか?」という視点を重視します。

※SEO Japan補足:「トラストシグナル(Trust Signal)」
AIが情報源の信頼性や権威性を判断するための手がかりのこと。

一方、ChatGPTは通販サイトのソースをより頻繁に参照する傾向があり、「どこで購入できるか?」という視点を重視します。これは、各プラットフォームが信頼性と権威性の検証に対して異なるアプローチを採用していることを示唆しています。

CMOとマーケティングチームのためのAI最適化3ステップ

これから組織が取り組むべきフレームワークをご紹介します。

①複数のAIエンジン全体での自社のAI上のブランドプレゼンス(AI検索結果上の自社コンテンツの露出度)を追跡します。AI Overviews、ChatGPT、その他のプラットフォームでの引用と言及を通じて、可視性が時間とともにどう変化するかをモニタリングします。

②主要なプロンプトにおけるブランド言及の違いを理解することに焦点を当てます。ChatGPT、AI Overviews、その他のAI検索エンジンのどのプロンプトでブランドが言及されるかを素早く特定し、コンテンツを効率的に最適化できるようにします。

③特定のプロンプトを深く掘り下げて、AIシステムがなぜそのブランドを推奨するのかを理解します。センチメント分析を活用することで、各AIエンジンがどのブランド属性を好むかについて正確な洞察が得られます。

関連記事:The Triple-P Framework: AIと検索によるブランドの認知度・出現率のパフォーマンス

※SEO Japan補足:「センチメント分析」
テキストデータから感情や意見を抽出・分析する自然言語処理技術

マーケティングにおけるAI、検索、チーム間の連携

私が見てきた中で効果的な取り組みの一つは、マーケティングチーム全体でのより緊密な連携です。広告戦略とオーガニック戦略はこれまで以上に足並みを揃える必要があります。なぜなら、広告とオーガニックのAI Overviewsはしばしば一緒に表示されるため、メッセージング、ブランディング、ターゲットとするインテントは完全に一貫している必要があるからです。

さらに、PRとコンテンツチームの間でより良い調整が必要です。メディア、レビュー、権威あるサイトでのオフサイトの言及が、AIの要約で誰が引用されるかに直接影響を与えるからです。

まとめ「マルチプラットフォームでの検索に対応する」とは

変化に積極的に適応しているCMOは、進化し続ける環境の中で、競争優位性を確保できるよう各種プラットフォームでの露出の仕方や、そのための発信に取り組んでいます。

これまでのように、広告とオーガニック検索を分けて考えたり、自サイトの各ページがどのように引用されているか?のような情報を個別に見るのではなく、全体像を捉える必要があります。

その上で自社のWebサイトはどのようなポジションで、ユーザーからはどのように受け入れられているのか?それはどのプラットフォームで、どのように言及されているのか?また、その理由までを把握し、最適化に取り組むことが「AI時代の検索における最適化」と言えるでしょう。

AIと検索に関してCMOが抱く3つの大きな疑問

Q:AIがGoogleを駆逐する?
A:いいえ、AIはGoogleをさらに強化しました。

Q:SEOは終わった?
A:いいえ、SEOはこれまで以上に重要になっています。生成AIへの最適化(GEO)は、これまでのSEOの基礎の上に構築されています。

Q:すべてが変わる?
A:変化すればするほど、変わらないものも増えます。

※SEO Japan補足:「AIによって変化していくほど、普遍的な点が際立つ」と筆者は言いたいのだと解釈しています。例えば、AIによる検索が台頭し、以前からあるテクニカルSEOの施策が再度スポットライトを浴びているように思います。AIやユーザーの行動が変わることで、大きく変化するマーケティング手法・指標もあれば、本質的で普遍的な施策はより重要性が増して残り続けるだろう、という主旨と受け止めました。

このシリーズのパート2(次回投稿予定)では、従来のSERP検索の未来と、エージェント型SEOが検索ファネルをどう変えるかを取り上げます。こうした変化が、SEOの役割とCMOの管轄下にあるすべてのチームにどのような影響を与えるかを解説します。

SEO Japan編集部より:

本記事の内容は、正直なところ新しい話ではなく、業界内ですでに多く語られてきました。
AIと検索のマルチプラットフォームの活用化が進む現在、先日SEO Japanでリリースした「BtoB製品・サービスの選定や導入検討に関わる会社員・経営層437名を対象にしたAI時代における検索行動の実態調査」でも同じ結果が見られています。

今後AI検索の重要性が高まるのは確実ですが、CVや流入の計測が難しい現時点では、AhrefsのBrand Raderなどを参考に試験的に対応する方も多いようです。

当社内でも「AI Overviewsの影響をどう測るか」「PerplexityやChatGPTで自社がどう扱われているか」といった具体的な問いが増えてきており、AI検索対応は、既存SEOの延長線上にある“現実的な改善テーマ”として扱われつつあります。

構造化データやFAQ、内部リンクの整備といった地味な要素への向き合いと、ブランドの信頼性や専門性などのマーケティングでは当たり前とされてきた文脈の整理が、AI検索時代における“引用される条件”として再定義されています。

SEO担当者としてこうした改めて言われている内容を「本当にできているか?」と今一度整理し直すことが、中長期的に最も価値を生む取り組みになるのではないでしょうか。

seojapan

【Webサイトリニューアル・移行の秘訣】プロが語る12個の注意点

1ヶ月 2 週間 ago

この記事は、botifyの「12 Tips for Site Migrations: Top Insights from Industry Experts」を翻訳した記事です。Webサイトのリニューアルを成功させるための、12個のヒントが紹介されており、リニューアル後の発生しうるエラーに向けたリスク対策などが参考になります。

サイトのリニューアルは、どの企業にとっても必要でありながら、困難な作業です。特に、オンラインで収益の大部分を生み出し、移行すべきページが数百万にも及ぶ大規模ブランドにとっては尚更です。

しかし、安心してください。私たちは米国およびEMEA(Europe, Middle East, and Africa)地域のトップブランドの専門家から重要な知見と実行可能なアドバイスを集めました。

これらは、プラットフォームの移行、ドメイン移行、またはリデザインのいずれに取り組んでいる場合でも、あなたのWebサイトリニューアルをスムーズかつ成功させるために役立つでしょう。

【リニューアル前】プロジェクト成功に向けた準備

1. 移行方法と必要性を明確にする

サイトリニューアルは、目的に合わせ複数の方法が存在します。

例えば、ドメイン移行はあるドメインから別のドメインへの切り替えを伴いますが、プラットフォーム移行はプラットフォームの変更(例:あるCMSから別のCMSへ)に焦点を当てます。

時に、これらの変更が同時に発生することもあり、追加のプランニングが必要になります。自分が何に取り組んでいるのか、何のために行っているのかを把握することが重要です。

例えば、スポーツウェアブランドであるOnが2023年にトップレベルドメイン移行を開始したとき、「ブランディング上の理由でした」とSEOチームリードのMax Woelfle氏は述べています。「当初、ブランドはOn Runningとして知られていました。私たちはランニングシューズ以上のことをしています。」

単に「onrunning.com」を「on.com」にリダイレクトするだけではありませんでした。

「私たちにとっての課題の一つは、『on』という言葉自体が一般的な英単語であることです。SEOで上位表示させるには非常に難しい言葉なのです。」とWoelfle氏は述べています。

「そこで、on.comを購入して、『on』という言葉にブランドの意味を定着させるというアイデアがありました。トップレベルドメインを所有することは、そのための良いステップだったと思います。」

2. SEOチームを早期に関与させる

サイトリニューアルが慎重にプランニングされなかった場合、すべてのチャネル、特にオーガニック検索に重大な悪影響をもたらす可能性があります。そのため、SEOチームは、後からではなく、できるだけ早い段階からプロジェクトに参加するべきです。

SEOチームは、リニューアルを通じて考慮しなければならないURL、コンテンツなどを作成、整理し、優先順位をつけることができます。彼らの意見を取り入れることで、適切な要素が、サイトリニューアルのタイムラインと戦略に組み込まれます。もしSEOチームが終盤になって参加した場合、急な決定や土壇場での追加作業が発生し、サイトの長期的なパフォーマンスに影響を与える可能性があります。

Recurrent VenturesのCTOだったDave Marks氏が、複数のWebサイトを同時に別のプラットフォームへ移行する大規模プロジェクトに取り組んだ際、SEOチームは最初からプロジェクトに参加していました。

※SEO Japan補足:ここで言うプラットフォームはCMSなどが例として挙げられる

「編集スタッフが抱えていた問題、または技術的な問題を経営陣が理解していたので、経営層の賛同は容易に得られました」とMarks氏は述べています。

「とはいえ、それだけの金額を投じるのであれば、投資対効果を示す必要がありました。SEOはその提案の重要な要素で、実際にコントロール可能なプラットフォームに移行することで得られる、テクニカルSEOの改善機会を説明しました。そこからSEOチームは、プロジェクトの最初から最後まで参加しました。」

3. ステークホルダーと現実的な期待値を設定する

Webサイト全体を移行する場合でも、プラットフォームを切り替える場合でも、ドメインを変更する場合でも、ステークホルダーとの明確なコミュニケーションが不可欠です。

Webサイトのリニューアルプロジェクトは、多くの場合、複数のチームを横断的に巻き込みます。技術的なタスクのためのエンジニアリング、有料メディアのURLとコンテンツのためのパフォーマンスマーケティング、タイムラインと実装の優先順位付けと管理のためのプロダクトマネージャー、さらには高レベルのタイムライン、リスク測定、価値見積もりのための経営陣まで含まれます。

早期にミーティングを行い、期待値を設定し、何が関与するのか、誰が何に責任を持つのか、いつ決定を下す必要があるのかを議論してください。これは、プロジェクトのKPIと具体的な目標を定義するタイミングでもあります。

4. 詳細なチェックリストとロードマップを作成する

サイトリニューアルは複雑なプロジェクトです。物事を整理しておくために、包括的なチェックリストを準備しましょう。それには、調査・サイト構造の分析から、開発、品質チェックまで、すべてのステップが含まれるべきです。

どのチームがどのタスクに責任を持つべきかを最終決定するために、ステークホルダーの賛同を得るようにしてください。

また、各フェーズの作業完了日を含む大まかなロードマップも用意してください。こうすることで、締め切りが守られ、漏れがないようにできます。Asana、Jiraなどのデジタルプロジェクト管理プラットフォームは、チームがすべての動いている要素を管理するのに役立ちます。

【リニューアル中】軌道を維持する

5. 明確で一貫したコミュニケーションを維持する

全員の認識を揃え、情報を共有し続けることが重要です。主要なステークホルダーが更新情報を共有し、質問できる定期的なミーティングを設定することが、認識合わせを確実にするために必要になります。

週次のメールや、SlackやTeamsなどの社内メッセージングアプリでの更新も、透明性を提供し、各メンバーが自分の出番を把握でき、変更や遅延にも対応しやすくなります。

6. 文書化を徹底する

プロジェクトが進行するにつれ、成果物を保存し、途中のすべての決定を文書化することを心がけましょう。後で問題が発生したときや、方向性を再検討するときに大きく役立つ可能性があります。

また、課題に直面したときは、問題を直ちに処理する必要があるのか、それとも将来的に対処するのかを見極めてください。

【実装のヒント】詳細をこだわる

7. 立ち上げ前の準備

新しいサイトを立ち上げる前に、Botify Analyticsなどのツールを活用して、古いWebサイトをクロール分析してください。

また、LogAnalyzerでログファイルを監視して、クロールの問題を捉えることもできます。この分析結果があれば、移行前の状態を把握しておき、問題のある領域を迅速に優先順位付け、リダイレクトを設定できます。さらに、新しいサイトでも高パフォーマンスのページを特定できます。

立ち上げ前に、新しいサイトへのアクセスをブロックすることは、Googleが早まってクロールするのを防ぎ、ユーザーが不完全なサイトを訪れるのを避けるために必要になります。

Botify IntelligenceのActionBoardを使用して、問題を効率的に整理し、施策の優先順位をつけることができます。

8. 一貫性が鍵

移行する際、一貫性が最も重要です。Canonical、サイトマップ、スキーマ、内部リンクはすべて、以前と同じURLを指すべきです。カテゴリーの統廃合や新設がある場合でも、リダイレクト設定により、すべての古いURLを新サイトの適切なページへ転送できます。

ユーザーとクローラーを古いURLから新しいものへ移動させるために、直接的な301リダイレクトを実装してください。複数回の転送を避けるために、既存のリダイレクトを更新し、無期限リダイレクトに変更しましょう。

何らかの不一致や大量の壊れたリンクがある場合、ランキングが下がり、トラフィックと信頼性を損なうリスクがあります。

さらに、404エラーや存在しないページカテゴリーに到達したユーザーは不満を抱き、エンゲージメントやブランドロイヤルティの低下につながります。これらは最終的にドメインオーソリティと収益の損失につながる可能性があります。

9. 新しいサイトをクロールする

新しいサイトをクロールして、技術的またはコンテンツ面での問題を特定してください。旧サイトと比較して、すべての重要な要素が移行されているか確認してください。このステップにより、何らかのエラーを残したまま公開してしまうことを防げます。

SEO Japan補足:「すべての重要な要素」は、ページのコンテンツテキスト、メタ情報、内部リンク canonicalなどが例として挙げられます。

Botify を使用することで、上記の作業をスムーズに進めることができます。ステージング環境のサイトをクロールすることで、コンテンツの不一致や技術的な問題を洗い出し、本番公開前に修正できます。

【公開前】最終チェック

10. 慎重にサイトを立ち上げる

新サイトの立ち上げ時、ユーザーと検索エンジンがアクセスできるように、新しいサイトへのブロックを解除してください。リダイレクトが正しく機能していることをテストし、Canonicalが正しく設定されていることを確認してください。

すべてのWebアナリティクススクリプトとタグが正しく発火していることを再確認してください。

また、robots.txtファイルを更新、新しいXMLサイトマップを検索エンジンに送信することで、クローラーが新しいサイトを発見、インデックス化することができます。

残念ながら、検索エンジンボットが自動的に新しいドメインをクロールする確証はありません。「必ずGoogleに通知してください」とCare.comの元Growth、SEO、MartechシニアディレクターだったSharanya Srinivasan氏はアドバイスしています。

「単純な作業に思えますが、多くの中小企業がGoogleへの通知を見落としており、大企業でさえ忘れることがあります。Googleは『既にインデックスに登録されているから、そのままにしておこう』という判断をしてしまうため、こちらから積極的にGoogleへクロールを促す必要があるのです。」

IndexNowやSmartIndexのPush to Bing機能などのツールを通じて、検索エンジンボットに新しいWebサイトのクロールを促すことができます。また、Google Search Console(GSC)を通じて、優先ページの新しいURLのインデックス化をリクエストすることもできます。

成功のためのモニタリングと測定

11. KPIをモニタリングする

サイトのリニューアル後は、トラフィックとランキングの変動に備えてください。立ち上げ後の監視が包括的であればあるほど、問題を特定して解決するのが早くなります。

リニューアル後の最初の数時間で、実際のユーザー視点での動作テスト(UAT)を実行し、リダイレクトを検証し、一般的にすべてが正常に機能していることを確認してください。数日間は、GSCを監視することに注力してください。

人気のあるページのパフォーマンス低下は、何らかのエラーが発生したかどうかを察知できますが、サイトの他領域は調整により時間がかかる可能性があるため、長期間にわたってKPIを監視することが不可欠です。立ち上げ後の数週間は、インデックス化率、クロールバジェット状況、オーガニックトラフィックの異常に注目してください。

「トラフィックに注目してください」とSrinivasan氏は述べています。「以前と同じインプレッション数を獲得できていますか?インデックスされているURL数は元の水準に戻っていますか?着実に回復していますか?」これらは一晩で元に戻るものではないため、慎重なモニタリングが必要です。

12. ビジネス面の数値を追跡する

トラフィックとランキングを超えて、収益、注文数、チャネルパフォーマンスなどのビジネスKPIを追跡してください。これらが最終的にサイトリニューアル・移行の成功を決定するためです。ビジネス目標への長期的な影響は、サイトリニューアルの技術面と同じくらい重要です。

まとめ

Webサイトのリニューアルは複雑ですが、適切なアプローチがあれば、過度に心配する必要はありません。

SEO面の早期段階からの配慮、ステークホルダーとの明確な期待値の設定、詳細なチェックリストを作成し、技術的要件に目を配ることで、よくある落とし穴を避けながら、スムーズなサイトリニューアルを実現することができます。

あくまでも、サイトリニューアルは進行中のプロセスであり、立ち上げ後に結果を監視し測定する準備を常にしておいてください。

SEOJapan編集部より:
我々のご支援の中でも、サイトリニューアル・移行のご相談を頂きます。移行後、ランキング低下など予測できない事態が発生しうるセンシティブな取り組みです。移行先ページのチェックや、計測内容はもちろん、常にステークホルダーと綿密なコミュニケーションを取り、認識ズレが発生しないよう努めています。

seojapan

【437名調査】BtoB製品選定プロセスは生成AI普及でどう変わった?AI利用者64.5%が他ソースも確認、ただし最初の手段はWeb検索74.4%

1ヶ月 3 週間 ago

SEO Japanは、BtoB製品・サービスの選定や導入検討に関わる会社員・経営層437名を対象に、AI時代における検索行動の実態調査を実施しました。

本調査では、製品選定の初動で最も利用されるのは依然としてWeb検索(74.4%)である一方、5年前にはなかったAI検索(12.6%)が第2位に浮上。さらにAI検索を使う人の6割以上が他の情報源で再確認するなど、検索行動に変化が見られました。

調査結果(サマリー)

調査結果のサマリーは以下の通りです。

  • 製品選定時の情報収集で「最初に」使う手段:Web検索が74.4%で1位、AI検索が12.6%で2位
  • Google検索の利用方法:39.4%が「AI Overviews(生成AI要約)を参考」にしている実態
  • AI検索利用者の検証行動:64.5%が他の情報源で「必ず/ほぼ確認」しており、複数チャネルでの情報検証が標準化

調査サンプルの属性について

今回の調査対象者は、BtoB製品・サービスの選定や導入検討に関わる会社員・経営層437名で、以下のような属性分布となっています。

職業分布

  • 経営者・役員:55%
  • 会社員(事務系):21%
  • 会社員(技術系):19%
  • 会社員その他:5%

年齢分布

  • 50歳~59歳:38.3%
  • 60歳以上:27.7%
  • 40歳~49歳:17.9%
  • 30歳~39歳:11.6%
  • 20歳~29歳:4.5%

本調査の詳細結果資料は以下よりダウンロードできます。

BtoB製品選定における検索行動実態調査ダウンロード

Q1. 製品・サービス選定時の情報収集における各手段の利用頻度

「BtoB製品・サービス選定時の情報収集における各手段の利用頻度」について質問したところ、Web検索(Google、Bing等)を「必ず使う」が56.3%、「よく使う」が34.3%で、合計90.6%が利用していることが判明しました。

一方、AI検索(ChatGPT、Claude、Gemini等)については「必ず使う」が19.0%、「よく使う」が24.5%で、合計43.5%が利用しており、約半数近くがAI検索を活用している実態が明らかになりました。

その他の情報収集手段では、業界専門メディア・比較サイトが44.8%、YouTubeが42.8%の利用率となっています。

Q2. 5年前(2020年頃)と比べた各情報源の利用頻度の変化

「5年前(2020年頃)と比べて、各情報源の利用頻度がどう変化したか」という質問では、Web検索(Google、Bing等)について「大幅増加」が12.8%、「やや増加」が27.5%で、合計40.3%が増加したと回答しました。

これは、AIが普及した影響だけでなく、コロナ禍を経たデジタル化の加速なども背景にあると考えられます。

Q3. 製品選定で情報収集する際に「最初に」使う手段

「製品選定で情報収集する際に最初に使うことが多い手段」について質問したところ、Web検索(Google、Bing等)が74.4%で圧倒的1位AI検索(ChatGPT、Claude、Gemini等)が12.6%で2位という結果になりました。

業界専門の比較サイト(7%)、導入企業を検索(4%)が続く結果となり、初動の情報収集においてWeb検索の地位は依然として強固である一方、AI検索が新たな選択肢として確実に浸透していることが確認されました。

Q4. Google検索の利用方法について

「Google検索をどのように利用しているか」という質問(複数回答)では、「AI Overviews(生成AI要約)がある場合は参考にする」が39.4%でトップとなりました。

続いて、「より具体的な条件を入れて検索するようになった」(35.7%)、「検索結果の1ページ目しか見ない」(31.4%)、「検索後にAI検索でさらに詳細を確認する」(29.5%)という結果が得られました。

この結果は、GoogleのAI Overviews機能が約4割のユーザーに活用されており、検索行動に実質的な変化をもたらしていることを示しています。

Q5. 対話型AI(ChatGPT、Claude、Gemini等)の利用状況

「対話型AIを製品選定の情報収集で利用しているか」という質問では、「頻繁に利用している」が21.7%、「時々利用している」が35.2%で、合計56.9%が定期的にAI検索を活用していることが明らかになりました。

「試したことがある程度」(19.0%)を含めると、約76%がAI検索の経験を持っており、BtoB分野においてもAI検索の普及が進んでいることが確認されました。

Q6. 各情報収集手段の満足度比較

各情報収集手段の満足度について質問したところ、Web検索(Google、Bing等)が「満足」25.4%、「やや満足」53.3%で合計78.7%と最も高い満足度を示しました。

AI検索(ChatGPT、Claude、Gemini等)は「満足」14.2%、「やや満足」33.2%で合計47.4%となり、Web検索と比べて満足度に差があることが判明しました。

この結果は、AI検索が便利さを提供する一方で、情報の正確性や網羅性においてWeb検索に及ばない面があることを示唆しています。

Q7. AI検索で得た製品情報の検証行動

「AI検索で得た製品情報について、他の情報源でも確認しているか」という質問では、「必ず確認する」が30%、「ほぼ確認する」が35%で、合計64.5%が他の情報源での検証を行っていることが明らかになりました。

「重要な案件は確認する」(23%)を含めると、87.5%がなんらかの形で検証を行っており、AI検索への信頼度はまだ限定的であることが示されました。

Q8. 製品選定における情報の信頼性ランキング

「製品選定における各情報源の信頼性」について1位から6位まで順位付けしてもらったところ、「Web検索(Google、Bing等)で上位表示される比較記事」が43.5%で1位を獲得しました。

2位は「製品ベンダーの公式サイトや提供資料」(24.3%)、3位は「AI検索による分析・おすすめ情報」(12.1%)となり、AI検索は利用率の向上に比べて信頼性の評価はまだ発展途上であることが示されました。

Q9. 製品選定の各段階で主に使用する情報収集手段

製品選定プロセスの各段階で主に使用する情報収集手段について質問したところ、Web検索(Google、Bing等)が62%で圧倒的に多くAI検索が14%、公式サイトが12%、専門メディアが6%という結果となりました。

Q10. AI検索を「利用しない」または「避ける」ケース

「AI検索を製品選定で利用しないまたは避けるケース」について複数回答で質問したところ、以下のような結果が得られました。

  • 高額製品(1000万円以上):29.5%
  • セキュリティ関連製品(情報漏洩リスク):27.2%
  • 最新製品(AIの学習データが古い):22.7%
  • 業界特有の専門製品:22.4%
  • 法規制に関わる製品:15.8%

一方で、「特にない・すべての分野で利用する」と回答した人も31.6%おり、AI検索に対する姿勢が二極化していることが判明しました。

調査結果から見える新たな検索行動トレンド

1. ハイブリッド検索の定着化

今回の調査で最も注目すべき点は、Web検索とAIを併用する「ハイブリッド検索」が標準化していることです。多くのユーザーがAIで得た情報を他の情報源で検証しており、単一の情報源に依存しない慎重な情報収集スタイルが確立されています。

2. 信頼性格差の継続

満足度や信頼性において、Web検索(特にSEO上位サイト)への評価が依然として高く、AI検索は補助的な役割に留まっています。これは、BtoB製品選定という高額・重要な意思決定において、より確実性の高い情報源が求められることを反映しています。

3. 用途別使い分けの明確化

高額製品、セキュリティ関連、最新製品など、AI検索を避ける領域が明確になっており、ユーザーは用途に応じて情報収集手段を使い分けていることが判明しました。

調査結果に対するSEO Japanからのコメント

SEO Japan編集長 兼
Webコンサルティング事業部長
遠藤幸三郎

各案件の数値を見ていて、購買行動においてGoogleをはじめとするWeb検索行動の位置付けが変化しているのではないか?と感じることがあり、本調査をするに至りました。

5年前と比較して「Web検索増加」が4割を超え、想定よりもWeb検索とAIを行き来しながら、情報を探索し、さぐる・かためるを行っていることがわかりました。

インターネットアンケートによる収集のため、一定の偏りがあることは含めて捉えていますが、この結果は、BtoBマーケティングにおいてWeb検索とAI検索の両面で情報を正しく届けることが不可欠であり、プレゼンスを高める本質的かつ包括的な検索最適化戦略が必要であることを示唆しています。

各AIが検索エンジンのデータを活用していることから、単に順位を追う・記事を作るだけの表面的なSEOではなく、元来から言われていた広義のSEOに取り組む理由となるでしょう。

本調査の詳細結果資料は以下よりダウンロードできます。

BtoB製品選定における検索行動実態調査ダウンロード

調査概要

  • 調査名称:AI時代のBtoB製品選定における検索行動実態調査
  • 調査対象:BtoB製品・サービスの選定や導入検討に関わる会社員・経営層437名
  • 調査期間:2025年8月20日~21日
  • 調査方法:インターネット調査
  • 対象エリア:全国
  • 実施機関:アイオイクス株式会社

本調査結果の取り扱いについて

調査内容をご紹介・引用・転載される際は出典元として「SEO Japan」を明記の上、当サイトへのリンク設定をお願いいたします。

例)「出典:SEO Japan

当記事内の画像・テキストは、記事への掲載、営業資料、イベント登壇資料、書籍などへの転載を含む商用利用について、個別のご連絡や許諾なくご自由にご利用ください。

seojapan

AIを使って優れたコンテンツを書く方法(7つのベストプラクティス)

2ヶ月 1 週間 ago

この記事は、Backlinkoの「How to Use AI for Writing Exceptional Content(7 Best Practices)」を翻訳したものです。ここ最近のGoogleコアアップデートでは、事例やユーザーが生成したコンテンツなど、体験に根ざしたコンテンツが評価されやすい傾向が見られます。

体験コンテンツを効率よく制作する際に、AIはもはや欠かせません。AIを活用することで、インタビュー設計やリサーチの下準備を、短時間で質を保ちながらまとめられます。

以前に翻訳した記事「役に立つコンテンツを作る10の方法 + 事例とチェックリスト」とも通じるところがありますが、AIの提案を鵜呑みにして採用するだけのコンテンツではサイトの資産にならないでしょう。

読者リサーチの進め方や設問づくり、AIを活用した編集方法など、実務で再現しやすい手順が紹介されているので、自社のワークフローを見直すヒントとしてぜひご活用ください。

ライティングのためのAI – 注目の画像

生成AIが発達した現代において、文章を書く人間が、敢えてAIを一切使わない理由は考えにくいですよね。

それはまるで、大工に「ドリルを使うな」と言うようなものです。確かにドリルがなくてもデッキは作れます。でも、わざわざそうする理由はあるでしょうか?

ライターは昔から、自分の技術を磨くために新しいツールを取り入れてきました。

筆記具のタイムライン

AIに限らず、どんな技術でも我々の行動原理は「楽をしたい」という気持ちです。

画期的なツールが開発される度、「全部を自動でやってくれるはずだ」と期待してしまうのです。そして、そこそこの内容でよければ、AIはまさに最適な解決策になります。

でも、本当に優れたコンテンツを作るのは簡単ではありません。どんなツールを使っても同じです。

実際、この記事を書くとき私はAIをたくさん活用しました。

それでも完成までに40時間以上かかったのです。

なぜでしょうか?

それはAIを使ったことで、自分のコンテンツをもっと良くできると気づいたからです。そしてこれは、あなたにも同じように当てはまります。

私はコンテンツチームに、普段どのようにAIを執筆や編集に活用しているのかを聞きました。

シニアライターのYongi Barnardさん、Kate Starrさん、Shreelekha Singhさん、そしてシニアエディターのChris HannaさんとChris Shirlowさんが、それぞれのワークフローや知見を共有してくれました。

本記事ではその内容を随所で紹介していきます。彼らのような優秀なメンバーのおかげで、Backlinkoは月間およそ80万セッションものトラフィックを生み出しているのです。

バックリンク – セッション

ここから紹介するのは、AIがサポートしてくれる7つの普遍的なライティング手法です。

まずは、執筆プロジェクトの計画から見ていきましょう。

1. AIを使って読者を定義する

読者を深く理解していなければ、どれほど優れたアイデアも伝わらずに終わってしまいます。

AIを使えば、読者リサーチがぐっと簡単になります。

何千件もの実際の会話を数分で分析できるため、これまでのように何週間もかけてインタビューやアンケートを行う必要はありません。

オーディエンスリサーチをより速く行う方法

この記事を題材に、私は「人々がAIを使って執筆することをどう感じているのか」を調べてみました。

率直な意見を集めるなら、最適なのはRedditです。

実際に「reddit using ai to write good content」とGoogle検索したところ、数十件ものスレッドが見つかりました。

※SEOJapan補足:「Reddit」
アメリカの巨大掲示板型ソーシャルメディアのこと。ユーザーが投稿したコンテンツに対して投票できる記事、質問、意見交換などのコミュニティサイト

Google SERP – RedditはAIを活用して良質なコンテンツを作成

コミュニティの議論をいくつか集めて、PDF としてエクスポートしました。

RedditからPDFへ

そこで私はClaudeに次のような指示を出しました。

「AIを使って良質なコンテンツを書く」ことをテーマに調査をしています。そこで関連するRedditスレッドを5つ添付しました。これらの会話を分析し、以下の観点で表を作成してください。
 ・Desires(欲求):人々は何を達成したいのか?
 ・Pain points(課題):どんな問題や壁に直面しているのか?
 ・Objections(懸念):どんな不安や抵抗を示しているのか?
それぞれの項目には、ディスカッションからの引用も添えてください。

その結果には本当に驚かされました。

クロード – 目を見張る結果

分析の結果、自分では気づかなかったパターンが見えてきました。

さらに、読者の生の感情や言葉をそのまま捉えた引用も含まれていました。

そのおかげで、私の文章は実際の体験に根ざしたものになったのです。

もちろん、私のやり方をそのまま真似する必要はありません。たとえばシニアライターのKate Starrは、読者リサーチに複数の情報源を活用しています。

Kate Starrさんのコメント
「私はよくAIにいろいろなデータを入力します。たとえば、Googleの『People Also Ask(PAA)』の内容や、クライアントとの会話記録などです。大切なのは、ターゲットとなる読者が自分の課題を語っているリアルな会話を見つけることです。

最近も、コンサルティングコールの記録をもとに詳しいカスタマーペルソナを作成しました。その結果、私たちのコンテンツ戦略全体を組み立てるうえで大きな助けとなりました。」

AIを活用するうえで大切なのは、次の3点です。

  • 膨大な読者データを短時間で処理する
  • 人の目では見逃しがちなパターンを見つける
  • 実際の発言を引用し、得られた洞察をリアルな体験と結びつける

ヒント:興味深いコミュニティの議論をまとめたフォルダを作成しましょう。興味深いスレッドを見つけたら、すぐに保存しましょう。その情報が将来のコンテンツに役立つかもしれません。

※SEO Japan補足:「People Also Ask(PAA)」
「関連する質問」や「他の人はこちらも質問」といった文言で、Googleの検索結果画面上に検索キーワードに関連した質問と回答を表示する機能

2. AIを使って独自の視点を見つける

業界内で人気のコンテンツを参考にして、そのアイデアをアレンジするのは簡単です。実際、それはAIがデフォルトでやっていることでもあります。

では、もっと良い方法は?

他のコンテンツや多くのLLM(大規模言語モデル)が見落としがちな視点を探すことです。そうすることで、文章がより新鮮で読者を惹きつけるものになります。

ここから、その方法を3つのステップで紹介します。

ステップ1:ソース資料を集める

まずは、テーマに関する上位3〜5件ほどの投稿を探しましょう。

対象はSNSの投稿でも、記事でも、アクセスできるならメールでもかまいません。

たとえば私は「AIライティング」に関する投稿を3件ピックアップし、Googleドキュメントにまとめてからテキストファイルとして書き出しました。

Googleドキュメント – AIの活用方法

ステップ2:AIに要約とアイデア出しを任せる

ステップ1で集めた資料をAIに入力し、全体を整理した分析を作ってもらいましょう。

そのとき使えるプロンプト例がこちらです。

[トピック]に関する記事をいくつか共有しました。これらを分析し、以下の観点で詳細に整理してください。

共通パターン
 ・繰り返し登場するアプローチを3〜4点挙げる
 ・記事の具体例を含める
 ・記事全体の構成や表現方法に見られる傾向をまとめる

前提
 ・各記事で当然のように扱われている前提を3〜4点抽出する
 ・論理や証拠が不足している部分を指摘する
 ・裏付けが足りない主張を見つける

不足している視点
 ・取り上げられていない重要な観点を3〜4点挙げる
 ・読者のニーズで十分に対応されていない部分を指摘する
 ・さらに深掘りできるテーマを明らかにする

注目すべき要素
 ・独自性のある、または効果的なアプローチを示す
 ・強い根拠や具体例を取り上げる
 ・記事の核となる構成や表現の工夫がみられる箇所を特定する

こちらが「AIを活用した執筆」の出力結果です。

カテゴリ 詳細
共通パターン ・戦略性より機能差に注目したツール比較が多い
・基本的な「入力と出力」のワークフロー事例
・「効率化できる」といった抽象的メリットの提示に偏る
・プロンプトエンジニアリングの重要性ばかりを強調
前提 ・AIを使えば使うほどコンテンツは良くなる
・読者はすでにAIの基礎を理解している
・単一の手法で誰にでも通用するという想定
・倫理的な懸念は簡単な免責事項で対処できると考えている
不足している視点 ・品質を検証するための仕組みや指標
・ツール選択のための戦略的なフレームワーク
・人間とAIが協働した具体的事例
・アプローチ別のコストと効果の比較
注目要素 ・ある記事では詳細なワークフロー図を掲載
・別の記事では失敗事例のミニケーススタディを紹介
・複数の記事で丁寧な倫理ガイドラインを提示
・ある記事ではAI出力の品質に関する独自の調査結果を提示

分析が終わったら、見つかった改善点をもとにAIに新しいアイデアを提案してもらいます。

このとき、Claudeが本記事に対して返してきた提案がこちらです。

AIライティングを考えるうえで提案された3つの切り口はこちらです。
1.戦略フレームワーク型
ポイント:執筆内容に合わせてAIツールをどう選び、どう使うかを体系的に整理する
メリット:ツールをやみくもに試すのではなく、根拠ある判断ができるようになる
違い:単なるツールリストを超え、判断基準やワークフローを明確に示す

2.品質管理型
ポイント:AIを使いながらもコンテンツの品質を保つための具体的な手順
メリット:プロのライターが最も気にする「品質維持」という課題に応える
違い:ツール利用の説明にとどまらず、品質を測定・改善するプロセスに重点を置く

3.現実チェック型
ポイント:AIの強みと限界を率直に見極める
メリット:読者が現実的な期待値を持ち、ありがちな失敗を避けられる
違い:理論上の効果ではなく、実際の事例やケーススタディを取り上げる

ステップ3:切り口を分析してブラッシュアップする

AIが最初に出力した切り口がそのまま使えることもあります。

しかし多くの場合では、魅力的なアイデアを見つけるためには、AIとのやり取りを何度も重ねる必要があります。

この記事も、そのプロセスを経て形になりました。

確かにツール比較や基本的なワークフローを解説する記事は豊富にありましたが、AIをどう戦略的に活用すべきかという枠組みを提示しているものはほとんどありませんでした。

さらに深く掘り下げていくと、もっと根本的なことに気づきました。

誰もが「執筆を楽にする」ことに注目していたのです。ツールやプロンプト、ショートカットなど。

でも、そこには見逃されている現実がありました。

優れたコンテンツを作ることはAIを使っても、使わなくても難しいものです。

そこで私は自分の切り口をこう定めました。AIをうまく使いながらも、良質なコンテンツをつくるために必要な努力は不可欠であるという視点です。

プロのヒント:最初に得られた気づきは、より良い切り口へ発展することがよくあります。初期の分析にとらわれず、思考を広げていくことを恐れないでください。

3. AIを使ってアウトラインを作成する

優れたコンテンツの多くは、綿密な計画から始まります。ところが、多くのライターはこの工程を省きがちです。

その結果、何時間も同じところをぐるぐる書き直したり、依頼の趣旨から大きく外れてしまったりするリスクがあります。

そのため私たちのチームでは、しっかりしたアウトラインを作らずに下書きを始めることはありません。

AIを活用すれば、そのアウトライン作成がずっと楽になります。

関連記事: コンテンツブリーフとは? (+3つのテンプレート)

AIとの協働によってアウトラインを強化する

AIにアウトラインを丸ごと任せたくなるかもしれませんが、それでは独自の視点が失われてしまいます。かといってAIを使わなければ、得られるはずの有益な洞察を逃してしまいます。

では、より良いアプローチは?

AIを「考えを深めるための相棒」として活用することです。

当社のシニアエディターであるChris Shirlowも、アウトライン作成の段階でAIを戦略的に取り入れることの重要性を強調しています。

Chris Shirlowさんのコメント
「私はまず、自分の競合分析をもとにアウトラインを作成します。その後、AIを使って潜在的な不足を洗い出します。例えば、メールマーケティングのガイドのアウトラインを作成した際に、AIが私の発想になかった自動化の章を加えるよう提案してくれたことがありました。」

重要なのは、自分自身のリサーチから始めることです。そうすることで、土台にしっかりとした専門性が宿ります。そのうえでAIを活用すれば、考えをさらに洗練させ、広げることができます。

たとえば、この記事では、私は最初に以下のようなラフな構成メモを用意しました。

  1. ニーズ(需要)
  2. 想定読者
  3. 切り口
  4. 構成
  5. リサーチ
  6. 執筆
  7. 図やビジュアル要素
  8. 付加要素
  9. 編集

次に、いくつかの参考資料を添えてClaudeにプロンプトを与えました。

私は今『AIを活用してより良いコンテンツを書く方法』に関する記事を執筆しています。概要と大まかなアウトラインは準備済みです。このアイデアのきっかけとなった記事も添付しました。

この進め方に対する、あなたの第一印象を聞かせてもらえますか?

以下はClaudeの分析(私が要約したもの)です。

強み
 ・AIの位置づけ:代替手段ではなく大工にとってのドリルのように「便利な道具」として紹介
 ・現実的な期待感:コンテンツ作成が依然として難しいことを認めている(40時間の例)
 ・普遍的な焦点:特定のAIツールやプロンプトに依存せず、基本原則を強調することで記事の価値を長持ちさせている
 ・信頼性:具体的なケーススタディや著者自身の経験を取り入れている

改善すべき点
 ・構成面:似通った要素(たとえば「読者」と「リサーチ」)は統合を検討する
 ・実装面:AIが実際に各手法をどう強化できるか、より具体的な事例を加える
 ・メタ視点:この記事そのものをAIを活用しながら書いている、という背景をより明確に示す
 ・バランス:記事の完成度を高くするために、AIの限界についての説明も盛り込む

AIが最初に出したアウトプットを出発点に、協働が始まりました。

Claudeは、各要素の呼び方を「ヒント」ではなく「プラクティス」とするよう提案してくれました。

その後も、私たちは各プラクティスの下位構造について互いに意見を交わしました。

途中でH2の見出し案を出してくれましたが、多くは私の意図と合わず、採用しませんでした。

それでも長いやり取りを重ね、文書に戻って修正する時間を挟みながら、最終的に納得できるアウトラインにたどり着きました。

以下は、その議論を通じて構造がどのように発展していったかの流れです。

項目 バージョン1 バージョン2 バージョン3 バージョン4
ニーズ(需要) 深掘り調査:表面的な情報にとどまらない まずはユーザーの声を聞く 読者像を定義する AIを活用して読者像をさらに具体化する
読者 読者理解:深く共感されるコンテンツを作る 読者マップを作成する 独自の切り口を見つける AIを活用して、自分では気づかない独自の切り口を発見する
切り口 戦略的な立ち位置:独自の切り口を探す 独自の切り口を深める 明確なアウトラインを作成する AIを活用してアウトラインを作る
構成 ストーリー設計:明確で説得力のある流れを構築する コンテンツ全体の流れを整理する 扱うテーマをリサーチする AIを活用してテーマをリサーチする
リサーチ 証拠や事例を用いてアイデアを具体化する 説明するだけでなく、実例で示す 魅力的なコンテンツを書く AIを使って魅力的なコンテンツを書く
執筆 声と文体:独特の存在感を醸し出す 自社(自分)のブランドボイスを見つける 読者に役立つ補足要素を加える AIを活用して補足要素を充実させる
強化 強化要素:コンテンツのインパクトを高める 効果的な強化要素を加える 読者に響くように文章を編集する AIを活用して下書きを編集する
編集 洗練と最適化:パフォーマンスを高めるために仕上げる 完成版をしっかりと仕上げ、磨きをかける

この繰り返しのプロセスによって、次の改善ができました。

  1. 行動が具体的に伝わる見出しに書き直せた
  2. 「AIを活用して…」という統一フォーマットを導入し、SEO対策にもつながった

ではここから、AIをどう使えばリサーチを通じてアウトラインを実際のコンテンツに仕上げられるのかを見ていきましょう。

4. AIを使ってテーマを調査する

リサーチは、いつの時代も優れた執筆の基盤です。

インターネットが普及する前は、図書館でカタログや学術誌、教科書を何時間もめくるのがリサーチの定番でした。

やがてデジタルの登場がその流れを大きく変えましたが、同時に「情報過多」という新しい課題も生んだのです。

場所のタイムラインを書く

今や、数百万もの情報源に一瞬でアクセスできる時代です。

ブログ記事、学術論文、オンラインコミュニティでの議論、専門家のインタビュー、分析データの情報は無数にあります。

しかし、それをすべて処理する時間はあるでしょうか?

そこでAIの出番です。

AIなら数千件もの情報を数秒で読み込み、見落としかねない重要な洞察を拾い上げてくれます。

ここからは、AIを効果的に活用する方法を探っていきましょう。

一次調査におけるAIの活用

インタビューや生データの収集、アンケート調査などを行うことで、他に模倣が難しい独自性のあるコンテンツを生み出せます。

重要なのは、AIを「分析だけ」に使うのではなく、リサーチ全体の流れに組み込んで活用することです。

より良いリサーチ質問の計画を立てる

リサーチの質は、適切な質問をすることにかかっています。

例えば、この記事を書く際、私は当初、自分のAIに関する体験だけを例にしようと考えていました。しかし、それだけでは不十分だと感じました。

そこで、私はClaudeと議論を始めました。

私:自分の考えだけでは限界があると感じています。編集チームに「AIをどう使っているか」を調査すれば、もっと多くの視点を加えられるかもしれません。

AI:それは、記事の説得力を大幅に高める方法です。複数の執筆者がAIの課題にどのように対応しているかを示せば、理論だけの説明よりもはるかに説得力が増すでしょう。

検討すべきこと:
 ・求めている具体的な知見は何か
 ・それを集める最も効率的な方法は何か
 ・メンバーが参加しやすくするにはどうすればよいか

Claudeのフィードバックを踏まえ、私は何度も調整を重ねながら調査質問を組み立てました。

この手法を試してみたい場合は、以下のテンプレートを参考にしてください。

具体的な質問を作成する前に、この研究アプローチを評価してください。
 ・対象:調査/インタビューを行う対象を説明
 ・目標:調査を通じて何を知りたいのか
 ・方法:データの収集方法
 ・期間:制約条件

そして、次のポイントを洗い出してください。
 ・潜在的な問題
 ・見落としている可能性のある視点や機会
 ・効率を改善する方法

次に、リサーチで使う質問の作成です。

トピックに関する[アンケート/インタビュー]用の質問の作成を手伝ってください。

考慮すべき点
 ・対象者:参加者について記述する
 ・時間的制約:予想される所要時間
 ・主な目的:2〜3の主要な目標を挙げる
 ・必要な出力:最終的に作りたいもの

質問の構成は以下のようにしてください
 ・焦点は絞りつつ、自由に答えられるオープンな形にする
 ・短時間で答えやすい内容にする
 ・具体例を求める質問にして明確さを保つ


最後に、用意した質問をテストしてみましょう。

これが私の下書きの質問です。次の点について分析してください。
 ・質問がわかりやすいか、混乱を招かないか
 ・誘導的・偏った表現になっていないか
 ・抜けている部分やカバーしきれていない内容がないか
 ・質問の順序や流れが論理的かどうか

例:

AIとの何度かのやり取りを経て、当初の「チームに調査をする」というアイデアは次のように変わりました。

  • 条件分岐を使い、焦点の定まった調査
  • 必要な内容を明示する具体例
  • 親しみやすく協調的な導入文
  • AI利用に関する具体的なプロンプト

その結果、チームから有益な知見を得られ、この記事を強化することができました。

専門家インタビューを最大限に活かす

インタビュー相手としっかり向き合いながら、細かな情報まで取りこぼさずに記録したい。そんなとき、AIが役立ちます。

まずは会話を録音することから始めましょう(もちろん相手の同意は必須)。自然な対話を心がけ、気になる話題は深掘りしてみてください。その後はAIを活用して、会話の中から価値ある洞察をすべて抽出します。

以下に、いくつか簡単なプロンプトを示します。

インタビューの準備

トピックに関する専門家インタビューの準備を手伝ってください。
提供した背景資料を確認したうえで、以下を提案してください。
 ・取り上げるべき主な議論のテーマ
 ・各テーマに関連する追加質問
 ・尋ねるべき具体的な事例やケース
 ・検証すべきデータや数値

録音を処理する

トピックに関する専門家インタビューの文字起こしを共有しました。以下を行ってください。
 1.主なポイントをわかりやすく要約する
 2.具体的な例やケーススタディを抽出する
 3.独自の洞察や視点を見つける
 4.印象的な引用を抜き出す
 5.不明確で追加確認が必要な箇所を指摘する

インサイトの検証

以下はインタビューから得られた私の主要な所見です。これについて、次の観点でチェックしてください。
 1.結論が文字起こし内容によって裏づけられているか
 2.自分が勝手に置いてしまっている前提はないか
 3.読み手に理解してもらうために補足すべき文脈は何か
 4.別の見方や解釈の余地があるかどうか

生データを理解する

リサーチの難しさは、データを集めること自体ではなく、その中から意味のあるストーリーを見つけ出すことにあります。

編集チームがAI活用に関する調査を終えたとき、私はまさにこの課題に直面しました。

回答を素早く処理したい、でも同時に大切な気づきを漏らさず拾いたい、この両立が必要だったのです。

そのために私がAIを使ってどのように回答を分析したのかを以下で紹介します。

全体像を把握する

AIの活用に関するチームのアンケート回答を共有しました。以下を行ってください。
 1.回答全体に共通するパターンを特定する
 2.他と異なるユニークな使い方や意外なアプローチを記録する
 3.詳細に語られている具体的な事例を強調する
 4.深掘りすべき潜在的なテーマを提案する

詳細を掘り下げる

特定のプラクティスについて、以下を分析してください。
 1.メンバーごとに異なる取り組み方
 2.成功事例として特に効果があった使い方
 3.共通する課題や制約
 4.言及された具体的なツールやプロンプト
 5.注目すべき作業フローの違い

補足資料の抽出

このトピックに関する回答から、以下を行ってください。
 1. 重要なポイントを裏付ける、説得力のある引用を見つける
 2.明確な成果を伴う具体的な事例を特定する
 3.共有された興味深いAIプロンプトを記録する
 4.補足として有効なビジュアルや図表を提案する

この分析により、チームのメンバーはそれぞれ異なる場面でAIを活用していることが分かりました。リサーチを得意とする人もいれば、編集に強みを持つ人もいます。

全員に共通していたのは、AIはあくまで慎重に扱うべきであり、全面的に依存すべきではない、という認識でした。

プロのヒント: AIを使ってデータを分析する前に、そのプロジェクトにとって「価値あるインサイト」が何を意味するのかを明確に定義しておきましょう。そうすることで、AIは最も重視すべき点にフォーカスして分析してくれます。

二次調査にAIを活用する

これまで二次調査といえば、論文やレポート、議論を何時間もかけて読み込むことを意味していました。

しかし、今は違います。

AIによって、既存の情報を整理・活用する方法そのものが変わりました。

ここからは、いくつかの活用例を紹介します。

音声・動画コンテンツから価値ある情報を引き出す

優れたインサイトの多くは、長時間のポッドキャストやカンファレンス講演の中に埋もれています。

創業者たちは舞台裏の物語を共有し、専門家は自分たちのフレームワークを明かし、業界のベテランはまだ記事にしていないトレンドについて語ります。

しかし、何時間もの動画を視聴するのは現実的ではありません。

ここでAIが時間を節約してくれます。

実際に私は、EC成長戦略に関する記事を執筆する際、創業者インタビューからAIを使って有益なインサイトを抽出しました。

まず、Who Is Elijah の創設者が 2,000 万ドルの収益を達成するまでの道のりを語るポッドキャストを見つけました。

Youtube – Foundrビデオ

次に、Rev AIを使用してインタビュー全体を文字起こししました。

Rev AI – 文字起こし

19,000語の文字起こしをすべて読む代わりに、私はClaudeに次のようなプロンプトで会話を分析させました。

私はeコマースの成長戦略に関する記事を書いています。この創業者インタビューを分析して、以下の点を整理してください。
 1.成長を促した重要な意思決定を特定する
 2.具体的な数値や成果を抽出する
 3.彼らのプロセスに関する独自の洞察を見つける
 4.各論点を裏付ける説得力のある引用文を抜粋する

この分析により、業務効率に関する興味深い事実が明らかになりました。

  • 彼らはチームを44人から21人に削減した
  • 専門職のフルタイム採用から代理店との提携に移行した
  • システムをゼロから再構築した
  • 利益が出ていなかったキャンペーン(-60%)を成功に導いた

この1つのポッドキャストから、説得力のあるケーススタディと、読者が実践できる実用的な教訓の両方を得ることができました。

複雑な文書を整理・活用する

学術論文や業界レポートには貴重なデータが含まれています。しかし、その多くは難解で専門用語が多く、実務に落とし込むのは簡単ではありません。

当社のシニアライターである Shreelekha Singh は、AIに十分な文脈情報を与えることで、より質の高いリサーチ結果を引き出しています。

Shreelekha Singhさんのコメント
「ヘルスケアについて執筆するとき、私は必ず記事の具体的な目的と進め方をPerplexityと共有します。
その際『予測ではなく、測定可能な成果に焦点を当てた、エビデンスに基づく分析が必要』と明確にアウトラインに記します。
こうした詳細な文脈を与えることで、AI はより関連性の高い研究論文やケーススタディを見つけてくれます。」

もう一つの例

情報獲得についての記事を書くとき、私はGoogleの特許出願を理解する必要がありました。

ところが、その文書は高度な専門用語で書かれており、読むだけで気が遠くなるようなものでした。

Google特許

途方に暮れる代わりに、私はAIを活用してこの複雑な資料の理解を助けてもらいました。

特許出願書をClaudeにアップロードし、「情報利得シグナル」について質問したのです。

するとClaudeは、「UserActionSignals」や「ClickSatisfaction」といった指標を平易な表現で説明してくれました。

その結果、Googleが新しい情報を評価・テストするプロセスを短時間で理解できました。

この方法は、以下のような資料にも有効です。

  • 学術論文や研究資料
  • 技術文書
  • 業界レポート
  • 法律関連の文書
  • 調査データ

要するにAIを「学習のパートナー」として考えてみてください。100ページに及ぶ文書でも数秒で読み、要点を平易な言葉で説明してくれる頼れる存在です。

5. AIを使って魅力的なコンテンツを作成する

大規模言語モデル(LLM) は、最小限のプロンプトで非常に優れた出力を生成します。

しかし、自分らしい読者を惹きつける文章を書くとなるとAIはやや物足りないのが実情です。

私は2021年からAIを使った執筆を試していますが、モデルには「既定の書き方」があると感じています。

AIが好むのは、対比的な表現です。「これは違う。しかし、これは正しい。」といった書き方です。

また、「transform(変革)」「game-changing(画期的)」「leverage(活用)」「optimize(最適化)」といったフレーズをよく使います。(これらの言葉自体に問題があるわけではありません。)

一般的なAIライティングパターン

AIには「すべてをリスト化してしまう」癖があり、もしプロジェクト全体を書けるなら、それも箇条書きにしてしまうでしょう。

もしAIの出力に満足できないことが多いなら、もっと良い成果を得る方法をお伝えします。

優れた参考資料を準備する

AIに与える文脈が具体的であればあるほど、生成される文章はあなたのスタイルに沿ったものになります。

つまり、自分の執筆スタイルを明確に定義することを意味します。

その方法としては、以下の要素を含む詳細なガイドラインを用意するとよいでしょう。

  • 読者ペルソナ
  • 読解レベル(学年・難易度の目安)
  • 見出しの型
  • 文章全体のトーン
  • 具体例
  • 読者を引き込む導入

ガイドラインに加えて、執筆サンプルとして使用できる完璧な記事や章を作ることを目標にしてください。

ガイドラインと具体例が揃えば、AIから得られる出力にも納得感が増します。

たとえば私の場合、ClaudeでBacklinko専用のプロジェクトを作成しました。そこには2万語以上の参考資料が含まれています。

クロード – プロジェクトナレッジ

新しい会話を始めるときも、Claudeは常にこの文脈を踏まえた状態で応答してくれます。

スタイル要件を何度も説明する必要はありません。

ヒント: AIツールにプロジェクト機能がない場合は、必要なリソースをPC内のフォルダにまとめて保存しておきましょう。必要なときにチャットでそれらを呼び出して使えます。

段階的に文脈を積み上げる

AIとの会話は、コンテンツの発展に合わせて進化させるべきです。

この記事のセクションを例に挙げましょう。私は「AIを活用した執筆」という専用チャットを立ち上げ、以下を共有しました。

  • 概要
  • これまでの記事草稿
  • チームアンケートの回答
  • このセクションの目標

そのうえで、次に「補足要素」に関するパートを書く際は、新しいチャットを立ち上げつつ、この完成済みセクションを参考資料として利用する予定です。

AIセッションの執筆

この段階的なアプローチにより、AI は各セクションの固有のニーズに適応しながら一貫性を維持できます。

シニアライターのShreelekhaも同じ手法を活用しています。

Shreelekha Singhさんのコメント
「私は、執筆のテーマや作業内容ごとに、異なるプロジェクトを作成します。こうすることで集中力を維持でき、AIにも各タスクに必要な文脈を正しく与えられるのです。」

利用しているLLMによっては、この「セクションごとに進める方法」がクレジットの節約につながります。長いチャットは使用量を消費してしまうためです。

プロのヒント:プロジェクトの最初の10%は、自分でゼロから書き上げましょう。そうすることで文章全体のトーンが定まり、AIに明確な方向性を与えるため、出力の質が向上します。

AIとの雑然としたやり取りを受け入れる

最良のAIライティング成果は、対話を通じて生まれます。

未完成のアイデアを共有し、その提案に疑問を投げかけ、さらに深く考えるよう促しましょう。

たとえば、このセクションを執筆するとき、私はAIにアウトラインの肉付けを依頼しました。しかし、最初の回答をそのまま受け入れたわけではありません。

「特定のトーンでプロンプトする」といった一般的な助言にとどまるのではなく、AIの標準的な文体とBacklinkoのスタイルの違いを具体例で示すよう求めました。

このプロセスを通じて、具体的なフレーズや表現のパターンを見つけることができました。

たとえば、私の冒頭フックはAIとの協働によって次のように進化しました。

オープニングフックの進化

文ごと、アイデアごとにやり取りを重ねるうちに、思わぬ金脈を掘り当てることができるかもしれません。

面倒ではありますが、一人で進めるよりずっと良い結果につながります。

必要なときに適切な事例を探す

大規模言語モデル(LLM)は、執筆を強化するための関連する事例やケーススタディを提案することに優れています。

シニアライターのShreelekhaも、行き詰まったときにAIを使って事例を洗い出しています。

Shreelekha Singhさんのコメント
「私はまず、説明しようとしているコンセプトと、必要としている事例の種類を説明します。AIは、私が考えもしなかった視点を提案してくれることが多く、その後のリサーチにつなげられるのです。」

私がよく使うプロンプトテンプレートは次のとおりです。

「私は[コンセプト]について説明しています。[特定の側面]を示す事例が必要です。できれば[業種/企業の種類]の例をお願いします。事例は[望ましい結果]を示すものである必要があります。」

例えば、データ可視化について執筆している際、コンテンツでチャートを効果的に活用している企業の事例が必要でした。AIにこれらのパラメータを与えると、AIはHubSpotのマーケティングの現状レポートを見るよう提案しました。これは、まさに複雑なデータを誰にでも理解しやすくするという私の主張を示す好例になりました。

しかし、AIの提案をそのまま受け取ってはいけません。より深く調査するための出発点として活用しましょう。私がAIの提示した事例を扱うときは、必ず以下を行います。
 ・事実関係を自分でもう一度確認する
 ・背景や前提などの追加文脈を集める
 ・代替となる事例と比較検討する
 ・それが本当に自分の主張に合致するかどうかを評価する

Chris Shirlowは、次のようにバランスの取れたAI活用の重要性を語っています。

Chris Shirlowさんのコメント
「重要なのは、まずは自分自身のアイデアやリサーチを出発点にすることです。そして、そのコンセプトを広げたり新しい視点を見つけたりするためにAIを使います。決してAIにコンテンツの方向性を決めさせてはいけません。

6. AIを使ってコンテンツ資産を作成する

チェックリストや計算ツール、インフォグラフィックなどのコンテンツは、記事を「読むもの」から「役立つツール」へと変えてくれます。

うまく活用すれば、複雑な概念を整理して理解を助けたり、学習をサポートしたり、意思決定の道しるべとなったりします。

かつては、これらのリソースを作るにはデザイナーや開発者が必要でした。

しかし今では、AIを使えばこうしたスキルがなくても作成可能です。

ビジュアル要素を取り入れる

読者の多くは文章をすべて丁寧に読むわけではありません。

ざっと流し読みしたり、拾い読みをしたりしながら、アイデアを導くための視覚的な手がかりを探します。

MITの研究によると、人間の脳はわずか13ミリ秒で画像を処理できるとのことです。これはテキスト処理の最大600倍の速さに相当します。

スピード – 画像 vs テキスト

以前は、プロレベルのグラフィックを作成するには次のような手間がかかりました。

  • デザインソフトを使いこなす
  • デザインの基本原則を理解する
  • 各ビジュアルに何時間も費やす
  • 高額なデザイナーを雇う

しかし、今ではその必要はありません。

AIを活用すれば、魅力的なビジュアルを数秒で作成できます。

たとえば、当社の「マーケティングの 4P」の記事では、シニアライターの Yongi Barnard が、パーソナライゼーションが重要な理由を図解で説明しています。

パーソナライゼーションが重要な理由

ビジュアルは、一目で説得力のあるストーリーを伝えます。

これを再現するには、まずデータを準備しましょう。

次に、AIに対して条件(パラメータ)を指示します。

次の 3 つのパーソナライゼーション統計を示すグラフィックのデザイン設計を手伝ってください。
 1.消費者の80%は、ブランドがパーソナライズされた体験を提供すれば購入意欲が高まる
 2.マーケターの48.2%は、パーソナライゼーションがクリック率を最も改善すると答えている
 3.顧客の66%は、企業に自分のニーズを理解してもらうことを期待している

以下の条件を取り入れてください
 ・シンプルでミニマルなデザイン
 ・割合を表すプログレスサークル
 ・コントラストのために暗い背景に明るいテキストを配置
 ・各統計の下に短く明確な説明
 ・出典を記載するためのスペースを確保

あとは、最後の仕上げの微調整(色、余白など)を行うだけです。

プロのヒント:データ可視化だけを考えるのではなくAIを活用して次のようなものも作成しましょう。
 ・プロセス図
 ・比較チャート
 ・タイムライングラフィック
 ・コンセプト図解
 ・機能の分解図

シニアエディターのChris Hannaは、このように述べています。

Chris Hannaさんのコメント
「今の優れたライターは、プロデューサーのように考えます。『この概念をどうすれば視覚的に伝えられるか?』『言葉で説明するのではなく、どう見せられるか?』と自問するのです。
AIは、デザインの専門家にならなくてもそれを可能にしてくれます。」

実用的なチェックリストを作成する

手順をチェックリスト化すると、コンテンツの実用性が高まります。

ただし、効果的なチェックリストは単なる箇条書きでは不十分です。必要なのは次の要素です。

  • 複雑なプロセスを分解する
  • 手順を最適な順序に並べる
  • チェック項目に検証を含める
  • 参考リンクを追加する
  • ユーザーごとの利用シナリオを考慮する

ここで AI が役立ちます。

重要なのは、下書きを書いた後に AI に指示を出すことです。

こうすることで、大規模言語モデル(LLM)はコンテンツ全体のコンテキストを理解し、より詳細で関連性の高いチェックリストを作成できます。

たとえば、当社のシニアエディター Shannon Willoby は、ブログの始め方に関する記事を書くために 12 か月分のチェックリストを作成しました。

Backlinko – ブログ開設チェックリスト

彼女はAIに記事の内容に基づいたチェックリストを作成させました。とてもシンプルですが効果的です。

以下は、そのまま使えるテンプレートです。

私は[トピック]に関する記事を書きました。これをもとに、以下の点を含む包括的なチェックリストを作成してください。
 ・各主要ステップを分解すること
 ・重要な判断ポイントを盛り込むこと
 ・必要となるリソースを明記すること
 ・陥りがちな失敗例を明示すること
 ・進捗を確認する方法を提案すること

インタラクティブツールを構築する

計算機や分析ツール、意思決定ツリーのようなインタラクティブな仕組みは、記事を「知識の共有」から読者がすぐに活用できる「実用的なソリューション」へと変えてくれます。

しかもこれは、どの業界でも応用可能です。

たとえば「生産性」をテーマに記事を書くなら、読者がプロジェクトの作業量を調整できる「作業容量チェッカー」を提供するのも一案です。

クロード – ワークロードキャパシティアナライザー

もしあなたがウェルネス分野のライターであれば、読者が健康的な生活習慣を身につけられるように「習慣積み上げプランナー」を開発することも考えられます。

クロード – 習慣スタッキングプランナー

また、ガーデニングの専門家であれば、季節ごとの植え付け時期を計算できるツールを提供するのも良いでしょう。

クロード – 季節ごとの植え付け計算機

私は「EC成長戦略」に関する記事で、AIを活用してインタラクティブな利益計算ツールを作成しました。

Backlinko – 収益性計算ツール

数式を並べて解説するのではなく、読者がシナリオを操作して、売上原価(COGS)や送料、マーケティング費用といった要素が利益にどう影響するかを体感できるようにしました。

その最大のメリットは?

これらのAI設計ツールは、Calculator Studio のようなノーコードプラットフォームを使って実現できます。手順は以下のとおりです。

  1. コンテンツにおける計算ニーズを特定する
  2. AIに計算ロジックと数式の構築を依頼する
  3. ユーザーインターフェースを設計する(モックアップもAIで作成可能)
  4. お好みのノーコードツールで構築する

たとえば利益計算ツールを作成した際、私は AI に次のように指示しました。

EC事業者が自社の収益性を把握できるような計算ツールを作りたいと考えています。以下の機能を含めてください。
 ・売上原価(COGS)、配送費用、マーケティング費用といった主要な指標を入力できること
 ・粗利益率と純利益率を計算できること
 ・損益分岐点の分析を表示できること

まずはシンプルに始めましょう。

ひとつの問題を的確に解決できる基本的な計算ツールのほうが、ユーザーを混乱させる複雑なツールよりも優れています。

7. AIを使って下書きを編集する

編集は、「良いコンテンツ」と「卓越したコンテンツ」を分ける工程です。

しかし、以下のように、質の高い編集はコストや時間の面で負担が大きくなりがちです。

  • 編集者に時間単位で依頼すると費用がかかる
  • フリーランスの場合は請求できる作業時間が減る
  • 長いレビュー工程を待たなければならない
  • 自分で編集すると見落としが起きやすい

AIは、この状況を変えます。

編集者が下書きを確認する前に、迅速で偏りのないフィードバックを得たり、異なるバージョンを試したりすることができます。

では、効果的に実践する方法をご紹介しましょう。

まず戦略的な観点を取り入れる

すぐに細部の編集、たとえば文法チェックや表現のブラッシュアップに取りかかりたくなるかもしれません。

ですが、まずは全体像から見ることが大切です。

ここでは、Chris HannaがAIを使って戦略的な編集を行う方法をご紹介します。

Chris Hannaさんのコメント
「まず、草稿、アウトライン、そして概要をClaudeに渡します。そしてこう尋ねます。『何が足りないか? 論点を強化できる部分はどこか? どの部分により多くの根拠が必要か?』」

AIは次のように役立ちます。

  • あなたの記事を成功例と比較する
  • 繰り返しや抜けている部分を指摘してくれる
  • 構成全体の改善点を提案してくれる

こうした方法を取れば、修正作業の時間を大幅に減らせます。削ったり書き直したりする段落へのブラッシュアップに時間をかけるのは無駄ですよね。

簡易的な品質チェックを行う

記事の構成が固まったら、体系的な品質チェックを作成してください。

あなたのコンテンツが主要なエンゲージメント指標を満たしているかを確認することが狙いです。

Backlinkoでは、読みやすさを測る3つの指標をチェックしています。

  1. 単文段落の割合:1文のみで構成されている段落の割合。
  2. 視覚的要素の密度:1,000語あたりに含まれる視覚的要素(画像や図解など)の数。密度が高いほど、読みやすさが向上する。
  3. 学年レベル:誰でも理解しやすいように、中学1年生程度(Grade 7)以下のレベルを目安にしている。
クロード – コンテンツ品質チェッカー

AIはこれらを瞬時に計算し、具体的な修正方法を提案してくれます。方法は次のとおりです。

  1. 目標とする指標をAIと共有する
  2. 記事の一部を貼り付ける
  3. 分析と具体的な修正の両方を依頼する

数値的な指標だけでなく、AIを使って次のような点もチェックしましょう。

  • 冗長なアイデアや表現
  • 受動態の多用
  • 文や段落間のつながりの適切さ
  • ブランドのトーンやメッセージの一貫性
  • 技術的な正確性

重要な要素をテストする

コンテンツの中には、とりわけ重要な部分があります。

見出しは、クリックされるかどうかを決定します。

導入部分は、読者が読み進めるかどうかを決めます。

行動喚起(CTA)は、最終的にコンバージョンにつながるかどうかを左右します。

これらの要素は、特に注意を払う価値があります。

たとえば見出しなら、まず3~5個の候補をリストアップします。

そして、執筆しているトピックをGoogleで検索し、検索結果をスクリーンショットで残します。

Google SERP – AIを活用してより良い文章を書く方法

スクリーンショットをClaudeにアップロードし、自分のタイトル案が上位記事とどう比較されるかを尋ねます。

するとClaudeは、当社のタイトル方針、ベストプラクティス、差別化のポイントを踏まえて提案してくれます。

シニアライターのYongiは、導入文に似たような手法を使っています。

Yongiさんのコメント
「3つの異なる導入文を書き、その中でどれが一番効果的に読者を引き込めるかをAIに尋ねます。その後、『なぜそうなのか』をAIと議論し、好奇心を刺激できているか、テーマとの関連性があるか、感情的な共鳴を生み出せているかといった観点で検証します。」

次のような点もテストできます。

  • セクション間のつながり
  • 事例
  • 根拠の配置
  • 技術的な説明
  • 結論部分の主張

AIと人間の編集バランス

AIを使えば編集はスピードアップしますが、人間の判断は依然として不可欠です。

そのための実践方法は次のとおりです。

  1. 幅広い分析と迅速な修正のためにAIを活用する
  2. AIの提案に対して自分の判断を適用する
  3. 見出しや導入文など重要な要素は複数のパターンを試す
  4. 技術的な正確性は自分で確認する
  5. 自分らしい文体や視点を維持する

Chris Shirlowも、このAIと人間の役割分担を支持しています。

Chris Shirlowさんのコメント
「AIは潜在的な問題をより早く特定するのに役立ちます。しかし、実際に読者にとって役立つ変更かどうかを判断するには、依然として人間の専門知識が必要です。」

「頑張る」よりも「賢く」書き始めよう

今週取り組む予定の執筆プロジェクトを1つ選んでみましょう。

紹介した実践法の中から、1つだけ試してみてください。たとえば、読者のリサーチやアウトライン作成を手伝わせるなどです。

成果を感じ始めるのに必要なのは、それだけです。

これらの方法を実践する準備はできましたか?ぜひブログ投稿の書き方ガイドをご覧ください。

AIを使ったテクニックと実証済みのライティング原則を組み合わせ、検索で上位表示され、コンバージョンにつながるコンテンツを作成する方法がわかります。

BacklinkoはSemrushの所有です。私たちは、実践的な経験に裏打ちされた世界クラスのSEOインサイトをお届けすることに尽力しています。特に記載がない限り、このコンテンツはSemrush Inc.の従業員または有償契約者によって執筆されています。

SEOJapan編集部より:
AIを活用してコンテンツを制作する際は、効率化だけでなくよりよいコンテンツ制作のための壁打ち相手として活用することが大切です。
成果を左右するのは、AIが抽出した提案や示唆を、編集者が判断・検証し、他にはない独自の視点を加えられるかどうかです。
「効率化だけでなく差別化」したコンテンツをAIを活用して制作するという姿勢が、これから一層求められてくるでしょう。

seojapan

AIを使って優れたコンテンツを書く方法(7つのベストプラクティス)

2ヶ月 1 週間 ago

この記事は、Backlinkoの「How to Use AI for Writing Exceptional Content(7 Best Practices)」を翻訳したものです。ここ最近のGoogleコアアップデートでは、事例やユーザーが生成したコンテンツなど、体験に根ざしたコンテンツが評価されやすい傾向が見られます。

体験コンテンツを効率よく制作する際に、AIはもはや欠かせません。AIを活用することで、インタビュー設計やリサーチの下準備を、短時間で質を保ちながらまとめられます。

以前に翻訳した記事「役に立つコンテンツを作る10の方法 + 事例とチェックリスト」とも通じるところがありますが、AIの提案を鵜呑みにして採用するだけのコンテンツではサイトの資産にならないでしょう。

読者リサーチの進め方や設問づくり、AIを活用した編集方法など、実務で再現しやすい手順が紹介されているので、自社のワークフローを見直すヒントとしてぜひご活用ください。

ライティングのためのAI – 注目の画像

生成AIが発達した現代において、文章を書く人間が、敢えてAIを一切使わない理由は考えにくいですよね。

それはまるで、大工に「ドリルを使うな」と言うようなものです。確かにドリルがなくてもデッキは作れます。でも、わざわざそうする理由はあるでしょうか?

ライターは昔から、自分の技術を磨くために新しいツールを取り入れてきました。

筆記具のタイムライン

AIに限らず、どんな技術でも我々の行動原理は「楽をしたい」という気持ちです。

画期的なツールが開発される度、「全部を自動でやってくれるはずだ」と期待してしまうのです。そして、そこそこの内容でよければ、AIはまさに最適な解決策になります。

でも、本当に優れたコンテンツを作るのは簡単ではありません。どんなツールを使っても同じです。

実際、この記事を書くとき私はAIをたくさん活用しました。

それでも完成までに40時間以上かかったのです。

なぜでしょうか?

それはAIを使ったことで、自分のコンテンツをもっと良くできると気づいたからです。そしてこれは、あなたにも同じように当てはまります。

私はコンテンツチームに、普段どのようにAIを執筆や編集に活用しているのかを聞きました。

シニアライターのYongi Barnardさん、Kate Starrさん、Shreelekha Singhさん、そしてシニアエディターのChris HannaさんとChris Shirlowさんが、それぞれのワークフローや知見を共有してくれました。

本記事ではその内容を随所で紹介していきます。彼らのような優秀なメンバーのおかげで、Backlinkoは月間およそ80万セッションものトラフィックを生み出しているのです。

バックリンク – セッション

ここから紹介するのは、AIがサポートしてくれる7つの普遍的なライティング手法です。

まずは、執筆プロジェクトの計画から見ていきましょう。

1. AIを使って読者を定義する

読者を深く理解していなければ、どれほど優れたアイデアも伝わらずに終わってしまいます。

AIを使えば、読者リサーチがぐっと簡単になります。

何千件もの実際の会話を数分で分析できるため、これまでのように何週間もかけてインタビューやアンケートを行う必要はありません。

オーディエンスリサーチをより速く行う方法

この記事を題材に、私は「人々がAIを使って執筆することをどう感じているのか」を調べてみました。

率直な意見を集めるなら、最適なのはRedditです。

実際に「reddit using ai to write good content」とGoogle検索したところ、数十件ものスレッドが見つかりました。

※SEOJapan補足:「Reddit」
アメリカの巨大掲示板型ソーシャルメディアのこと。ユーザーが投稿したコンテンツに対して投票できる記事、質問、意見交換などのコミュニティサイト

Google SERP – RedditはAIを活用して良質なコンテンツを作成

コミュニティの議論をいくつか集めて、PDF としてエクスポートしました。

RedditからPDFへ

そこで私はClaudeに次のような指示を出しました。

「AIを使って良質なコンテンツを書く」ことをテーマに調査をしています。そこで関連するRedditスレッドを5つ添付しました。これらの会話を分析し、以下の観点で表を作成してください。
 ・Desires(欲求):人々は何を達成したいのか?
 ・Pain points(課題):どんな問題や壁に直面しているのか?
 ・Objections(懸念):どんな不安や抵抗を示しているのか?
それぞれの項目には、ディスカッションからの引用も添えてください。

その結果には本当に驚かされました。

クロード – 目を見張る結果

分析の結果、自分では気づかなかったパターンが見えてきました。

さらに、読者の生の感情や言葉をそのまま捉えた引用も含まれていました。

そのおかげで、私の文章は実際の体験に根ざしたものになったのです。

もちろん、私のやり方をそのまま真似する必要はありません。たとえばシニアライターのKate Starrは、読者リサーチに複数の情報源を活用しています。

Kate Starrさんのコメント
「私はよくAIにいろいろなデータを入力します。たとえば、Googleの『People Also Ask(PAA)』の内容や、クライアントとの会話記録などです。大切なのは、ターゲットとなる読者が自分の課題を語っているリアルな会話を見つけることです。

最近も、コンサルティングコールの記録をもとに詳しいカスタマーペルソナを作成しました。その結果、私たちのコンテンツ戦略全体を組み立てるうえで大きな助けとなりました。」

AIを活用するうえで大切なのは、次の3点です。

  • 膨大な読者データを短時間で処理する
  • 人の目では見逃しがちなパターンを見つける
  • 実際の発言を引用し、得られた洞察をリアルな体験と結びつける

ヒント:興味深いコミュニティの議論をまとめたフォルダを作成しましょう。興味深いスレッドを見つけたら、すぐに保存しましょう。その情報が将来のコンテンツに役立つかもしれません。

※SEO Japan補足:「People Also Ask(PAA)」
「関連する質問」や「他の人はこちらも質問」といった文言で、Googleの検索結果画面上に検索キーワードに関連した質問と回答を表示する機能

2. AIを使って独自の視点を見つける

業界内で人気のコンテンツを参考にして、そのアイデアをアレンジするのは簡単です。実際、それはAIがデフォルトでやっていることでもあります。

では、もっと良い方法は?

他のコンテンツや多くのLLM(大規模言語モデル)が見落としがちな視点を探すことです。そうすることで、文章がより新鮮で読者を惹きつけるものになります。

ここから、その方法を3つのステップで紹介します。

ステップ1:ソース資料を集める

まずは、テーマに関する上位3〜5件ほどの投稿を探しましょう。

対象はSNSの投稿でも、記事でも、アクセスできるならメールでもかまいません。

たとえば私は「AIライティング」に関する投稿を3件ピックアップし、Googleドキュメントにまとめてからテキストファイルとして書き出しました。

Googleドキュメント – AIの活用方法

ステップ2:AIに要約とアイデア出しを任せる

ステップ1で集めた資料をAIに入力し、全体を整理した分析を作ってもらいましょう。

そのとき使えるプロンプト例がこちらです。

[トピック]に関する記事をいくつか共有しました。これらを分析し、以下の観点で詳細に整理してください。

共通パターン
 ・繰り返し登場するアプローチを3〜4点挙げる
 ・記事の具体例を含める
 ・記事全体の構成や表現方法に見られる傾向をまとめる

前提
 ・各記事で当然のように扱われている前提を3〜4点抽出する
 ・論理や証拠が不足している部分を指摘する
 ・裏付けが足りない主張を見つける

不足している視点
 ・取り上げられていない重要な観点を3〜4点挙げる
 ・読者のニーズで十分に対応されていない部分を指摘する
 ・さらに深掘りできるテーマを明らかにする

注目すべき要素
 ・独自性のある、または効果的なアプローチを示す
 ・強い根拠や具体例を取り上げる
 ・記事の核となる構成や表現の工夫がみられる箇所を特定する

こちらが「AIを活用した執筆」の出力結果です。

カテゴリ 詳細
共通パターン ・戦略性より機能差に注目したツール比較が多い
・基本的な「入力と出力」のワークフロー事例
・「効率化できる」といった抽象的メリットの提示に偏る
・プロンプトエンジニアリングの重要性ばかりを強調
前提 ・AIを使えば使うほどコンテンツは良くなる
・読者はすでにAIの基礎を理解している
・単一の手法で誰にでも通用するという想定
・倫理的な懸念は簡単な免責事項で対処できると考えている
不足している視点 ・品質を検証するための仕組みや指標
・ツール選択のための戦略的なフレームワーク
・人間とAIが協働した具体的事例
・アプローチ別のコストと効果の比較
注目要素 ・ある記事では詳細なワークフロー図を掲載
・別の記事では失敗事例のミニケーススタディを紹介
・複数の記事で丁寧な倫理ガイドラインを提示
・ある記事ではAI出力の品質に関する独自の調査結果を提示

分析が終わったら、見つかった改善点をもとにAIに新しいアイデアを提案してもらいます。

このとき、Claudeが本記事に対して返してきた提案がこちらです。

AIライティングを考えるうえで提案された3つの切り口はこちらです。
1.戦略フレームワーク型
ポイント:執筆内容に合わせてAIツールをどう選び、どう使うかを体系的に整理する
メリット:ツールをやみくもに試すのではなく、根拠ある判断ができるようになる
違い:単なるツールリストを超え、判断基準やワークフローを明確に示す

2.品質管理型
ポイント:AIを使いながらもコンテンツの品質を保つための具体的な手順
メリット:プロのライターが最も気にする「品質維持」という課題に応える
違い:ツール利用の説明にとどまらず、品質を測定・改善するプロセスに重点を置く

3.現実チェック型
ポイント:AIの強みと限界を率直に見極める
メリット:読者が現実的な期待値を持ち、ありがちな失敗を避けられる
違い:理論上の効果ではなく、実際の事例やケーススタディを取り上げる

ステップ3:切り口を分析してブラッシュアップする

AIが最初に出力した切り口がそのまま使えることもあります。

しかし多くの場合では、魅力的なアイデアを見つけるためには、AIとのやり取りを何度も重ねる必要があります。

この記事も、そのプロセスを経て形になりました。

確かにツール比較や基本的なワークフローを解説する記事は豊富にありましたが、AIをどう戦略的に活用すべきかという枠組みを提示しているものはほとんどありませんでした。

さらに深く掘り下げていくと、もっと根本的なことに気づきました。

誰もが「執筆を楽にする」ことに注目していたのです。ツールやプロンプト、ショートカットなど。

でも、そこには見逃されている現実がありました。

優れたコンテンツを作ることはAIを使っても、使わなくても難しいものです。

そこで私は自分の切り口をこう定めました。AIをうまく使いながらも、良質なコンテンツをつくるために必要な努力は不可欠であるという視点です。

プロのヒント:最初に得られた気づきは、より良い切り口へ発展することがよくあります。初期の分析にとらわれず、思考を広げていくことを恐れないでください。

3. AIを使ってアウトラインを作成する

優れたコンテンツの多くは、綿密な計画から始まります。ところが、多くのライターはこの工程を省きがちです。

その結果、何時間も同じところをぐるぐる書き直したり、依頼の趣旨から大きく外れてしまったりするリスクがあります。

そのため私たちのチームでは、しっかりしたアウトラインを作らずに下書きを始めることはありません。

AIを活用すれば、そのアウトライン作成がずっと楽になります。

関連記事: コンテンツブリーフとは? (+3つのテンプレート)

AIとの協働によってアウトラインを強化する

AIにアウトラインを丸ごと任せたくなるかもしれませんが、それでは独自の視点が失われてしまいます。かといってAIを使わなければ、得られるはずの有益な洞察を逃してしまいます。

では、より良いアプローチは?

AIを「考えを深めるための相棒」として活用することです。

当社のシニアエディターであるChris Shirlowも、アウトライン作成の段階でAIを戦略的に取り入れることの重要性を強調しています。

Chris Shirlowさんのコメント
「私はまず、自分の競合分析をもとにアウトラインを作成します。その後、AIを使って潜在的な不足を洗い出します。例えば、メールマーケティングのガイドのアウトラインを作成した際に、AIが私の発想になかった自動化の章を加えるよう提案してくれたことがありました。」

重要なのは、自分自身のリサーチから始めることです。そうすることで、土台にしっかりとした専門性が宿ります。そのうえでAIを活用すれば、考えをさらに洗練させ、広げることができます。

たとえば、この記事では、私は最初に以下のようなラフな構成メモを用意しました。

  1. ニーズ(需要)
  2. 想定読者
  3. 切り口
  4. 構成
  5. リサーチ
  6. 執筆
  7. 図やビジュアル要素
  8. 付加要素
  9. 編集

次に、いくつかの参考資料を添えてClaudeにプロンプトを与えました。

私は今『AIを活用してより良いコンテンツを書く方法』に関する記事を執筆しています。概要と大まかなアウトラインは準備済みです。このアイデアのきっかけとなった記事も添付しました。

この進め方に対する、あなたの第一印象を聞かせてもらえますか?

以下はClaudeの分析(私が要約したもの)です。

強み
 ・AIの位置づけ:代替手段ではなく大工にとってのドリルのように「便利な道具」として紹介
 ・現実的な期待感:コンテンツ作成が依然として難しいことを認めている(40時間の例)
 ・普遍的な焦点:特定のAIツールやプロンプトに依存せず、基本原則を強調することで記事の価値を長持ちさせている
 ・信頼性:具体的なケーススタディや著者自身の経験を取り入れている

改善すべき点
 ・構成面:似通った要素(たとえば「読者」と「リサーチ」)は統合を検討する
 ・実装面:AIが実際に各手法をどう強化できるか、より具体的な事例を加える
 ・メタ視点:この記事そのものをAIを活用しながら書いている、という背景をより明確に示す
 ・バランス:記事の完成度を高くするために、AIの限界についての説明も盛り込む

AIが最初に出したアウトプットを出発点に、協働が始まりました。

Claudeは、各要素の呼び方を「ヒント」ではなく「プラクティス」とするよう提案してくれました。

その後も、私たちは各プラクティスの下位構造について互いに意見を交わしました。

途中でH2の見出し案を出してくれましたが、多くは私の意図と合わず、採用しませんでした。

それでも長いやり取りを重ね、文書に戻って修正する時間を挟みながら、最終的に納得できるアウトラインにたどり着きました。

以下は、その議論を通じて構造がどのように発展していったかの流れです。

項目 バージョン1 バージョン2 バージョン3 バージョン4
ニーズ(需要) 深掘り調査:表面的な情報にとどまらない まずはユーザーの声を聞く 読者像を定義する AIを活用して読者像をさらに具体化する
読者 読者理解:深く共感されるコンテンツを作る 読者マップを作成する 独自の切り口を見つける AIを活用して、自分では気づかない独自の切り口を発見する
切り口 戦略的な立ち位置:独自の切り口を探す 独自の切り口を深める 明確なアウトラインを作成する AIを活用してアウトラインを作る
構成 ストーリー設計:明確で説得力のある流れを構築する コンテンツ全体の流れを整理する 扱うテーマをリサーチする AIを活用してテーマをリサーチする
リサーチ 証拠や事例を用いてアイデアを具体化する 説明するだけでなく、実例で示す 魅力的なコンテンツを書く AIを使って魅力的なコンテンツを書く
執筆 声と文体:独特の存在感を醸し出す 自社(自分)のブランドボイスを見つける 読者に役立つ補足要素を加える AIを活用して補足要素を充実させる
強化 強化要素:コンテンツのインパクトを高める 効果的な強化要素を加える 読者に響くように文章を編集する AIを活用して下書きを編集する
編集 洗練と最適化:パフォーマンスを高めるために仕上げる 完成版をしっかりと仕上げ、磨きをかける

この繰り返しのプロセスによって、次の改善ができました。

  1. 行動が具体的に伝わる見出しに書き直せた
  2. 「AIを活用して…」という統一フォーマットを導入し、SEO対策にもつながった

ではここから、AIをどう使えばリサーチを通じてアウトラインを実際のコンテンツに仕上げられるのかを見ていきましょう。

4. AIを使ってテーマを調査する

リサーチは、いつの時代も優れた執筆の基盤です。

インターネットが普及する前は、図書館でカタログや学術誌、教科書を何時間もめくるのがリサーチの定番でした。

やがてデジタルの登場がその流れを大きく変えましたが、同時に「情報過多」という新しい課題も生んだのです。

場所のタイムラインを書く

今や、数百万もの情報源に一瞬でアクセスできる時代です。

ブログ記事、学術論文、オンラインコミュニティでの議論、専門家のインタビュー、分析データの情報は無数にあります。

しかし、それをすべて処理する時間はあるでしょうか?

そこでAIの出番です。

AIなら数千件もの情報を数秒で読み込み、見落としかねない重要な洞察を拾い上げてくれます。

ここからは、AIを効果的に活用する方法を探っていきましょう。

一次調査におけるAIの活用

インタビューや生データの収集、アンケート調査などを行うことで、他に模倣が難しい独自性のあるコンテンツを生み出せます。

重要なのは、AIを「分析だけ」に使うのではなく、リサーチ全体の流れに組み込んで活用することです。

より良いリサーチ質問の計画を立てる

リサーチの質は、適切な質問をすることにかかっています。

例えば、この記事を書く際、私は当初、自分のAIに関する体験だけを例にしようと考えていました。しかし、それだけでは不十分だと感じました。

そこで、私はClaudeと議論を始めました。

私:自分の考えだけでは限界があると感じています。編集チームに「AIをどう使っているか」を調査すれば、もっと多くの視点を加えられるかもしれません。

AI:それは、記事の説得力を大幅に高める方法です。複数の執筆者がAIの課題にどのように対応しているかを示せば、理論だけの説明よりもはるかに説得力が増すでしょう。

検討すべきこと:
 ・求めている具体的な知見は何か
 ・それを集める最も効率的な方法は何か
 ・メンバーが参加しやすくするにはどうすればよいか

Claudeのフィードバックを踏まえ、私は何度も調整を重ねながら調査質問を組み立てました。

この手法を試してみたい場合は、以下のテンプレートを参考にしてください。

具体的な質問を作成する前に、この研究アプローチを評価してください。
 ・対象:調査/インタビューを行う対象を説明
 ・目標:調査を通じて何を知りたいのか
 ・方法:データの収集方法
 ・期間:制約条件

そして、次のポイントを洗い出してください。
 ・潜在的な問題
 ・見落としている可能性のある視点や機会
 ・効率を改善する方法

次に、リサーチで使う質問の作成です。

トピックに関する[アンケート/インタビュー]用の質問の作成を手伝ってください。

考慮すべき点
 ・対象者:参加者について記述する
 ・時間的制約:予想される所要時間
 ・主な目的:2〜3の主要な目標を挙げる
 ・必要な出力:最終的に作りたいもの

質問の構成は以下のようにしてください
 ・焦点は絞りつつ、自由に答えられるオープンな形にする
 ・短時間で答えやすい内容にする
 ・具体例を求める質問にして明確さを保つ


最後に、用意した質問をテストしてみましょう。

これが私の下書きの質問です。次の点について分析してください。
 ・質問がわかりやすいか、混乱を招かないか
 ・誘導的・偏った表現になっていないか
 ・抜けている部分やカバーしきれていない内容がないか
 ・質問の順序や流れが論理的かどうか

例:

AIとの何度かのやり取りを経て、当初の「チームに調査をする」というアイデアは次のように変わりました。

  • 条件分岐を使い、焦点の定まった調査
  • 必要な内容を明示する具体例
  • 親しみやすく協調的な導入文
  • AI利用に関する具体的なプロンプト

その結果、チームから有益な知見を得られ、この記事を強化することができました。

専門家インタビューを最大限に活かす

インタビュー相手としっかり向き合いながら、細かな情報まで取りこぼさずに記録したい。そんなとき、AIが役立ちます。

まずは会話を録音することから始めましょう(もちろん相手の同意は必須)。自然な対話を心がけ、気になる話題は深掘りしてみてください。その後はAIを活用して、会話の中から価値ある洞察をすべて抽出します。

以下に、いくつか簡単なプロンプトを示します。

インタビューの準備

トピックに関する専門家インタビューの準備を手伝ってください。
提供した背景資料を確認したうえで、以下を提案してください。
 ・取り上げるべき主な議論のテーマ
 ・各テーマに関連する追加質問
 ・尋ねるべき具体的な事例やケース
 ・検証すべきデータや数値

録音を処理する

トピックに関する専門家インタビューの文字起こしを共有しました。以下を行ってください。
 1.主なポイントをわかりやすく要約する
 2.具体的な例やケーススタディを抽出する
 3.独自の洞察や視点を見つける
 4.印象的な引用を抜き出す
 5.不明確で追加確認が必要な箇所を指摘する

インサイトの検証

以下はインタビューから得られた私の主要な所見です。これについて、次の観点でチェックしてください。
 1.結論が文字起こし内容によって裏づけられているか
 2.自分が勝手に置いてしまっている前提はないか
 3.読み手に理解してもらうために補足すべき文脈は何か
 4.別の見方や解釈の余地があるかどうか

生データを理解する

リサーチの難しさは、データを集めること自体ではなく、その中から意味のあるストーリーを見つけ出すことにあります。

編集チームがAI活用に関する調査を終えたとき、私はまさにこの課題に直面しました。

回答を素早く処理したい、でも同時に大切な気づきを漏らさず拾いたい、この両立が必要だったのです。

そのために私がAIを使ってどのように回答を分析したのかを以下で紹介します。

全体像を把握する

AIの活用に関するチームのアンケート回答を共有しました。以下を行ってください。
 1.回答全体に共通するパターンを特定する
 2.他と異なるユニークな使い方や意外なアプローチを記録する
 3.詳細に語られている具体的な事例を強調する
 4.深掘りすべき潜在的なテーマを提案する

詳細を掘り下げる

特定のプラクティスについて、以下を分析してください。
 1.メンバーごとに異なる取り組み方
 2.成功事例として特に効果があった使い方
 3.共通する課題や制約
 4.言及された具体的なツールやプロンプト
 5.注目すべき作業フローの違い

補足資料の抽出

このトピックに関する回答から、以下を行ってください。
 1. 重要なポイントを裏付ける、説得力のある引用を見つける
 2.明確な成果を伴う具体的な事例を特定する
 3.共有された興味深いAIプロンプトを記録する
 4.補足として有効なビジュアルや図表を提案する

この分析により、チームのメンバーはそれぞれ異なる場面でAIを活用していることが分かりました。リサーチを得意とする人もいれば、編集に強みを持つ人もいます。

全員に共通していたのは、AIはあくまで慎重に扱うべきであり、全面的に依存すべきではない、という認識でした。

プロのヒント: AIを使ってデータを分析する前に、そのプロジェクトにとって「価値あるインサイト」が何を意味するのかを明確に定義しておきましょう。そうすることで、AIは最も重視すべき点にフォーカスして分析してくれます。

二次調査にAIを活用する

これまで二次調査といえば、論文やレポート、議論を何時間もかけて読み込むことを意味していました。

しかし、今は違います。

AIによって、既存の情報を整理・活用する方法そのものが変わりました。

ここからは、いくつかの活用例を紹介します。

音声・動画コンテンツから価値ある情報を引き出す

優れたインサイトの多くは、長時間のポッドキャストやカンファレンス講演の中に埋もれています。

創業者たちは舞台裏の物語を共有し、専門家は自分たちのフレームワークを明かし、業界のベテランはまだ記事にしていないトレンドについて語ります。

しかし、何時間もの動画を視聴するのは現実的ではありません。

ここでAIが時間を節約してくれます。

実際に私は、EC成長戦略に関する記事を執筆する際、創業者インタビューからAIを使って有益なインサイトを抽出しました。

まず、Who Is Elijah の創設者が 2,000 万ドルの収益を達成するまでの道のりを語るポッドキャストを見つけました。

Youtube – Foundrビデオ

次に、Rev AIを使用してインタビュー全体を文字起こししました。

Rev AI – 文字起こし

19,000語の文字起こしをすべて読む代わりに、私はClaudeに次のようなプロンプトで会話を分析させました。

私はeコマースの成長戦略に関する記事を書いています。この創業者インタビューを分析して、以下の点を整理してください。
 1.成長を促した重要な意思決定を特定する
 2.具体的な数値や成果を抽出する
 3.彼らのプロセスに関する独自の洞察を見つける
 4.各論点を裏付ける説得力のある引用文を抜粋する

この分析により、業務効率に関する興味深い事実が明らかになりました。

  • 彼らはチームを44人から21人に削減した
  • 専門職のフルタイム採用から代理店との提携に移行した
  • システムをゼロから再構築した
  • 利益が出ていなかったキャンペーン(-60%)を成功に導いた

この1つのポッドキャストから、説得力のあるケーススタディと、読者が実践できる実用的な教訓の両方を得ることができました。

複雑な文書を整理・活用する

学術論文や業界レポートには貴重なデータが含まれています。しかし、その多くは難解で専門用語が多く、実務に落とし込むのは簡単ではありません。

当社のシニアライターである Shreelekha Singh は、AIに十分な文脈情報を与えることで、より質の高いリサーチ結果を引き出しています。

Shreelekha Singhさんのコメント
「ヘルスケアについて執筆するとき、私は必ず記事の具体的な目的と進め方をPerplexityと共有します。
その際『予測ではなく、測定可能な成果に焦点を当てた、エビデンスに基づく分析が必要』と明確にアウトラインに記します。
こうした詳細な文脈を与えることで、AI はより関連性の高い研究論文やケーススタディを見つけてくれます。」

もう一つの例

情報獲得についての記事を書くとき、私はGoogleの特許出願を理解する必要がありました。

ところが、その文書は高度な専門用語で書かれており、読むだけで気が遠くなるようなものでした。

Google特許

途方に暮れる代わりに、私はAIを活用してこの複雑な資料の理解を助けてもらいました。

特許出願書をClaudeにアップロードし、「情報利得シグナル」について質問したのです。

するとClaudeは、「UserActionSignals」や「ClickSatisfaction」といった指標を平易な表現で説明してくれました。

その結果、Googleが新しい情報を評価・テストするプロセスを短時間で理解できました。

この方法は、以下のような資料にも有効です。

  • 学術論文や研究資料
  • 技術文書
  • 業界レポート
  • 法律関連の文書
  • 調査データ

要するにAIを「学習のパートナー」として考えてみてください。100ページに及ぶ文書でも数秒で読み、要点を平易な言葉で説明してくれる頼れる存在です。

5. AIを使って魅力的なコンテンツを作成する

大規模言語モデル(LLM) は、最小限のプロンプトで非常に優れた出力を生成します。

しかし、自分らしい読者を惹きつける文章を書くとなるとAIはやや物足りないのが実情です。

私は2021年からAIを使った執筆を試していますが、モデルには「既定の書き方」があると感じています。

AIが好むのは、対比的な表現です。「これは違う。しかし、これは正しい。」といった書き方です。

また、「transform(変革)」「game-changing(画期的)」「leverage(活用)」「optimize(最適化)」といったフレーズをよく使います。(これらの言葉自体に問題があるわけではありません。)

一般的なAIライティングパターン

AIには「すべてをリスト化してしまう」癖があり、もしプロジェクト全体を書けるなら、それも箇条書きにしてしまうでしょう。

もしAIの出力に満足できないことが多いなら、もっと良い成果を得る方法をお伝えします。

優れた参考資料を準備する

AIに与える文脈が具体的であればあるほど、生成される文章はあなたのスタイルに沿ったものになります。

つまり、自分の執筆スタイルを明確に定義することを意味します。

その方法としては、以下の要素を含む詳細なガイドラインを用意するとよいでしょう。

  • 読者ペルソナ
  • 読解レベル(学年・難易度の目安)
  • 見出しの型
  • 文章全体のトーン
  • 具体例
  • 読者を引き込む導入

ガイドラインに加えて、執筆サンプルとして使用できる完璧な記事や章を作ることを目標にしてください。

ガイドラインと具体例が揃えば、AIから得られる出力にも納得感が増します。

たとえば私の場合、ClaudeでBacklinko専用のプロジェクトを作成しました。そこには2万語以上の参考資料が含まれています。

クロード – プロジェクトナレッジ

新しい会話を始めるときも、Claudeは常にこの文脈を踏まえた状態で応答してくれます。

スタイル要件を何度も説明する必要はありません。

ヒント: AIツールにプロジェクト機能がない場合は、必要なリソースをPC内のフォルダにまとめて保存しておきましょう。必要なときにチャットでそれらを呼び出して使えます。

段階的に文脈を積み上げる

AIとの会話は、コンテンツの発展に合わせて進化させるべきです。

この記事のセクションを例に挙げましょう。私は「AIを活用した執筆」という専用チャットを立ち上げ、以下を共有しました。

  • 概要
  • これまでの記事草稿
  • チームアンケートの回答
  • このセクションの目標

そのうえで、次に「補足要素」に関するパートを書く際は、新しいチャットを立ち上げつつ、この完成済みセクションを参考資料として利用する予定です。

AIセッションの執筆

この段階的なアプローチにより、AI は各セクションの固有のニーズに適応しながら一貫性を維持できます。

シニアライターのShreelekhaも同じ手法を活用しています。

Shreelekha Singhさんのコメント
「私は、執筆のテーマや作業内容ごとに、異なるプロジェクトを作成します。こうすることで集中力を維持でき、AIにも各タスクに必要な文脈を正しく与えられるのです。」

利用しているLLMによっては、この「セクションごとに進める方法」がクレジットの節約につながります。長いチャットは使用量を消費してしまうためです。

プロのヒント:プロジェクトの最初の10%は、自分でゼロから書き上げましょう。そうすることで文章全体のトーンが定まり、AIに明確な方向性を与えるため、出力の質が向上します。

AIとの雑然としたやり取りを受け入れる

最良のAIライティング成果は、対話を通じて生まれます。

未完成のアイデアを共有し、その提案に疑問を投げかけ、さらに深く考えるよう促しましょう。

たとえば、このセクションを執筆するとき、私はAIにアウトラインの肉付けを依頼しました。しかし、最初の回答をそのまま受け入れたわけではありません。

「特定のトーンでプロンプトする」といった一般的な助言にとどまるのではなく、AIの標準的な文体とBacklinkoのスタイルの違いを具体例で示すよう求めました。

このプロセスを通じて、具体的なフレーズや表現のパターンを見つけることができました。

たとえば、私の冒頭フックはAIとの協働によって次のように進化しました。

オープニングフックの進化

文ごと、アイデアごとにやり取りを重ねるうちに、思わぬ金脈を掘り当てることができるかもしれません。

面倒ではありますが、一人で進めるよりずっと良い結果につながります。

必要なときに適切な事例を探す

大規模言語モデル(LLM)は、執筆を強化するための関連する事例やケーススタディを提案することに優れています。

シニアライターのShreelekhaも、行き詰まったときにAIを使って事例を洗い出しています。

Shreelekha Singhさんのコメント
「私はまず、説明しようとしているコンセプトと、必要としている事例の種類を説明します。AIは、私が考えもしなかった視点を提案してくれることが多く、その後のリサーチにつなげられるのです。」

私がよく使うプロンプトテンプレートは次のとおりです。

「私は[コンセプト]について説明しています。[特定の側面]を示す事例が必要です。できれば[業種/企業の種類]の例をお願いします。事例は[望ましい結果]を示すものである必要があります。」

例えば、データ可視化について執筆している際、コンテンツでチャートを効果的に活用している企業の事例が必要でした。AIにこれらのパラメータを与えると、AIはHubSpotのマーケティングの現状レポートを見るよう提案しました。これは、まさに複雑なデータを誰にでも理解しやすくするという私の主張を示す好例になりました。

しかし、AIの提案をそのまま受け取ってはいけません。より深く調査するための出発点として活用しましょう。私がAIの提示した事例を扱うときは、必ず以下を行います。
 ・事実関係を自分でもう一度確認する
 ・背景や前提などの追加文脈を集める
 ・代替となる事例と比較検討する
 ・それが本当に自分の主張に合致するかどうかを評価する

Chris Shirlowは、次のようにバランスの取れたAI活用の重要性を語っています。

Chris Shirlowさんのコメント
「重要なのは、まずは自分自身のアイデアやリサーチを出発点にすることです。そして、そのコンセプトを広げたり新しい視点を見つけたりするためにAIを使います。決してAIにコンテンツの方向性を決めさせてはいけません。

6. AIを使ってコンテンツ資産を作成する

チェックリストや計算ツール、インフォグラフィックなどのコンテンツは、記事を「読むもの」から「役立つツール」へと変えてくれます。

うまく活用すれば、複雑な概念を整理して理解を助けたり、学習をサポートしたり、意思決定の道しるべとなったりします。

かつては、これらのリソースを作るにはデザイナーや開発者が必要でした。

しかし今では、AIを使えばこうしたスキルがなくても作成可能です。

ビジュアル要素を取り入れる

読者の多くは文章をすべて丁寧に読むわけではありません。

ざっと流し読みしたり、拾い読みをしたりしながら、アイデアを導くための視覚的な手がかりを探します。

MITの研究によると、人間の脳はわずか13ミリ秒で画像を処理できるとのことです。これはテキスト処理の最大600倍の速さに相当します。

スピード – 画像 vs テキスト

以前は、プロレベルのグラフィックを作成するには次のような手間がかかりました。

  • デザインソフトを使いこなす
  • デザインの基本原則を理解する
  • 各ビジュアルに何時間も費やす
  • 高額なデザイナーを雇う

しかし、今ではその必要はありません。

AIを活用すれば、魅力的なビジュアルを数秒で作成できます。

たとえば、当社の「マーケティングの 4P」の記事では、シニアライターの Yongi Barnard が、パーソナライゼーションが重要な理由を図解で説明しています。

パーソナライゼーションが重要な理由

ビジュアルは、一目で説得力のあるストーリーを伝えます。

これを再現するには、まずデータを準備しましょう。

次に、AIに対して条件(パラメータ)を指示します。

次の 3 つのパーソナライゼーション統計を示すグラフィックのデザイン設計を手伝ってください。
 1.消費者の80%は、ブランドがパーソナライズされた体験を提供すれば購入意欲が高まる
 2.マーケターの48.2%は、パーソナライゼーションがクリック率を最も改善すると答えている
 3.顧客の66%は、企業に自分のニーズを理解してもらうことを期待している

以下の条件を取り入れてください
 ・シンプルでミニマルなデザイン
 ・割合を表すプログレスサークル
 ・コントラストのために暗い背景に明るいテキストを配置
 ・各統計の下に短く明確な説明
 ・出典を記載するためのスペースを確保

あとは、最後の仕上げの微調整(色、余白など)を行うだけです。

プロのヒント:データ可視化だけを考えるのではなくAIを活用して次のようなものも作成しましょう。
 ・プロセス図
 ・比較チャート
 ・タイムライングラフィック
 ・コンセプト図解
 ・機能の分解図

シニアエディターのChris Hannaは、このように述べています。

Chris Hannaさんのコメント
「今の優れたライターは、プロデューサーのように考えます。『この概念をどうすれば視覚的に伝えられるか?』『言葉で説明するのではなく、どう見せられるか?』と自問するのです。
AIは、デザインの専門家にならなくてもそれを可能にしてくれます。」

実用的なチェックリストを作成する

手順をチェックリスト化すると、コンテンツの実用性が高まります。

ただし、効果的なチェックリストは単なる箇条書きでは不十分です。必要なのは次の要素です。

  • 複雑なプロセスを分解する
  • 手順を最適な順序に並べる
  • チェック項目に検証を含める
  • 参考リンクを追加する
  • ユーザーごとの利用シナリオを考慮する

ここで AI が役立ちます。

重要なのは、下書きを書いた後に AI に指示を出すことです。

こうすることで、大規模言語モデル(LLM)はコンテンツ全体のコンテキストを理解し、より詳細で関連性の高いチェックリストを作成できます。

たとえば、当社のシニアエディター Shannon Willoby は、ブログの始め方に関する記事を書くために 12 か月分のチェックリストを作成しました。

Backlinko – ブログ開設チェックリスト

彼女はAIに記事の内容に基づいたチェックリストを作成させました。とてもシンプルですが効果的です。

以下は、そのまま使えるテンプレートです。

私は[トピック]に関する記事を書きました。これをもとに、以下の点を含む包括的なチェックリストを作成してください。
 ・各主要ステップを分解すること
 ・重要な判断ポイントを盛り込むこと
 ・必要となるリソースを明記すること
 ・陥りがちな失敗例を明示すること
 ・進捗を確認する方法を提案すること

インタラクティブツールを構築する

計算機や分析ツール、意思決定ツリーのようなインタラクティブな仕組みは、記事を「知識の共有」から読者がすぐに活用できる「実用的なソリューション」へと変えてくれます。

しかもこれは、どの業界でも応用可能です。

たとえば「生産性」をテーマに記事を書くなら、読者がプロジェクトの作業量を調整できる「作業容量チェッカー」を提供するのも一案です。

クロード – ワークロードキャパシティアナライザー

もしあなたがウェルネス分野のライターであれば、読者が健康的な生活習慣を身につけられるように「習慣積み上げプランナー」を開発することも考えられます。

クロード – 習慣スタッキングプランナー

また、ガーデニングの専門家であれば、季節ごとの植え付け時期を計算できるツールを提供するのも良いでしょう。

クロード – 季節ごとの植え付け計算機

私は「EC成長戦略」に関する記事で、AIを活用してインタラクティブな利益計算ツールを作成しました。

Backlinko – 収益性計算ツール

数式を並べて解説するのではなく、読者がシナリオを操作して、売上原価(COGS)や送料、マーケティング費用といった要素が利益にどう影響するかを体感できるようにしました。

その最大のメリットは?

これらのAI設計ツールは、Calculator Studio のようなノーコードプラットフォームを使って実現できます。手順は以下のとおりです。

  1. コンテンツにおける計算ニーズを特定する
  2. AIに計算ロジックと数式の構築を依頼する
  3. ユーザーインターフェースを設計する(モックアップもAIで作成可能)
  4. お好みのノーコードツールで構築する

たとえば利益計算ツールを作成した際、私は AI に次のように指示しました。

EC事業者が自社の収益性を把握できるような計算ツールを作りたいと考えています。以下の機能を含めてください。
 ・売上原価(COGS)、配送費用、マーケティング費用といった主要な指標を入力できること
 ・粗利益率と純利益率を計算できること
 ・損益分岐点の分析を表示できること

まずはシンプルに始めましょう。

ひとつの問題を的確に解決できる基本的な計算ツールのほうが、ユーザーを混乱させる複雑なツールよりも優れています。

7. AIを使って下書きを編集する

編集は、「良いコンテンツ」と「卓越したコンテンツ」を分ける工程です。

しかし、以下のように、質の高い編集はコストや時間の面で負担が大きくなりがちです。

  • 編集者に時間単位で依頼すると費用がかかる
  • フリーランスの場合は請求できる作業時間が減る
  • 長いレビュー工程を待たなければならない
  • 自分で編集すると見落としが起きやすい

AIは、この状況を変えます。

編集者が下書きを確認する前に、迅速で偏りのないフィードバックを得たり、異なるバージョンを試したりすることができます。

では、効果的に実践する方法をご紹介しましょう。

まず戦略的な観点を取り入れる

すぐに細部の編集、たとえば文法チェックや表現のブラッシュアップに取りかかりたくなるかもしれません。

ですが、まずは全体像から見ることが大切です。

ここでは、Chris HannaがAIを使って戦略的な編集を行う方法をご紹介します。

Chris Hannaさんのコメント
「まず、草稿、アウトライン、そして概要をClaudeに渡します。そしてこう尋ねます。『何が足りないか? 論点を強化できる部分はどこか? どの部分により多くの根拠が必要か?』」

AIは次のように役立ちます。

  • あなたの記事を成功例と比較する
  • 繰り返しや抜けている部分を指摘してくれる
  • 構成全体の改善点を提案してくれる

こうした方法を取れば、修正作業の時間を大幅に減らせます。削ったり書き直したりする段落へのブラッシュアップに時間をかけるのは無駄ですよね。

簡易的な品質チェックを行う

記事の構成が固まったら、体系的な品質チェックを作成してください。

あなたのコンテンツが主要なエンゲージメント指標を満たしているかを確認することが狙いです。

Backlinkoでは、読みやすさを測る3つの指標をチェックしています。

  1. 単文段落の割合:1文のみで構成されている段落の割合。
  2. 視覚的要素の密度:1,000語あたりに含まれる視覚的要素(画像や図解など)の数。密度が高いほど、読みやすさが向上する。
  3. 学年レベル:誰でも理解しやすいように、中学1年生程度(Grade 7)以下のレベルを目安にしている。
クロード – コンテンツ品質チェッカー

AIはこれらを瞬時に計算し、具体的な修正方法を提案してくれます。方法は次のとおりです。

  1. 目標とする指標をAIと共有する
  2. 記事の一部を貼り付ける
  3. 分析と具体的な修正の両方を依頼する

数値的な指標だけでなく、AIを使って次のような点もチェックしましょう。

  • 冗長なアイデアや表現
  • 受動態の多用
  • 文や段落間のつながりの適切さ
  • ブランドのトーンやメッセージの一貫性
  • 技術的な正確性

重要な要素をテストする

コンテンツの中には、とりわけ重要な部分があります。

見出しは、クリックされるかどうかを決定します。

導入部分は、読者が読み進めるかどうかを決めます。

行動喚起(CTA)は、最終的にコンバージョンにつながるかどうかを左右します。

これらの要素は、特に注意を払う価値があります。

たとえば見出しなら、まず3~5個の候補をリストアップします。

そして、執筆しているトピックをGoogleで検索し、検索結果をスクリーンショットで残します。

Google SERP – AIを活用してより良い文章を書く方法

スクリーンショットをClaudeにアップロードし、自分のタイトル案が上位記事とどう比較されるかを尋ねます。

するとClaudeは、当社のタイトル方針、ベストプラクティス、差別化のポイントを踏まえて提案してくれます。

シニアライターのYongiは、導入文に似たような手法を使っています。

Yongiさんのコメント
「3つの異なる導入文を書き、その中でどれが一番効果的に読者を引き込めるかをAIに尋ねます。その後、『なぜそうなのか』をAIと議論し、好奇心を刺激できているか、テーマとの関連性があるか、感情的な共鳴を生み出せているかといった観点で検証します。」

次のような点もテストできます。

  • セクション間のつながり
  • 事例
  • 根拠の配置
  • 技術的な説明
  • 結論部分の主張

AIと人間の編集バランス

AIを使えば編集はスピードアップしますが、人間の判断は依然として不可欠です。

そのための実践方法は次のとおりです。

  1. 幅広い分析と迅速な修正のためにAIを活用する
  2. AIの提案に対して自分の判断を適用する
  3. 見出しや導入文など重要な要素は複数のパターンを試す
  4. 技術的な正確性は自分で確認する
  5. 自分らしい文体や視点を維持する

Chris Shirlowも、このAIと人間の役割分担を支持しています。

Chris Shirlowさんのコメント
「AIは潜在的な問題をより早く特定するのに役立ちます。しかし、実際に読者にとって役立つ変更かどうかを判断するには、依然として人間の専門知識が必要です。」

「頑張る」よりも「賢く」書き始めよう

今週取り組む予定の執筆プロジェクトを1つ選んでみましょう。

紹介した実践法の中から、1つだけ試してみてください。たとえば、読者のリサーチやアウトライン作成を手伝わせるなどです。

成果を感じ始めるのに必要なのは、それだけです。

これらの方法を実践する準備はできましたか?ぜひブログ投稿の書き方ガイドをご覧ください。

AIを使ったテクニックと実証済みのライティング原則を組み合わせ、検索で上位表示され、コンバージョンにつながるコンテンツを作成する方法がわかります。

BacklinkoはSemrushの所有です。私たちは、実践的な経験に裏打ちされた世界クラスのSEOインサイトをお届けすることに尽力しています。特に記載がない限り、このコンテンツはSemrush Inc.の従業員または有償契約者によって執筆されています。

SEOJapan編集部より:
AIを活用してコンテンツを制作する際は、効率化だけでなくよりよいコンテンツ制作のための壁打ち相手として活用することが大切です。
成果を左右するのは、AIが抽出した提案や示唆を、編集者が判断・検証し、他にはない独自の視点を加えられるかどうかです。
「効率化だけでなく差別化」したコンテンツをAIを活用して制作するという姿勢が、これから一層求められてくるでしょう。

seojapan

役に立つコンテンツを作る10の方法 + 事例とチェックリスト

2ヶ月 3 週間 ago

この記事は、Backlinkoの記事「10 Ways to Create Helpful Content + Examples and Checklist」を翻訳したものです。

好きか嫌いかは別として、私たちは常に、Googleのランキングに左右されています。

Googleのランキングシステムは、あるサイトを高く評価して上位に表示させる、あるいはサイトの評価を低くし、検索結果(SERPs)から表示されなくすることもあります。

とはいえ、ランキングシステムの全部が悪い話というわけではありません。

Googleは、「役に立つコンテンツ」について、詳細なコンテンツ評価ガイドラインを出しています。
Backlinkoでは、このガイドラインに沿ってコンテンツを制作しています。

たとえば、私たちの「SEO戦略ガイド」は検索結果で圧倒的な上位を獲得しています。

そして3,200以上のロングテールキーワード(※)で順位を獲得しています。

これは偶然ではなく、私たちは、公開する全ての記事がGoogleの「ヘルプフルコンテンツ」の基準を満たし、更に評価されるよう目指しています。

この記事を読み終えた時には、きっとGoogleに評価される「ユーザーを第一に考えたコンテンツ」を作るための10のポイントが身につけられるでしょう。

さらに、この記事では実際に高評価を受けているサイトの事例と、コンテンツの品質をチェックできる無料チェックリストも公開しています。

Google目線になって、役に立つコンテンツが何なのかを解き明かしていきましょう!

 Googleが考える「役に立つコンテンツ」とは?

「役に立つコンテンツ」とは、検索ユーザーが欲しい情報を的確に提供するコンテンツのことです。
情報を探している時、選択肢を比較している時、購入を検討している時などのユーザーの状況に関わらず、欲しい情報を常に提供できるコンテンツということです。

つまり、役に立つコンテンツとは、人々のために書かれたコンテンツであり、検索エンジンのために書かれたコンテンツではないということです。

では、Googleの「Helpful Content Update(HCU)」とは何だったのでしょうか?

2022年に初めて導入されたこのアップデートは、「ユーザーを第一に考えたコンテンツ」を評価し、検索エンジン向けに作られたページを排除するためのものでした。

※SEO Japan補足:HCUとは Helpful Content Update(ヘルプフルコンテンツアップデート) の略です。Google が 2022 年に導入したアルゴリズム更新で、「人を第一に考えた役に立つコンテンツ」を評価し、検索エンジン向けに作られた低品質なページを順位下落やインデックス削除の対象にすることを目的としています。

Googleによれば、役に立つコンテンツには以下の特徴があります。

  • 専門知識に基づいた、信頼できる情報を出すこと
  • 競合コンテンツと比較しても高い価値を提供すること
  • トピックに対する一次情報や実体験を示していること
  • ユーザー体験が満足できるものであること
  • 単なる検索順位目的ではなく、それ以上の目的があること

Googleはsite-wide classifierを使用し、個別のページ単位だけではなく、ドメイン全体でもWebサイトを評価しています。

つまり、低品質なコンテンツが大量にあると、優れた個別のページまで評価が下がってしまう可能性があるのです。

このアルゴリズムは2023年末から2024年初頭にかけて大きく変更され、多くのサイトが大幅にオーガニックトラフィックを失いました。

Googleは、この時検索結果から低品質コンテンツを45%削減したと発表しています。

※SEO Japan補足:site-wide classifier・・・GoogleがWebサイトを評価する際、ページ単位とサイト単位両方のシグナルを参照する仕組みのことです。

上記のアルゴリズムアップデートによって、特に大きな影響を受けたのは以下のようなサイトです。

  • 実際の商品やサービスを持たない、コンテンツのみのサイト
  • トラフィック獲得だけを目的に記事を作成しているサイト
  • コンテンツが薄く、収益化(アフィリエイト等)に偏ったサイト 

HCUの影響をめぐって、「果たしてこれは役立つアップデートだったのか?」という議論が広がりました。
そして、順位の下落やインデックス削除が本当に妥当だったのかという点も問われました。

しかし現実として、検索結果での表示はGoogleが決定しているのです。

ランキングを決めるのも変えるのもGoogleなので、そのガイドラインに従うことは必要不可欠です。

2024年3月時点で、Helpful Content Updateは単独のアップデートではなくなり、Googleのコアランキングシステムに統合されました。

結論として言えるのは、「役に立つコンテンツ」は、検索結果で生き残るために必要不可欠であるということです。

 Googleが評価する役に立つコンテンツを作る10の方法


はっきり言って、優れたコンテンツを作ることは大変な作業です。
しかしそれは、高い検索順位や適切なターゲットからのトラフィックという成果につながる可能性があります。

1. 実体験を盛り込む

コンテンツを一瞬で「役立つ」ものにする方法があります。

それは、実際の体験談や事例(AIが生成したものではなく、実際のもの)を加えることです。
どうしてでしょうか?

なぜなら、あなたが「そのテーマについて深く理解している」と実際の体験談や事例によって示すことができるからです。

これは、Googleの E-E-A-Tガイドライン(Experience, Expertise, Authoritativeness, Trustworthiness=経験・専門性・権威性・信頼性)が重視する要素です。

Googleは、自社サイトにおいて「よくある使い回しのアドバイスは避けるべきだ」と明言しています。

「新しく価値を付け加えず、他の人が言っていることをまとめているだけになっていませんか?」

つまり、似たり寄ったりの成功体験だけでなく、失敗も含めた自分の経験を盛り込むことが、検索エンジンに評価されるコンテンツを作ることに繋がると考えられます。

そして、それはユーザーが「読みたい」と思えるコンテンツになります。

例として、Backlinkoの創設者Brian Deanによる「被リンクガイド」を見てみましょう。

Brianは「良いコンテンツを作りましょう」や「ブロガーに働きかけましょう」といったありきたりなアドバイスだけでは終わらせませんでした。
代わりに、彼が実際に行って効果があった具体的な手法を公開しました。

たとえば、

  • 実際に使った外部連絡用メールテンプレート
  • 実際の成果を示すスクリーンショット
  • ステップごとの手順書
  • 推奨ツールの紹介
  • 実際のトラフィックデータ付き事例

その結果、読者は「実際に経験した人から学んでいる」という感覚になります。

そしてこの被リンクガイドは何年も高い検索順位を維持し、31,500件以上の被リンクを獲得しました。

プロのヒント:

  • 経験談を共有する際は、必ず具体的な成果と数値を明記しましょう。
  • 「これは効果がありました」だけではなく、どのように・どの期間で・どんな数字が出たのかを説明する必要があります。
  • 可能であれば写真やスクリーンショットを添えて信頼性を高めましょう。

2. 専門家の見解や引用を追加する

専門家の意見や引用は、コンテンツに権威性と新たな視点を加えてくれます。
また、他では得られない知見を提供することは、Googleの「役に立つコンテンツ」の基準を満たすことにもつながります。

たとえ自分がテーマに関して経験がある場合でも、専門家の意見を加えれば新たな視点が加わり、コンテンツはもっと幅広く役立つものになります。

専門家の引用がもたらす主な効果は

  • 主張の信頼性を高める
  • 独自性のある洞察を提供する
  • 競合が簡単に真似できないコンテンツを作る 

ペット用品会社「Chewy」のコンテンツは良い例です。
この記事には、認定獣医師や動物行動学者によるコメントが何度も含まれています。

その結果、記事の権威性と信頼性が高まっています。

専門家の意見を得る方法

  • メール・電話・ビデオ通話による独自インタビュー
  • LinkedInやX(旧Twitter)、業界フォーラムで専門家に直接コンタクト
  • 業界イベントに参加して人脈を築く
  • メディア取材仲介サービスの活用 

例:Numeral社のグロース責任者Nate Matherson氏は次のように語っています。

ブログ記事を書くとき、私はよく、週刊SEOポッドキャスト「Optimize」のためにSEO業界のリーダーたちから専門的な見解を集めます。

例えば、ポッドキャストでGraphiteのCEOであるイーサン・スミス氏にインタビューした後、彼のトピックオーソリティ※に関する引用のひとつを、同じテーマのブログ記事で再利用しました。

※SEO Japan補足:トピックオーソリティ…トピックオーソリティとは、特定のトピックに関して、ウェブサイトやコンテンツがどれだけ専門性、信頼性、権威性を持っているかを指す概念です。

3. 検索意図(Search Intent)に合ったコンテンツを作る

検索意図を理解し、それに沿ったコンテンツを作ることは、役に立つコンテンツの基本です。

例えば「蛇口の水漏れ修理方法」と検索した人が求めているのは、
明確な手順ガイドであって、配管工業者のサービスページではありません。

検索意図に沿ったコンテンツは、ユーザーの目的達成(蛇口を自身で修理する)を助け、その結果、Googleにとっても「役立つ」と評価されます。

検索意図の4タイプ

  1. 情報型(Informational)…知識を求める 例:「蛇口の水漏れ 修理方法」
  2. ナビゲーション型(Navigational)…特定サイトへ行く 例:「Home Depot 配管」
  3. 商用調査型(Commercial)…比較・検討する 例:「おすすめ タンクレス給湯器」
  4. 取引型(Transactional)…購入する 例:「Moen タッチレスキッチン水栓 購入」

あなたのコンテンツは、本当に検索意図に合った「ユーザー第一」の内容になっていますか?
迷ったときは、Googleが示す次のポイントを確認してみましょう。

あなたのコンテンツを読んだ人は、「目的を達成するのに必要な知識が十分に得られた」と感じられるでしょうか?

あなたのコンテンツを読んだ読者は、満足のいく体験ができたと感じるでしょうか?

これらの質問のいずれかへの答えが「NO」であれば、そのコンテンツは検索意図を完全には満たしていません。

検索意図に沿ったコンテンツ作成のポイント

  • ターゲットキーワードで上位表示されているページを分析する。
  • 検索結果の上位ページで一番多く使われているコンテンツの形(ガイド、リスト、動画など)を把握する。
  • キーワード調査ツールで各用語の検索意図を確認し、関連する質問やトピックを特定するためにキーワード調査ツールを使用する。この作業にKeyword Magic Toolが役立つ。
  • 特定の質問に答える明確な見出しを使用する。
  • 読者が記事を読み終えた後にすぐ行動できるように、明確な行動指針や参考情報を含める。
  • メインテーマに関連する小さなテーマや読者が抱える典型的な悩みも漏れなくカバーすることで、トピカルオーソリティ(テーマにおける権威性)を示す。 

※SEO Japan補足:Keyword Magic Tool…Keyword Magic Tool とは、SEOやコンテンツマーケティングのためのキーワード調査ツールで、Semrush(セムラッシュ)が提供しています。

4. 信頼できる情報源を使う

すべてのサイトにとって、高品質で信頼できる情報源を使用し、引用することは重要です。これにより、読者と検索エンジンの両方に対し、あなたの情報が正確で検証可能であることを示せます。

健康系メディア 「Well+Good」 の記事は、その好例です。

このメディアでは、薬の安全性に関する記事で、以下のような情報源を引用しています。

  • 認定を受けた精神科医
  • 精神医学および行動科学の大学教授
  • 査読済み(※)の医学ジャーナル
  • 信頼性の高い医療機関や政府系サイト(.govドメイン)

※.govドメイン:アメリカ合衆国の政府機関が使用するトップレベルドメイン(TLD)です。

信頼できる情報源を選ぶ際のポイント

  • 分野で権威のある機関や人物(有名大学、大手メディア、業界リーダー)を優先する
  • 公開日を確認し、最新情報であることを確かめる
  • 引用は必ず一次情報源に基づくこと
  • 資金提供や組織的背景による偏りがないかを確認する

GoogleのE-E-A-Tガイドラインでは、「信頼性(Trustworthiness)」が特に重視されます。
そして、信頼性は「確かな情報源に基づいている」ことを示すのが最も早い方法です。

5. その分野で執筆経験のあるライターを起用する

役に立つコンテンツを作る上で、ライターの経験値は非常に重要です。
そのため、ジェネラリスト(何でも書けるが専門性が浅い人)よりも、その分野での実務経験や知識を持つライターを優先的に起用しましょう。

専門分野に明るいライターが書くコンテンツには、以下のような様々なメリットがあります。

  • 実務経験からしか得られない具体的で深いアドバイス
  • 他では得られない専門性の高い情報
  • 信頼を築くリアルな事例やケーススタディ 

例えば、Harvard Health Publishing の記事は、医師自身が執筆しています。

執筆者は優れた資格を持ち、臨床経験、研究の資格、そして医療分野における専門知識があります。

こうした専門性は、YMYL(Your Money or Your Life)領域、つまり健康や金融など読者の生活に直結するテーマでは特に重要です。

経験豊富なライターは、美容でも旅行でも、どんなブログジャンルでも力を発揮します。
例えば、旅行ブログのFamily Vacationistは、取り上げる旅行先に実際に訪れたことのあるライターを起用しています。

彼らが教えてくれる、現地を知る人ならではのアドバイスを見れば、独自性の高い情報の重要性がよくわかります。

例えば、子どもにぴったりのアトラクションや、テーマパークで一番おいしい食べ物、どのホテルに泊まると良いか、そしてその理由に関する独自のアドバイスなどが、このライターでなければ書けない情報として挙げられます。

Family Vacationistは、ライターの経歴をプロフィール欄でしっかり紹介しています。
その中には、これまでに掲載された関連メディアや出版物の情報も含まれています。

他にも、すでに経験豊富なライターがいる場合でも、専門家によるレビューのプロセスを導入することで、コンテンツにもう一層の信頼性を加えることができます。

  • 専門家によるファクトチェック体制を導入
  • 記事内にチェックした専門家の資格や経歴を明記
  • 編集方針ページでレビュー体制を公開 

例えば住宅サービス会社の「Angi」は、記事に専門家のレビューを入れ、その専門家の経歴をプロフィールとして掲載しています。

専門家によるレビュー担当者には、その資格を強調する経歴も記載しています。

専門分野のプロに依頼することは、読者や検索エンジンに「このサイトはキーワード順位だけを目的にしているのではなく、正確で本当に役に立つコンテンツを届けようとしている」ということを示すことになります。

プロのヒント:

  • 専門分野、経験レベル、出版歴ごとに分類された専門家レビュアーのデータベースを作成しましょう。新しいコンテンツが必要になったときに、誰にレビューを依頼すればよいかが明確になります。

6. ページ体験(Page Experience)を最適化する

いかに役に立つコンテンツであっても、ページの読み込みが遅い、操作しにくいとなれば、ユーザーは離脱します。

Googleも「最低限の改善では不十分」と明言しています。

つまり、ページ体験は部分的にではなく、総合的に最適化する必要があります。

最適化のステップは次の通りです。

現状のパフォーマンスを分析する

基準をクリアできなかった場合は、これらの指標を改善するために、ツールの指示や提案に従ってください。
改善例としては、不要なJavaScriptや、サードパーティコードの削除などがそれに該当します。

プロのヒント:

  • SemrushのSite Auditのようなツールを使用して、サイトの技術的パフォーマンスに関する週次のアップデートを受け取りましょう。
    読み込み速度、検索エンジンに正しく巡回されるかどうか、リンク切れ、大きなファイルなど、ページエクスペリエンスに影響を与える問題について、自動的にアップデートを受け取ることができます。

※Semrush…SEO,広告、SNS、コンテンツマーケティングなどの領域で競合分析を補助するツール。Site Auditとは、Semrushに含まれる自サイトのチェック機能。

画像の最適化

TinyPNG、ImageOptim、またはCMSに組み込まれた最適化ツールなどを使用して、画質を損なうことなく画像を圧縮してください。
これにより、画像がページの読み込み速度を低下させるのを防げます。

TinyPNG:TinyPNG(Tinify)とは、Web上でPNGやJPEG画像を圧縮できる無料のオンラインサービスです。

ImageOptim:Macで使える無料の画像圧縮ソフトです。画像のファイルサイズを小さくすることで、Webサイトの表示速度を向上させることができます。PNG、JPG、GIF、SVGなど、様々な画像形式に対応しています。

すべてのデバイスタイプでテストする

サイトが、デスクトップ、タブレット、さまざまなモバイル画面サイズで機能するレスポンシブデザインになっていることを確認してください。

Chrome DevToolsまたはBrowserStackを使用して、利用者の多いデバイスやブラウザでサイトがどのように動作するかテストしてください。

モバイルでは指でタップできるボタンやリンクなどの操作できる箇所に特に注意してください。
ボタンやリンクが、誤ってクリックされることなく簡単にタップできることを確認してください。

Chrome DevTools:Google Chromeに搭載されたウェブ開発者向けツールで、サイトの構造やデザイン確認、動作テスト、速度測定、モバイル表示のシミュレーションなどができます。

BrowserStack:BrowserStackは、クラウド上で実機の様々なデバイスやブラウザ環境を再現し、Webサイトやアプリをテストできるサービスです。

セキュリティを改善する

サイト全体でHTTPSを使用して、ユーザーの信頼を築き、Googleの安全なブラウジング要件を満たしてください。

Google Search ConsoleのHTTPSレポートは、ページが安全かどうかを確認できます。(安全でない場合はどのように修正すればよいかがわかります。)

また、適切なSSL証明書を設定し、すべてのリソースが安全に読み込まれるようにする必要があります。

スクロールせずに見える範囲のコンテンツを最適化する


Web訪問者の注意を引くために、ページの最初に表示されるコンテンツ(つまり、スクロールする前にWebページに表示されるファーストビュー)の読み込みを優先してください。

そして、訪問者を一番重要なコンテンツや情報へ案内します。

特にモバイルデバイスでは、画面を開いたときに最初に表示される領域より下に押し下げてしまう不要な要素は最小限にしてください。

収益化とユーザー体験のバランスを取る

ディスプレイ広告を使用する場合は、それらがレイアウトのずれを引き起こしたり、コンテンツを圧迫したり、読者にとって障害(※利用を妨げる要因)を生み出したりしないようにしてください。

広告が読み込まれる際にコンテンツがジャンプするのを防ぐために、レイアウト内に広告用のスペースをあらかじめ確保してください。

7. 情報価値(Information Gain)を追求する 〜SERPsに新しい価値を加える〜

Googleは公式に「※情報価値(information gain)」をランキング要因とは明言していません。
しかし、検索結果に新しい情報や独自の価値を加えることは、Googleの「役に立つコンテンツ」の理念と一致します。

情報価値とは、既にある内容の焼き直しではなく、読者が他では得られない情報を提供することです。

これまで紹介してきた「実体験」や「専門家の引用」も情報価値の一種ですが、他にも次の方法があります。

※SEO Japan補足:「情報価値(information gain)」とは、コンテンツが、同じトピックに関する他の記事にすでに存在する情報に加えて提供する新しい情報の量を指します。 これは、検索エンジンが、既存の検索結果(SERP)にない独自の視点や有用な知識を提供する記事を評価しようとする概念です。コンテンツが、ユーザーがすでに読んだ可能性のある情報を考慮し、それに加えて何が「新しい情報」であるかを判断することで、検索結果全体の情報の重複を解消するのに役立ちます。 簡単に言えば、情報価値が高いコンテンツとは、単に他の記事より優れているだけでなく、検索結果に新たな価値を加える記事であると言えます。

  • 独自調査:ユーザーや業界へのアンケート結果を公開
  • 独自フレームワーク:自社独自の評価基準や分析手法を開発
  • 製品テスト:公式仕様ではなく、実際の使用感や性能を公開

たとえば、金融サイト「NerdWallet」は、さまざまな金融商品を徹底的にレビューするために多大な努力を払っています。


彼らのレビューコンテンツが評価されているポイントは、金融商品のカテゴリごとに、レビューの評価基準を分けている点です。クレジットカードと住宅ローンでは、重要視される要素が違うためです。

さらに、評価基準の重み付けや計算方法を詳細に公開しています。
これにより、星評価の信頼性が高まり、読者は納得してクレジットカードを選択できます。

これらの評価は、読者が自分のニーズに最も合った商品を選ぶ手助けとして、NerdWalletのさまざまなレビューに掲載されています。


例えばクレジットカードの場合は次のようになります。

このように、情報価値を提供するには、時間や費用の投資が必要ですが、その分、競合が簡単に真似できないコンテンツが作れます。

8. 既存コンテンツを更新する

新しい記事を作ることが常にベストとは限りません。

むしろ、既存コンテンツを最新かつ包括的に更新する方が、少ない労力でより大きな成果を得られる場合があります。

Googleは、鮮度と正確性を保っているコンテンツを高く評価します。
また、古い記事を改善すると、順位やトラフィックが急上昇することもあります。


実例を挙げると、筆者がPositional社のブログ記事(タイトルタグに関する記事)を9か月間ほぼ放置していたところ、順位が停滞していました。
しかし記事を刷新し、最新情報を追加したところ、順位が急上昇し、その後も安定しました。

更新時の優先ポイント

  • 統計や事例を最新データに差し替える
  • 画像・レイアウトを改善し、読みやすさを向上
  • 新しい専門家コメントや研究結果を追加
  • 古くなったアドバイスを修正または削除
  • 検索意図の変化に合わせて内容を調整

注意:見出しの日付だけ更新して中身を変えない「見せかけ更新」は逆効果です。
Googleは実質的な価値追加がある更新しか評価しません。

9. 有用なグラフィックや動画を作成する

「役に立つコンテンツ」は、文章だけを意味するわけではありません。グラフィックや動画も、読者の理解やエンゲージメントを高める重要な要素です。

ビジュアル作成のポイント

  • 複雑な内容をわかりやすく説明するために使う
  • 一般的なストック画像ではなく、オリジナルの図表やスクリーンショットを使う
  • 動画はテキストの内容をなぞらず、オリジナルの付加価値を持たせる
  • 重要なポイントを強調するコールアウトボックスを使用

コールアウトボックス(callout box)とは、文章中の重要な情報や注意点、補足説明などを目立たせるために囲みや背景色をつけたボックスのことです。

Backlinkoでは、コンテンツのビジュアル面を重要視しています。
私たちが、結果を強調したり、Webサイトのパフォーマンスを示したりする際に、さまざまな分析プログラムからのスクリーンショットを使用します。

私たちのカスタムグラフィックは、重要なポイントを説明し、複雑なトピックをより理解しやすくします。
また、記事全体を通して読者の関心を維持する役割も果たします。

私たちは、データ量の多いトピックをより理解しやすくするために表を使用しています。
そして、コンテンツの読みやすさと記憶の定着性を向上させています。

また、文章を区切り、さらに価値を加えるためにコールアウトボックスも使用しています。
この記事で言う「プロのヒント」のようなものです。

ビジュアル要素は、コンテンツをより魅力的にし、アイデアを明確に伝える効果を高めます。
それらは直帰率を改善するのにも役立ちます。

10. AIライティングツールを戦略的に使う

AIライティングツールは優れたアシスタントになり得ますが、人間のライターの代わりにはなりえません。
実際、Googleは「多くのトピックに関するコンテンツを大規模に自動生成すること」について、警告しています。

Googleは2024年3月のアップデートで、大量の低品質AI生成コンテンツをターゲットにしました。

その結果、大量のAI記事があるサイトで、インデックス削除や順位急落などの問題が発生しました。

ただし、Googleは「どのように作られたかに関わらず、高品質なコンテンツは評価する」とも述べています。

しかし、AIに出力させたコンテンツの評価は、未だグレーゾーンの域を出ません。
あなたが考える、「高品質で人間が編集したAIコンテンツ」は、Googleの考えるものと一致しない可能性があります。

また、ランキング操作のために低品質で独創性のないコンテンツをAIで作成することは避けてください。

「低品質で独創性のないコンテンツ」には以下を含みます。

  • 専門家の関与なしにAI生成記事を公開すること
  • 専門知識なしで記事全体を作成すること
  • 検証なしに事実に関する主張をAIに依存すること
  • 実質的な価値がないのにキーワードだけを狙ってコンテンツを生成すること

幸い、Googleからの評価を保ちつつAIコンテンツツールを活用する方法は数多くあります。

AIをコンテンツの制作に活かす方法として、以下が挙げられます。

  • 調査論文を要約する、または重要なポイントを作成すること
  • 上位表示されているコンテンツに基づいて、構成案を提案すること
  • ブログ記事、メールマーケティング、ニュースレターなどの下書きを作成すること
  • 明確さを向上させる、文法の問題を修正する、またはより良い表現を提案すること
  • コンテンツのトピックアイデアや切り口を生成すること

重要なのはAIを土台として使い、必ず自分の経験・専門性・検証を加えることです。
これがGoogleのE-E-A-T基準を満たす鍵です。

ボーナスコンテンツ:Googleの「Who-How-Why」フレームワークでコンテンツの有用性を評価してみる

Googleは、コンテンツの有用性を自己評価するために「Who-How-Why」フレームワークを推奨しています。

「誰が」そのコンテンツを作成したのか?

「Who(誰)」という質問は、専門性と信頼性に焦点を当てています。
Googleは、コンテンツの背後にいるチームについての明確な情報を確認したいと考えています。
これには、ストラテジスト、ライター、編集者、ファクトチェッカー、そして専門家レビュアーが含まれます。

  • 関連する経験や資格を強調した詳細な著者プロフィールを追加する
  • 読者が期待する記事には必ず明確な署名(byline)を入れる
  • 署名を著者ページにリンクし、追加の背景情報を提供する

例:全米高齢者協議会(NCOA)は、医療資格や教育背景を持つ著者の情報を記事内で明確に提示し、信頼性を高めています。

そのコンテンツは「どのように」作られたのか?

「How(どのように)」という質問は、プロセスにおける透明性に関するものです。
Googleが知りたいのは次の点です。

  • どのような調査やテスト方法を使用したのか?

∟テストの期間・項目・比較条件などを具体的に記載しているか?

  • AI補助を使用したのか?(もし使用したなら、どのように?)

∟人間の監修は入っているか?どのような監修をしたか?

製品テストを実施した場合は、その方法論を説明してください。
単に「10個の製品をテストしました」と言うだけでは不十分です。
テストについて、具体的に説明しましょう。

例えばNCOAでは、記事ごとにテストデータを強調しています。「調査に何時間費やしたか」「何人の専門家に取材したか」を公開しています。

「なぜ」そのコンテンツが存在するのか?

「Why(なぜ)」という質問は非常に重要で、ランキングに悪影響を与える可能性が高い部分です。

コンテンツを作る目的によって、そのコンテンツが役に立つものになるか否か、ある程度判別できるはずです。

  • このコンテンツは主に人々を助けるためのものですか?(良い)
  • 主に検索トラフィックを集めるためのものですか?(悪い)

独自な価値を提供することなく、キーワードでの順位獲得だけを目的としてコンテンツを公開している場合、Googleはいずれそれを見抜きます。

たとえ検索エンジンが存在しなかったとしても、人々にとって価値のあるコンテンツを作成してください。

人々が直接探し求めるようなコンテンツです。

例えばNCOAのレスパイトケア(介護者の休息支援)に関する詳細なガイドは、オンラインでもオフラインでも、読者にとって価値のあるものです。

「役に立つコンテンツ」を作るフレームワークを上手に使って、価値のあるコンテンツを生み出しましょう

検索順位やトラフィック等の結果を得るためだけに、SEOのチェック項目を埋めるためだけにコンテンツを作成することはやめましょう。

検索結果で上位に表示されているサイトは、ユーザーを本当に助けているサイトです。

このガイドにある10の戦略を活用することで、Googleに本当に価値があると認めるコンテンツを作ることができます。

そのコンテンツがトラフィックを集めるのは、システムを使いこなしているからではなく、順位にふさわしい価値があるからです。

まだダウンロードしていない場合は、私たちの「役に立つコンテンツチェックリスト」をダウンロードしてください。

続いて、コンテンツギャップ分析ガイドを確認し、これらの原則を適用できる箇所を探してください。

これにより、効果を最大化するための注力ポイントがわかり、検索結果ページ(SERPs)で存在感を発揮し、次回のGoogleアップデートにも耐えられるようになります。

BacklinkoはSemrushが所有しています。私たちは、実践に基づいた世界トップレベルのSEOノウハウをお届けすることに情熱を注いでいます。特に記載がない限り、このコンテンツはSemrush Inc.の社員または外部の契約ライターによって執筆されています。

SEO Japan編集部より:

ユーザーにとって「役に立つコンテンツ」を見極め、作ることは、大変に時間と手間のかかる作業です。
それ故に、他サイトやAIには簡単に真似できない価値を生み出すことができ、検索エンジンもユーザーも、常にコンテンツにはその価値を求めています。

安易に数を作るのではなく、情報にいかに付加価値を出せるのか?を考え抜いたコンテンツを作る事が求められています。

seojapan

【初期データからの示唆】GoogleのAI Mode経由の流入傾向

3ヶ月 3 週間 ago

この記事は、2025年7月3日にiPullRank社にて公開されたGarrett Sussman氏「Referral Patterns in Google AI Mode: Understanding the Early Data」を翻訳したものです。前回投稿した「レリバンスエンジニアリング入門:検索の未来」の翻訳後、アメリカにて公開されているAI Modeの初期データをまとめた記事として、iPullRank社よりご共有いただきました。

AI Modeが、従来のGoogle検索結果のクリック率と、どのくらいギャップがあるのか、どのようにサイトが出力されるかなど、気になる方はぜひ一読ください。

※SEOJapan補足:「AI Mode」 GoogleのAI Modeは、現在アメリカ・インドで展開されている次世代の検索体験です。従来の検索結果とは異なり、ユーザーの質問を理解して対話形式で回答を生成します。(2025年7月18日時点で日本では未展開)

AI Modeの分析に至った背景

私はあの日、ミッションインポッシブルのワンシーンのように、天井から飛び降り、スマートにGoogleのデータセンターに侵入しました。そして、昨今SEO界隈を騒がせているGoogle検索の「AI Mode」の秘密を解き明かし、ここで発表しようと思います。

・・・私がトム・クルーズだったなら、本当にそうしたでしょう。
しかし私はスパイではなく、iPullRank社のアナリストです。今回、我々はSimilarweb社と共にAI Modeについて分析を行いました。

初回レポートにおいて、Similarweb社は、10万人超のAI Modeに関する日次データ(以下の指標)をElias Dabbas氏および当社チームに提供してくれました。(データ期間:AI Modeの一般公開日が行われた5月20日から6月19日まで)

  • セッションあたりの検索回数
  • リファラルの割合
  • リファラル経由の平均滞在時間
  • リファラル経由の平均ページビュー
  • ユーザーあたりのセッション数
  • 検索クエリの長さの平均
  • ユーザー数 と アクティブ日数
  • リファラルシェア

※SEOJapan補足:

  • リファラルの割合(リファラル経由の流入が全体に占める割合
  • 検索クエリの長さの平均(検索時に入力されたキーワードの平均単語数、または文字数
  • リファラルシェア(特定のリファラル経由の流入が全体リファラル流入に占める割合)

現時点で、これらのデータを取得できるデータプロバイダー(データ提供会社)はごくわずかです。AI Mode(および他の大規模言語モデルベースのデータセット)は、分析方法において特有の性質があります。AI Modeは、出力に一定のばらつきが生じる点に加え、特定のクエリや検索意図について十分な情報が得られないため、全体傾向を捉えるような高度な分析が求められます。

人々がAI Modeを使い始めると、あらゆる検索ジャーニーは、より解析が困難で複雑になるでしょう。たとえば、私が娘のために新しい自転車を検索するときと、あなたが自宅の住宅ローンについて検索する時とでは大きく異なります。Google が検索結果のパーソナライズ化を進めると仮定するなら、特定のトピックセットを再現することは、あまりに細かく、徒労に終わるかもしれません。

つまり、私たちはある程度根拠のある仮説を立てるための傾向を探っています。また、AI Modeの結果は、従来のSEOの結果と一部重なる部分が出てくる可能性があることも、あらかじめご理解ください。

AIによって確率的な結果が導き出されるまでにはさまざまなプロセスがありますが、結局のところ、それはGoogleが検索内容に基づいて最適な答えを導き出す仕組みに加わった、ひとつの複雑な要素にすぎません。

AI Modeデータのコンテクスト化

誰がAI Modeを使用しているのか?

具体的なユーザー層(デモグラフィック)に関する情報はないものの、いくつか妥当な仮説を立てることは可能です。AI Modeは、検索のデフォルトではありません(そして「デフォルト」であるかどうかは重要です)。

AI Overviews(AIO)がリリースされた際は、Googleの検索結果のすぐ上に配置されました。AIOは、強調スニペットよりも大きく表示され、クリックを奪い、トラフィックに影響を及ぼしました。フランシーヌ・モナハン氏 は過去数年間で50件以上のAIOに関する調査をレビューし、AIOが検索に与えた影響を明らかにしています。AIOをオフにする方法は存在しません。今では、通常の検索の50%以上に、AIOが表示されています。

それでもなお、Googleの自然検索におけるマーケティング力は損なわれおらず、Googleの衰退は大げさに語られ過ぎています。

一方で、AI Modeの使用は、検索者にとってハードルの高い状態です。AI Modeに到達するには、以下のいずれかを行う必要があります。

  • デスクトップまたはアプリ版Googleのホームページにあるアイコンをクリック
  • 通常の検索後に表示されるAI Modeのタブをクリック
  • AIOの下部にある「AI Modeでさらに深く調べる」というリンクをクリック

これらの手順を踏んでAI Mode検索を行う人は、いわゆる通常の検索ユーザーではないでしょう。実際、Similarweb社によれば、AI Modeの初期利用率は全検索の2%未満でした。

  • AI Modeをクリックしているアーリーアダプターとは誰か?
  • その行動は、一般的なGoogleユーザーとどう異なる可能性があるか?

AI Modeを使用するユーザーは、「おそらくテクノロジーに関心が高く、新機能を試すのが好きな実験好き」あるいは「業界のトレンドを常に把握する必要のあるマーケター」「SEOのプロフェッショナルで、好奇心が強い人物」であると考えられます。

他にも様々な心理的タイプを持つユーザーが存在するかもしれませんが、今回のデータ分析においては、上記で挙げたタイプのユーザーを前提にインサイトを読み解くことが重要です。

関連ページ:AI Modeの仕組みと、SEOが検索の未来にどう備えるべきか

AI Modeの利用状況分析・洞察

このデータセットの中から、最も興味深いデータのいくつかを見ていきましょう。
現在、SEOおよびマーケティングチームにとって最大の関心事はトラフィックに関することです。

  • AI Modeでは、従来のGoogle検索と比べてトラフィックが減少するのか?
  • 従来のGoogle検索と比べて、AIモードを使ったユーザーは1回の検索でより多くのサイトを訪れるようになるのか?

AI Mode vs. Google検索:リファラル経由の流入のギャップ

注視すると、AI Modeのセッションからの平均クリック数が大幅に減少しているという明確な傾向がわかります。 

  • Google検索のセッションの24%がクリックに至っている
  • AI Modeのセッションの4.5%がクリックに至っている

なぜ、これほど大きな差が生じるのでしょうか?

①AI Modeの回答で満たされるケース

  • AI Modeは「Query Fan-Out(クエリ拡張)※」技術を用いて、将来的に想定される質問を先回りして回答することで、より包括的かつ満足度の高い回答を提供している可能性がある。
  • 問いに対する十分な回答が得られれば、サイトでさらに情報を探す必要はなくなる。AI Overviewsの導入によってクリック数が減少していることも、この点を裏付けている。

※SEO Japan補足:「Query Fan-Out」
AI OverviewsやAI Modeでの検索結果の生成に用いられる技術のこと。
ひとつの質問(クエリ)を、関連する質問(サブクエリ)
に分解し、調べ、それらの答えを組み合わせてより網羅的な回答を作る仕組み

検討すべきテーマ

AI Modeで十分な回答がなれるクエリは、しばしば情報収集型や事実確認に関する検索であり、直接的な回答で充足に至るケースが多いのではないか?

②ユーザーの意図と好奇心

  • 単にAI Modeを試しているユーザーは、質問への明確な回答を求めているというよりも、インターフェースを探索している可能性がある。つまり、検索よりもAI Modeそのものを試すことが目的となっている。
  • ChatGPTやGeminiのような生成AIを使ったことがないユーザーが、AI Modeで「何ができるか」を試しているのかもしれない。

検討すべきテーマ

ユーザーが積極的に情報探索しているのではなく、AI Modeを試していることを示す証拠(非常に短いクエリや試験的なクエリなど)はありますか?

③デザインとUIの障壁

  • AI Modeでは、生成された中にアンカーリンク(外部リンク)を埋め込む形式がテストされている。また、従来のGoogleの検索結果と比べて、リンクは目立たないサイドコンテナに配置されている。
  • インターフェース自体が外部リンクを目立たなくし、クリックしにくくしている。

検討すべきテーマ

従来のGoogleの検索結果とAI Modeでは、外部リンクの可視性や目立ち方にどのような違いがあるのか?

④アーリーアダプターの行動

  • 先述のとおり、AI Modeを使うユーザーは、技術に精通し、自力で回答を得ることに慣れているアーリーアダプターである可能性が高い。
  • 彼らは、検索結果に表示されているページをクリックするのではなく、ChatGPTのようなツールを複数使い分けている可能性がある。

検討すべきテーマ

AI Modeのアーリーアダプターは、完結型の回答を好む傾向があるのか?それとも、複数のプラットフォーム(ChatGPTのようなツールの併用)を使って調べる習慣があるのか?

⑤信頼と権威に対する認識

  • Googleから生成されたAI回答に、ユーザーが最初から信頼を置くことはあり得るのか?やや疑わしいが、もし信頼されるなら、ユーザーが情報を確認して裏付けを求める必要性は減るでしょう。

検討すべきテーマ

「情報の信頼性」や「権威性の認知」によって、クリック率の違いを説明できるのか?

⑥AI Modeでの初期検索では、購入や取引を意図した検索が少ない

  • 現在AI Modeを試しているユーザーは、商用または取引的なクエリ(例:購入、比較)をあまり使っていない可能性がある。こうしたクエリでは、本来外部サイトへのクリックが多い。
  • 従来の検索は取引的意図に強く使用されるため、自然にクリック率が高くなる。同様に、ナビゲーショナル(特定のWebサイトに行くことを目的とする)検索でもクリック率は高くなる。ブランドサイトに行くだけなら、わざわざAI Modeを使う理由がないのでは?

検討すべきテーマ

AI Modeにおけるクエリは、従来のGoogle検索と比べて「情報収集目的」と「商用目的」で大きく傾向が異なるのか?

以上のように、AI Modeでクリック数が少なくなる理由はいくつか考えられます。より深い洞察を得るために、以下の2つの質問が繰り返し出てきます。

  • クエリの内容がわかれば、クエリの種類によって行動に違いが出るだろうか?
  • AI ModeがGoogle検索のデフォルトになり、すべての人が慣れた状態になった場合、行動は大きく変化するだろうか?

上記グラフはインタラクティブ形式(※)になっており、各データポイントにカーソルを合わせることで日別の外部リンクのクリック数差が表示されます。また、Google検索またはAI Modeのデータを非表示にすることで、AI Modeのリファラルの激しい変動を拡大して確認することもできます。

※掲載しているグラフは元記事のキャプチャです。詳細は元記事をご確認ください。

Google検索は安定している一方、AI Modeのクリック率は5.4%から3.8%までのばらつきが見られます。このクリック率の低下がトレンドを示していると結論づけるにはまだ早いものの、注視する必要はあります。そして、今後6〜12か月以内にAI Modeがデフォルトになれば、クリック率やその推移は大きく変わるでしょう。

では、セッションあたりのリファラーページビュー数はどうなのでしょうか?

セッションあたりの平均リファラーページビュー数を調べてみると、興味深い2つの傾向が見られます。

  • Google検索では1日あたり外部クリックが6回
  • AI Modeでは1日あたり外部クリックが5.9回

2か月間の平均では、実際のクリック数に大きな差はありません。

しかしグラフを見ると、Google検索の方は比較的安定していることがわかります。週末にクリックが増え、平日を通して一貫したリファラルクリックが見られるという、よくあるパターンが確認できます。

一方、AI Modeは不安定です。明確なパターンがなく、多いときには7回、少ないときには4回と、クリック数にばらつきが見られます。やはり、初期段階のデータはノイズが多い状態です。

※掲載しているグラフは元記事のキャプチャです。詳細は元記事をご確認ください。

AI Modeのデータのトレンドの今後はどうなるか?

我々の優れたパートナーであるSimilarweb社が提供し、Elias Dabbas氏が分析した初期のAI Modeデータから、より多くの洞察を近々共有する予定です。

私たちは現在もデータを整理している最中ですが、発表予定の詳細レポートでは衝撃的な洞察が得られるはずです。それが確かなものであれば、GoogleがAI Modeからユーザーをどう誘導しているかという見方を根本から変えることになるでしょう。

今回、AI Modeについてどんな第一印象を持ったでしょうか?実際に使ってみたご自身の体験から何か感じることはありましたか?

今回提示したデータは、今後のGEO(生成エンジン最適化)やレリバンス・エンジニアリングにおいて、どのようにAI Modeを位置づけるかという点に影響を与えるかもしれません。

※SEO Japan補足:GEO:生成エンジン最適化(GEO:Generative Engine Optimization)とは、ChatGPTやPerplexityなど、生成AIを活用した検索にて、自社コンテンツが回答として選ばれるようにする情報発信手法

SEOJapan編集部より:

アーリーアダプターが利用していることが前提ですが、AIOと同様に、AI Modeでも従来のGoogle検索よりクリック率が低下傾向はあるようです。情報系の検索に関しては、クリック率の低下は一定覚悟した方が良さそうです。

一方で、AI Modeでのリンク形式やAI Modeがデフォルトになった場合では、リファラル経由の流入が増えたり、指名検索の流入が上記よりも増え、違った示唆となる可能性が残る内容でした。今後もAI Mode関連の情報があれば、積極的に翻訳していきます。

seojapan

AIO(AI検索最適化)とは?SEOとの違いは?

3ヶ月 3 週間 ago

SEOの時代は終わったのか?」
生成AIの台頭とともに、そんな問いが飛び交うようになりました。しかし、私たちが向き合うべきは「終わり」ではなく、「進化」です。今、検索は大きな転換点を迎えており、その最前線にあるのが AIO(AI Optimization/AI検索最適化) という新たな概念です。

まだ定義も固まっておらず、LLMOやGEOなど呼称は様々です。

本記事では、AIOとは何か?SEOとの違いは?そして現場レベルで今、何をすべきか?について解説します。

AIOとは?

AIO(AI Optimization) とは、「生成AI(LLMによるAI)を活用した検索体験において、自社のコンテンツやサービスが的確に取り上げられ、ユーザーにリーチするための最適化施策」を指します。

具体的には、以下のような検索体験に対応することが目的です。

  • GoogleのAI Overviews(旧SGE)
  • BingのAI Chat検索(例:Copilot)
  • PerplexityなどのAI検索エンジン
  • ChatGPT Plugins/Browse機能を活用したナビゲーション
  • 検索意図を抽出してくるAIエージェント(AI Modeを含む)

これらのAIは従来のリンク型SERPとは異なり、「文脈理解」「要約」「推薦」を前提とした応答を返します。つまり、“クリックされる” ではなく “引用される” コンテンツが問われる時代へと突入ました。

従来のSEOとの違い

項目 SEO(従来) AIO(生成AI検索)
対象 検索エンジンのランキング
(主にGoogle)
AIによる生成検索
(Google AI Overviews, Perplexityなど)
最終出力 ブルーリンクの一覧(SERP) 回答文・要約文・情報カードなど
評価基準 キーワードとの整合性・E-E-A-T・内部外部リンク構造など 文脈の網羅性・自然言語での信頼性・引用しやすさ・情報の粒度
ユーザー行動 検索→クリック→読了・CV 検索→AI回答の中に自社情報が表示される(クリックされない可能性も)

AIOが重要な背景には「検索行動の変化」があり

1. 検索エンジンの役割変化

GoogleやPerplexityは、従来の「リンク一覧」から「即答・要約・レコメンド」へと舵を切りつつあります。
特に2024年以降、Googleの AI Overviews(SGE) や Bingの AIチャット検索 は「検索のUX(ユーザー体験)」自体を変えていくものです。

2. 検索行動のフラグメント化

SNS検索・動画検索・ChatGPT・AIエージェントなど、検索のチャネルは多様化しています。
「どこで検索されるか?」が分散してきたため、ユーザー行動全体を捉える必要があります。

3. AIに“引用される”ことの価値

ユーザーが「このサービスが良いらしい」と思うきっかけが、AIによる「推薦文」になる可能性があります。
つまり、AIの引用=現代の“広告枠”であり、そこに入れなければそもそも競合比較の土俵にすら上がれないという構造です。

AIOで必要な対策・施策

1. “自然言語での文脈整合”を意識した構成

AIはキーワード一致よりも、文脈的な意味のつながりを重視します。
「何を伝えたい記事なのか」を一貫性ある構成で示し、自然言語で完結する記述を心がけましょう。

また、日本語の場合、”主語なし”の文章が成り立ちますが、AIが読み込む場合は主語・述語・目的語が明確な文章構造を好みます。「マシンリーダブルな文章」をやや意識する必要があるでしょう。

2. 明示的な一次情報・主観・体験談の記載

AIは中立情報を集約する傾向がありますが、ユニークな視点・主張・実体験は引用対象になりやすいです。
例:「実際に○○カードを3年間使って感じたメリット」など。

また、検索意図や各ページで理解したトピックとの計算技術も上がっており、1ページ=1テーマではなく、複数の派生したテーマを保有できるようになってきています。

水平的に散らばったトピックを横に広く記載したコンテンツよりも、深く・体験に基づいた示唆のある情報の価値を評価する傾向があります。

3. FAQ・定義・比較など“まとめ系要素”の充実

AIOにおいては、「〇〇の場合、○○でしょうか?」「○○とは、○○です」「比較ポイントのまとめ表」などが学習しやすいフォーマットとして好まれる傾向にあります。
Webページの記事構造に取り入れると有効です。

4. Schema.orgや構造化データを活用し“意味”を伝える

AIはクローラーではなく、意味解析で構造を把握するため、FAQPage/Product/HowToなどの構造化データの実装は有効と考えられます。

「マシンリーダブルなコンテンツ構造」を体現し、中でも深度のあるコンテンツが評価されていくでしょう。

5. AI検索エンジンでの“自社名の出現状況”をモニタリング

特にPerplexityやBing、AI Overviewsなどで 自社名やブランド名での応答結果 を定期チェックし、被リンク・引用元・競合との差異を把握しましょう。

言及される機会が少ない場合、指名検索やWebサイトの直接流入が知らない間に減る、といったことも想定されます。

参考:AI Mode時代のSEOと必要な施策・戦術は何なのか?

SEOは終わらず、AIOとして再構築される

AIOの時代においても、SEOの本質は変わりません。
それは「ユーザーに価値ある情報を届け、選ばれる存在になること」です。

ただし、その届け方(インターフェース)と、選ばれる基準(評価指標)がやや変わります。
SEO担当者は単にキーワードを追うだけでなく、ユーザーの検索体験全体をデザインする存在へと進化する必要があります。

AIOはSEOの終焉ではありません。むしろ、SEOの戦場が拡張されたと捉えるべきでしょう。ベースはSEOとなりますので「SEOは出遅れたけど、AIOなら巻き返せる」は難しい状況です。

検索者にとって有益なコンテンツ(わかりやすく、深い情報)を届け、顧客とのエンゲージメントを向上させていきましょう。

seojapan

SEO業者の取り組みとその歴史~ブラックハットSEO・ホワイトハットSEO~

4ヶ月 1 週間 ago

検索エンジンのアルゴリズムは、その複雑性と非公開性から、ウェブサイトの検索順位を向上させるためには専門的な知識と技術を要します。そのため、SEO(検索エンジン最適化)業者は、この難解な領域において重要な役割を担ってきました。

SEO施策の歴史は、まさにSEO業者とGoogleという二者の間で繰り広げられてきた、終わりのない攻防の歴史であると言えるでしょう。

SEO業者の取り組みとGoogleの攻防

SEOの手法は大きく分けて、検索エンジンのアルゴリズムの「抜け穴」を悪用する「ブラックハットSEO」と、Googleのガイドラインに則り、ユーザーの利便性を追求する「ホワイトハットSEO」の2種類が存在します。両者の違いは、その哲学と手法、そして結果として生まれるユーザー体験にあります。

ブラックハットSEO:アルゴリズムの盲点を突く悪質な手法

ブラックハットSEOは、検索エンジンのアルゴリズムが未成熟な時代に行われていました。

具体的なブラックハットSEOの例としては、以下のようなものが挙げられます。

クローキング(Cloaking)

クローキングとは、検索エンジンのクローラーと実際のユーザーに対して、それぞれ異なる内容のウェブページを表示させる手法です。例えば、クローラーにはキーワードが大量に詰め込まれた最適化されたページを見せ、ユーザーには通常のコンテンツを見せるといった方法が取られました。これにより、関連性の低い検索クエリで上位表示を狙うことが可能になりました。しかし、Googleは2006年のウェブマスター向けブログでクローキングを「避けるべき手法」として明確に言及し、ガイドライン違反であることを示しています。

参考:Google ウェブ検索のスパムに関するポリシー

ワードサラダ(Keyword Stuffing/Article Spinning)

ワードサラダとは、検索エンジンに特化して、関連するキーワードを過剰に詰め込んだ文章を自動生成させる手法です。意味の通らない文章でも、キーワードの出現頻度を高めることで検索エンジンからの評価を得ようとしました。これは「キーワードの乱用(Keyword Stuffing)」とも呼ばれます。Googleは、その品質評価ガイドラインにおいて、キーワードスタッフィングを低品質なコンテンツの要因として挙げています。また、AI技術の発展と共に、意味のある文章のように見せかける「記事自動生成ツール」が一部で利用されていましたが、これらもGoogleの品質ガイドラインに違反する可能性が高いです。

参考:Google検索評価ガイドライン

人為的なリンク構築(Unnatural Link Building)

SEOだけを目的に、意図的に被リンクを増やす手法です。リンクファームからの大量の低品質なリンク購入、相互リンクプログラムへの参加、記事ディレクトリへの過剰な登録などがこれに当たります。かつては被リンクの数が検索順位を決定する上で非常に大きな要素であったため、この手法は広く行われました。しかし、Googleは2012年のペンギンアップデートを皮切りに、不自然なリンクに対する取り締まりを強化しました。このアップデートは、低品質なリンクを持つサイトの順位を大幅に下げることを目的としており、リンクの「量」よりも「質」と「自然さ」を重視する方向に転換しました。

参考:ペンギンが Google のコア アルゴリズムの一部になりました

これらのブラックハットSEOの手法で一時的に検索順位が上がったとしても、そのウェブページの内容が低品質であったり、ユーザーの求めている情報と乖離していたりすれば、ユーザーは検索結果に満足せず、結果としてGoogleの検索エンジンそのものに対する期待値も低下してしまいます。

Googleは、ユーザー体験の向上を最優先事項として掲げており、こうしたユーザーのためにならないブラックハットSEOを排除するために、アルゴリズムのアップデートを何度も重ねてきました。

現在では、これらの過度なブラックハットSEOはスパム行為として厳しく認識されており、検索結果の上位に表示されることはほとんどありません。ウェブマスターツール(現在のGoogle Search Console)を通じた手動ペナルティの通知も行われるようになり、SEO業者はより慎重なアプローチを取ることを余儀なくされました。

ホワイトハットSEO:ユーザーファーストの原則に基づく正しいアプローチ

現在のSEOの主流は、Googleのガイドラインに厳密に沿い、検索ユーザーに対して真に役立つ情報を提供することを目的とする「ホワイトハットSEO」です。これは、ユーザーが検索を通じて最適な情報にたどり着けるよう支援するという、Googleの根本的な目標と完全に合致するアプローチです。

ホワイトハットSEOの具体的な取り組みは多岐にわたりますが、代表的なものとしては以下の点が挙げられます。

サイトのメタ情報の最適化

ウェブページのタイトルタグ(<title>)やメタディスクリプション(<meta name="description" ...>)を適切に設定することで、検索エンジンにコンテンツの内容を正確に伝え、ユーザーが検索結果から内容を把握しやすくします。これは、GoogleのSEOスターターガイドでも推奨されている基本的ながら重要な施策です。

ユーザーの検索意図(インテント)に沿ったコンテンツ発信

ユーザーがどのような情報を求めて検索しているのか(例:情報収集、購買検討、場所の特定など)を深く理解し、そのニーズに応える質の高いコンテンツを作成することが極めて重要です。例えば、「ベストアンサー型」の記事は、ユーザーの疑問を包括的に解決することを目指します。Googleは、検索クエリの背後にあるユーザーの意図を理解する能力を飛躍的に向上させており、E-E-A-T(体験、専門性、権威性、信頼性)の概念にも見られるように、質の高いコンテンツを高く評価する傾向にあります。

参考:有用で信頼性の高い、ユーザー第一のコンテンツの作成

Googleが掲げる「検索体験の満足度向上」というユーザーファーストの方針は、今日のSEO施策における最も重要な指針です。いかにこの点を押さえ、ユーザーにとってより良い検索体験を提供できるかどうかが、今後のSEO施策における成否を分ける重要なポイントとなります。

SEO業者はもはや、アルゴリズムの抜け道を探す役割から、ユーザーのニーズを満たし、質の高いコンテンツを提供することでウェブサイトの価値を高めるコンサルタントへとその役割を変化させています。

Googleのアルゴリズムは常に進化し、ユーザーの利便性を追求する方向に進んでいるため、SEOもまた、その変化に適応し、本質的な価値提供に焦点を当てる必要不可欠な取り組みと言えるでしょう。

seojapan

レバレンスエンジニアリング入門:検索の未来

4ヶ月 2 週間 ago

この記事は、2025年 5月 8日に ipullrank で公開された Francine Monahan氏の「An Introduction to Relevance Engineering: The Future of Search」を翻訳したものです。

検索の次なるステージでは、「どんな種類の検索結果にも自然に表示される、関連性の高いコンテンツ」を“設計(エンジニアリング)”することが求められます。

企業は、生成AIをはじめ、TikTok、Amazon、さらにはアプリストアまで、あらゆるチャネルでの“見つけられやすさ=可視性”を確保しなければなりません。

それぞれのチャネルには固有の特徴がありますが、すべてに共通するのが「関連性(Relevance)」です。

レバレンスエンジニアリング(検索エンジンやAIにおける可視性を“エンジニアリング=設計課題”として扱う手法)は、現代の検索とAIシステムでの可視性を「最適化」という枠組みではなく、エンジニアリングの問題として扱います。
「最適化」ではなく「エンジニアリング」という考え方が適しているのは、何かを調整するよりも、何かを構築しなければならないことが多いからです。それがソフトウェア、コンテンツ、またはインターネット全体での関係であっても、すべてエンジニアリングの一形態として捉えるべきなのです。

AI OverviewsからYouTubeのアルゴリズムまで、ほぼすべてのオーガニック検索システムは、視聴時間、滞在時間、離脱率などの行動シグナルに依然として大きく依存しています。しかし、検索結果として表示されるものは変化しています。検索エンジンは今やクエリ(検索語句)をセマンティック(意味的)に展開し、トピッククラスターを活用しています。それでもSEO業界は、時代遅れのフレームワークに戦略を無理やり当てはめ続けています。

ほぼすべての検索が今や生成AIを使用しているため、このエンジニアリングプロセスはどこでも機能します。
例えば、YouTubeに関しては、動画内の画像や動画で話されている内容の最適化は、依然としてユーザーインタラクション(視聴時間、離脱率など)に大きく依存しています。これはオーガニック検索の仕組みでもありますが、標準的なSEO作業だけでは十分ではありません。
従来型のSEOは、もはや実際には機能しない、また検索エンジンが現在使用していないフレームワークに、すべてを当てはめ、押し込もうとし続けています。

これまでの自然検索では、ページ上の特定のキーワードを探してSERP(検索結果ページ)でのランクを決定するため、一部の無関係なコンテンツが高いエンゲージメントを獲得し、良いパフォーマンスを示すことがあります。一方AIは関連性のあるソースから特定の文章やフレーズを探します。そして、それらを見つけるためにサイトの深くまで入り込みます。実際、Google AI Overviewsの引用の82%は深いページから来ています。

これは何を意味するのでしょうか?私たちはもはや単にコンテンツを最適化するだけではいけません。エンジニアリングする必要があるのです。

レバレンスエンジニアリングとは何か?

レバレンスエンジニアリングとは、あらゆる検索環境での“可視性”を高めるための、技術と理論の融合です。

情報検索(Information Retrieval:大量の情報の中から関連するものを探す技術)、ユーザー体験(UX)、人工知能(AI)、コンテンツ戦略、デジタルPR(広報活動)の交差点にあるこの考え方は、検索のあらゆる局面において役立ちます。

言い換えれば、これは会社のブランドを構築し、顧客や見込み客のために役立つコンテンツを作成し、わかりやすく、アクセスしやすく、検索者がリピートしたくなるようなサイトを設計するという、長年にわたるSEO担当者のすべての努力の集大成なのです。

これまで私たちが「良きWebサイト」を作るためにやってきた事の延長線上に、レバレンスエンジニアリングはあります。

生成AIを活用した検索(AI Overviews、Perplexity、Geminiなど)の登場により、検索は今や「クリック不要の回答セットをその場で提供する」形に進化しています(これを“強化版スニペット”と呼ぶ人もいます)。

これはSEOの日常的な仕事と生活にどのような影響を与えるのでしょうか?典型的な過去のSEO思考を変える必要があります。ページタイトルやH1タグでキーワードを使用し、常により多くのリンクを構築するといった要素は、生成AI環境では重要ではありません。あなたが実際に行っていることが針を動かすかどうかを検証するために、より技術的な理解が必要です。

レバレンスエンジニアリングは、関連性を定量的で測定可能なものに変えます。
SEOはしばしば曖昧な情報や、Google検索の仕組みについて研究している誰かの意見を参考に実施されますが、レバレンスエンジニアリングは、検索へのより科学的なアプローチ方法です。
しかし、レバレンス(関連性)は主観的ではないため、私たちのツールにはレバレンススコア(関連性を測る指標)が必要です。

会話型検索(Conversational Search)は主に関連性を重視し、数学的にスコア付けできます。

従来の検索と同様に、検索クエリと関連する文章のつながり(文書)を「多次元ベクトル空間(Multidimensional Vector Space)※」にプロット(配置)し、文書ベクトルがクエリベクトルに近いほど、関連性が高くなります。

HubSpotが2005年に「インバウンドマーケティング」という言葉を作ったとき、彼らは孤立して機能すると考えられることが多いチャネル(ブログ、SNS,メールなど)を常に連携させるべきであると提唱しました。

同じように、私たちも「レバレンスエンジニアリング(関連性設計)」という新しい枠組みを提示し、それに取り組む人々は、複数の専門分野にまたがってスキルを高めていくことが求められています。

これまでのSEOの専門家たちは、ベストプラクティスには詳しく、検索エンジンの「熟練ユーザー」ではありました。しかし、現在の「SEO」という言葉は非常にあいまいで、Googleが新しく発表した技術や概念は、すべて自動的に「SEOの仕事」に分類されてしまう傾向があります。

そのため、「レバレンスエンジニアリング」は、従来のSEOを超えて、情報検索・UX・AI・コンテンツ戦略・デジタルPRなど複数の領域を横断した新しいフレームワークとして位置づけられるのです。

また、レバレンスエンジニアリングは、コンテンツをマーケティング戦術ではなく科学的システムの一部として扱い、品質をその中核的方法論に組み込みます。
SEO業界で多くの人が「コンテンツ戦略」と呼ぶものは、実際には理論上だけで組み立てられ、実務には落とし込まれない複雑な計画にとどまることがしばしば見受けられます。

これに対して、レバレンスエンジニアリングは、すべての作業が明確な目的のもとに機能するようなワークフローを取り入れています。そして、これまで行き当たりばったりで進められてきたプロセスに、工学的な規律と科学的な厳密さをもたらすのです。

具体的には:

  • 情報は、ユーザーにとって直感的に理解できるような構造で整理されます
  • コンテンツに関する意思決定は、測定可能な目標に基づいて行われます
  • 成果は、個人的な印象ではなく、体系的に分析されます
  • 成功パターンは再現可能であり、拡張することができます

EEAT時代のレバレンスエンジニアリング

レバレンスエンジニアリングは、コンテンツの可視性を高めるための、構造的かつAIを活用した新たなアプローチです。前述のとおり、この手法は【ユーザーエクスペリエンス】、【人工知能(AI)】、【コンテンツ戦略】、【デジタルPR】、【SEO】、そして場合によっては【オーディエンス調査】といった複数の分野を統合し、ユーザーの期待と検索エンジンの評価基準の両方に沿ったコンテンツを設計していきます。

なお、オーディエンス調査がすべての最適化に必須というわけではありませんが、多くのSEO実務者が軽視しがちな非常に重要な要素です。なぜなら、ユーザーの意図を正確に理解することが、真の意味での「レバレンス(関連性)」を実現する上で不可欠だからです。

Googleが重視しているEEAT(Experience, Expertise, Authoritativeness, Trustworthiness:経験・専門性・権威性・信頼性)の観点からも、レバレンスエンジニアリングの手法は、単なるキーワードマッチングを超えた次元へと進化しています。Googleは、ベクトル埋め込み(vector embeddings)と呼ばれる技術を用いて、著者・ウェブサイト・エンティティ(≒明確に識別可能な情報の単位)などのレベルで評価指標を測定し、各ページがユーザーの期待にどの程度応えているかを数値的に判断しています。

たとえば、スニーカーに特化したサイトが、突然バナナに関するコンテンツを掲載し始めた場合、サイトのテーマに一貫性がなくなり、それは「フォーカスの薄さ」として認識され、検索エンジンから「無関係な情報源」とみなされるおそれがあります。同様に、戦略の裏付けもないままAI生成コンテンツに過度に依存すると、Googleのアルゴリズムからネガティブな評価を受ける可能性があります。

ここで誤解してはならないのは、EEATが単に「著者の経歴」を評価する仕組みではないということです。実際、Googleはウェブ上に存在する著者の情報をモデル化し、各著者に対してベクトル(数値的表現)を作成。それを使って、他の著者と相対的に比較しようとしています。

さらに、Googleはウェブサイト単位でもベクトルを生成します。これは、サイト内の各ページをベクトル化し、それらを平均してサイト全体のベクトルを導き出すという方法です。著者に対しても同じ処理が行われ、彼らが書いた全コンテンツを収集し、そのアウトプット全体をベクトル平均で表現するのです。

もちろん、著者紹介ページそのものが無価値というわけではありません。特定の人物として他の執筆者と差別化を図るうえでは、有効に働きます。しかし、本質的な価値は「特定のトピックについて十分な量のコンテンツを書いているかどうか」にあります。たとえば100本の記事のうち60本がSEOについて書かれていれば、数学的に見てその著者は「SEOの専門家」と分類されるわけです。

EEATという言葉は非常に抽象的であり、Googleが実際に行っていることの全体像を表している一方で、SEO業界ではこの概念の理解が単純化されすぎており、かえって誤解の温床になっています。もともとSEOは、技術的な仕組みを理解するウェブマスターや開発者たちの領域でしたが、最近ではテクニカルSEOやリンクビルディング、コンテンツSEOといった細分化された専門分野が生まれた結果、検索エンジンの仕組みを包括的に理解していない人が増えています。こうした分断は、レバレンスエンジニアリングの領域では起こりません。

レバレンスエンジニアリングでは、AIによる分析を活用し、コンテンツ戦略を実行する前の段階で、その施策が成功するかどうかを予測します。これは、Googleが内部で関連性を評価するために使用している可能性のあるロジックに似ており、公開されているツールを通じて実用的にも活用可能です。

たとえば、ターゲットトピックとのコサイン類似度(cosine similarity)※が低いコンテンツを公開したり、トピック的に整合性のないサイトからの被リンクを追求したりするようなことは、もはや行わないでしょう。このようなデータ主導型のアプローチは、これまでのSEOが依存してきた“推測”や“経験則”を最小限にとどめ、マーケターがより精密に、そして確実に成果を得られるよう最適化を進めていくための道を開きます。

Google検索は悪化しているのか?

ドイツの研究者たちが、1年にわたるGoogle検索の縦断的調査を行った結果、アフィリエイトマーケティングを主目的としたSEOコンテンツが検索体験を悪化させているという実態が明らかになりました。

この種のコンテンツは、ユーザーの役に立つかどうかよりも、お金を稼げるかどうか(マネタイズ)を優先して作られているのが特徴です。研究によれば、現在の検索結果の多くは、ユーザーにとって本当に有益かどうかよりも、検索順位を上げることだけを目的に作られた商業的に最適化されたコンテンツに占められているとのことです。
Googleとしては、高品質で関連性のあるコンテンツと、単にトラフィックを集めるだけのページを見分ける必要があります。

Googleは「人間のために作られたAI生成コンテンツなら問題ない」と公言していますが、実際には“良いAIコンテンツ”と“悪いAIコンテンツ”を大量に区別することが非常に難しいという課題があります。従来型のランキングシグナル(被リンクなど)も依然として使われていますが、「ユーザーが検索体験を成功と感じたかどうか」などの行動指標が、品質を評価するうえでますます重要になってきています。

とはいえ、GoogleがAI生成コンテンツを検出する試みは、まだまだ信頼性に欠けています。たとえばOpenAIは、かつて提供していたAIテキスト検出ツールをわずか25%の精度しかなかったために撤廃しました。他の類似ツールも、本物の文章をAIと誤判定したり、AI文書を見逃したりするといった誤検出が頻発しています。

この不確かさのせいで、実際には学生のレポートがAI検出ツールにかけられて「AIが書いたもの」と誤って判断されてしまう事例も起きています。AIによるコンテンツ生成の検出は今も大きな課題であり、モデルが進化するスピードに対して、検出手法はすぐに陳腐化してしまいます。

こうした問題に対応するには、GoogleはAI検出のみに頼るのではなく、もっと多層的で頑健な評価手法に進化させていく必要があります。検索品質を維持するには、低品質なコンテンツを正しくフィルターし、ユーザーのニーズに合ったコンテンツを正確に見極めることが求められています。

その一環としてGoogleは、検索品質評価ガイドラインを更新し、スパムの定義を拡大しました。これにより、いわゆる「低品質コンテンツ」や、誤解を招いたり誇張された主張を含むページに対しても、価値の低いコンテンツとして対応できるようになりました。

構造化データの重要性

検索エンジンがAIや機械学習への依存を強める中で、構造化データの役割はこれまで以上に重要になっています。構造化データは、検索エンジンが情報を理解・分類・関連付けしやすくするための仕組みであり、コンテンツをユーザーにとってよりアクセスしやすく、関連性のあるものにする手助けをします。

データを機械が読み取れる形式で整理することで、企業は検索結果や音声検索、さらにはAIによって強化されたあらゆる体験において、自社の可視性を高めることができます。

最近の技術進展により、構造化データはAIと並行して進化していることが明らかになってきました。特に、ナレッジグラフ(Knowledge Graph:KG)※と大規模言語モデル(Large Language Models:LLM)を統合する以下の3つの新しいモデルの登場が注目されています。

この多層構造のシステムでは、LLMとナレッジグラフが動的に連携しながら、それぞれの強みを活かして知識の検索精度や推論力を高めていきます。

このように、構造化データを活用することは、検索可視性の向上だけでなく、AI主導の検索環境におけるコンテンツの将来性を保証することにもつながります。Googleの検索アルゴリズムが今後さらにLLMを取り入れていく中で、構造化データはコンテンツを正確に解釈し、文脈的に適切に処理するための鍵となるでしょう。

構造化データの活用により、企業は従来の検索における可視性向上だけでなく、AIを活用した新しい検索環境においても競争力のあるコンテンツを提供し続けることが可能になります。Googleの検索アルゴリズムが今後ますますLLMとの統合を進めていく中で、構造化データは、コンテンツを正しく解釈し、文脈的に関連性があることを保証する上で、さらに重要な役割を果たすようになるでしょう。

関連性を設計するという考え方

自社ブランドのコンテンツをより目立たせ、AIと対立するのではなく協調して機能させるためには、他にもさまざまな工夫があります。

Googleは約10年前、ハミングバード(Hummingbird)アップデートによって検索エンジンの仕組みを「語彙的検索(lexical search)」から「意味的検索(semantic search)」へと転換しました。しかし、それ以降の多くのSEOソフトウェアはこの変化に追いついていません。

語彙的検索とは、単語の出現や分布をカウントするモデルです。一方で意味的検索は、言葉の「意味」を捉えることを重視しています。この意味的検索の基盤となったのが、Word2Vec(単語の意味をベクトルで表現する手法)です。

語彙的検索対セマンティック検索

フラグル(Fraggles)の重要性

AI Overviews(GoogleなどのAIが生成する検索結果の要約)に表示されるための鍵となるのが、フラグル(fraggles)と呼ばれる要素です。フラグルとは、AI Overviewsを構成する断片的な文章のことを指します。

たとえば、検索結果(SERP)内のAI Overviewsには、Webサイトから切り出されたフレーズ(フラグル)が使われています。

あなたのWebサイト上のコンテンツが、特定の質問に対するシンプルで分かりやすいフレーズとして整理されている場合、それがAI Overviewsに採用される可能性が高まります。

コンテンツの関連性を高めるためのセマンティック提案

AI検索において表示される可能性を高めるために、以下のようにコンテンツを構造化することが効果的です。

コンテンツを意味単位で明確に構造化する

内容を明確に定義されたトピックごとに、簡潔な段落やセクションに分けましょう。長すぎる段落は複数のアイデアを混在させ、ベクトル化された意味が曖昧になります。通常、50〜150語程度の短い段落が、意味的に明確なアイデアを捉えやすくなります。また、見出しや小見出しを使ってセクションを区切ることも重要です。

意味的3要素「主語-述語-目的語」の明確な文構造を使用する

埋め込みモデル(embedding model)は、コンテンツ内に明示された関係性をもとに意味を捉えるため、こうした文構造は検索精度や関連性の向上に効果的です。

豊富な文脈キーワードやエンティティを組み込む

関連するキーワードや同義語、実在のエンティティ(固有名詞・概念など)を積極的に明示しましょう。これにより、検索でのヒット率や引用される可能性が高まります。

独自で高度に特化した、または限定的なインサイトを提供する

オリジナルのデータや独自視点の情報は、あなたのページが信頼性の高い情報源として引用される可能性を高めます。

曖昧な表現を避ける

はっきりとしたシンプルな文章は、ノイズを減らし、検索精度の向上に繋がります。

SEOの未来はレバレンスエンジニアリングへ

検索技術が進化する中で、レバレンスエンジニアリングは、コンテンツがユーザーの意図と検索エンジンの評価基準の両方に合致することを保証するために不可欠なアプローチとなっています。

EEATの重視、AIによるコンテンツ生成、構造化データの普及といった潮流は、推測に頼るSEOから、科学的かつデータに基づいたSEOへと移行する必要性を示しています。

一方で、検索品質の低下に対する懸念も残っています。たとえば、SEO主導のアフィリエイトコンテンツの増加や、AIによる「ハルシネーション情報」、そしてAI生成コンテンツの検出の難しさといった問題です。

Googleは、こうした課題に対応するために、従来のランキングシグナルに加え、ユーザーのエンゲージメント(検索体験が成功したかどうか)や構造化された知識に基づいて、より高度な評価指標を導入しつつあります。

SEOJapan編集部より:Webサイトをより良いものにするために、目指すべきゴールや本質はこれまでと変わっていません。その過程として意識すべきものが「レバレンスエンジニアリング」として、言語化されたと捉えられます。また、再現性の高いフレームワークが出来上がるということは、この先にコモディティ化が待っているということでもあります。
AI時代において、我々SEO担当者は新しいフレームワークに適応し、実践する能力が求められます。

seojapan

【2025年版】SEOとは? 企業が実施するSEOの目的・内容とメリット・デメリット

4ヶ月 2 週間 ago

SEOとは、検索エンジンで上位に表示されるようWebサイトを最適化する取り組みです。近年はAI Overviews(旧SGE)などの生成AIによる検索結果表示が進化し、従来の順位よりも「AIに引用されやすい情報設計」が重要になっています。キーワードだけでなく「意味」や「構造」、そして「信頼性」がSEO成功のカギです。

Googleの生成AI 機能『AI Overviews』がデフォルト表示になり、従来の“順位”だけでなく『AI 回答に引用されるか』もSEO成果を左右します。

参考:AI Mode時代のSEOと必要な施策・戦術は何なのか?

SEOとは

SEOは「検索エンジン最適化」Search Engine Optimizationの略称です。
検索エンジンのしくみ、検索エンジンの動作を決定するコンピュータプログラムのアルゴリズムを理解し、ランキングの向上、検索エンジンの認知度の向上、自然検索の流入拡大の為に必要な技術的手法であり、マーケティングプロセスです。

「SEO対策」とは、一般的に検索エンジンへの最適化によりサイトを検索結果で上位表示させるための、様々な施策のことを指しています。

SEOの目的は、順位向上と検索結果上での見つけやすさ向上による事業への貢献

SEOを行うモチベーションは、多くの場合、サイトにユーザーを集客し商品購入などのアクションを行ってもらうことです。

なぜなら、サイトを作成しSEOが成功した場合、ある程度放置をしてもユーザーのサイト訪問が期待でき、継続的な収益が見込めるからです。 SEOを成功させてサイトの価値を高めることは、貴社ビジネスの成長に大きく貢献するでしょう。

サイトの価値の高め方 サイトの価値を高めるためには、2つの考え方があります。

検索順位を高めることで検索エンジンからアクセス数を増やす

検索結果の表示は「広告枠」と「自然検索(オーガニック検索)枠」に分かれており、SEOは「自然検索枠」における露出を高める、つまりは上位表示させるために行う施策です。

自然検索での順位が高ければ高いほど検索ユーザーのクリック率が高まるため、Googleなどの検索エンジンの検索結果でより上位に表示させることにより、自社サイトへとアクセスするユーザーを増やすことができます。

参考:SEMとは?SEO・リスティング広告との違いや使い分けて成果を出すコツ

見つけてもらう「ファインダビリティ」の向上

SEOでは、指標として利用しやすいということもあり、特定のターゲットキーワードの順位が気になるものです。 ここで、SEOの本来の目的は何か?ということを考えてみましょう。

あなたはなぜサイトを運営し、SEOによって集客したいと考えているのでしょうか?

それは、ユーザーにウェブサイトを見つけてもらい、ウェブサイトに来てもらうことです。この見つけてもらいやすさのことを「ファインダビリティ」といいます。

単なる順位上昇と何が違うの?と思うかもしれません。

SEO Japanの例

当SEOJapanを例にしてみます。当サイトではSEO関連、コンバージョン改善を中心としたコンテンツを発信しています。ターゲットとしているビッグキーワードは「SEO」や「SEO対策」です。

「SEO」や「SEO対策」といったキーワードを狙うだけなら、それらの順位上昇に寄与するキーワードのみでコンテンツを発信すればいいのですが、当サイトとしては、他にもユーザーが知りたいと考えているであろう有益な情報を発信したいと考えています。

そのため、単に自社のことだけを考えたSEO用のコンテンツだけではなく、SEO会社として発信すべき情報が何かを厳選し、ユーザーが検索するであろうキーワードを用いてコンテンツを作成しています。結果として、「SEO」や「SEO対策」以外のキーワードでも流入を獲得できており、ファインダビリティの向上につながっています。

この施策のメリットは、ビッグキーワードを狙うわけではないため、順位上昇が比較的容易なことです。また、まだ世の中にないキーワードを作成して社会に認知させていきたいという場合も、このファインダビリティの考え方は有効です。

デメリットは、ビッグキーワードの順位上昇に貢献しにくいことと、流入数の上昇が緩やかであることです。 ファインダビリティを成果指標とする場合は、最適な指標はサイトごとに異なるものの、流入キーワードの数や流入数を指標にするとよいでしょう。

SEOを行う場合、ターゲットキーワードはビッグキーワードであることが多いため、上位表示したときのインパクトや達成感はひとしおです。しかし、サイトのあり方を今一度考え、発信すべき情報や貴社の事業的に獲得すべきキーワードを見つめ直してもよいかもしれません。

少し遠回りに思えるかもしれませんが、その施策がサイトの価値を高め、ビッグキーワードを狙うための下地作りにもなります。

SEOのメリットとデメリット

SEOのメリット

SEOの主なメリットとしてあげられるのが、

  • 顧客の潜在層に幅広く露出できる
  • ストック資産化による費用対効果の高さ

の2点です。

ユーザーは購買行動の過程において、購入・申し込みを行う前に認知、検討、調査といった段階を踏みます。この潜在層のユーザーが検索エンジンを利用して調べるため、SEOによって顧客の潜在層へと幅広くアプローチできるようになるのです。

また、リスティング広告や一般的な広告は都度費用が発生し、効果を上げるためにはコストを払い続ける必要があります。 特に、リスティング広告の場合、アクセスごとに費用が発生するために費用がかさみやすい、コストコントロールの難易度が高いといった課題もあります。

これに対して、SEOにより検索上位に表示されるようになったサイトは、アクセス獲得のための直接的な費用が発生しません。

サイトおよび施したSEOはストック資産となり、高い費用対効果が期待できます(ただし、定期的にメンテナンスをしなければ、順位が下がっていくリスクがあります)。

SEOのデメリット

一方で、SEOにはデメリットあるいは苦手な分野も存在しています。

例えば、SEOはどうしても中長期的な取り組みが必要となるため、広告のように短期で成果を出すことにはあまり向いていません。

短期的に成果を上げたい場合や、トレンド性の高いキーワードに対して能動的にアプローチすることは、検索エンジンの特性上難しいといえます。

ただし、上記はどちらかといえば、メリット・デメリットというよりも性質の違いと捉えるべきであり、広告枠を購入するリスティング広告と自然検索結果からの流入は、それぞれ異なる目的を持って施策するのがよいでしょう。

成果を出すための具体的なSEO施策の種類や方法

SEO施策は闇雲に行っても効果がありません。成果を出すためには、いくつかの具体的な定石に従って施策を行う必要があります。

特にAIOでは『表形式・箇条書き・引用元リンク』が抽出対象になりやすく、コンテンツ設計段階で“要約されても誤解されない構造”を意識する必要があります。

ここでは、基本となる「内部対策」と「外部対策」について説明します。

内部対策|コンテンツSEOとテクニカルSEO

内部対策には、大きく分けてコンテンツSEOとテクニカルSEOの2つがあります。

コンテンツSEOは「検索ユーザーのニーズに対応するコンテンツを導入することでサイト価値の向上を行う」というコンテンツ面からのアプローチであり、いかにユーザーの検索意図(インテント)に沿い、わかりやすくかつ信頼性が高い情報を適切に届けられるかという施策です。

ユーザーにとっては、検索という行動自体は目的ではなく、あくまでも「何らかの課題を解決したい」「何らかの要望を満たしたい」といった目的のために検索を行っています。

コンテンツを制作する際は、検索ユーザーの目的や意図を深掘りした上で、ユーザーの検索リテラシー(以下、リテラシー:検索によって情報を収集する能力)に見合った伝え方を設計する必要があります。

一方のテクニカルSEOは、「HTML要素やサイトの内部構造を最適化することで、検索エンジンに正しく評価される状態を整える」という技術的なアプローチです。

ただし、HTML要素やサイトの内部構造の最適化には、ある程度定石化されたルールがあるものの、決まった正解というものはありません。ターゲットユーザーの属性やサイトの立ち位置などにより、柔軟に施策内容を変えることが求められます。

重複コンテンツがあったとしても、ECサイトならページを残しておきたい場合もあるため(その状況が発生することは検索エンジンも理解しているので)、canonicalを使用することになります。

その状況において、どのページにcanonicalを向けるかは状況やサイトによりますし、SEO担当者の考え方でも変わってきます。

様々なタグの役割と、ページごとの目的、サイトの状況を鑑みて、適切な施策を行うことが重要です。

参考:SEOにおいて内部対策と外部対策はどちらが重要?優先順位やメリットについて解説

外部対策|外部リンクとメンション

外部対策とはその名の通り、対象となるサイト内そのものではなく、外部との関係において評価を高める施策です。 サイト内のコンテンツがユーザーにとって有益な場合、それを見たユーザーが自分のブログやサイト内で紹介し、リンクを貼ってくれるケースがあります。

この外部サイトからのリンクは、実際に読んだ人が良いサイトだと思ったからリンクされるので、検索エンジンはこの指標を高く評価しています。

かつては、自分で複数のサイトを作成し、上位表示を実現したいサイトへリンクすることで、上位表示できた時期もありました。

しかし、現在、その手法はほとんど通じません。

現在のSEO施策の本質は、ユーザーにとって良いサイトを育てていくことです。外部評価はその過程で、結果的に増えていくものです。ユーザーにとって良いサイトを育てていった結果、サイト内部も外部も強力なサイトになり、様々なキーワードで上位表示されるようになります。

また、単にリンクを集めているだけでなく、どのような評判を獲得しているかというメンション(Mention:言及)も重要です。

サイトやブログ、SNSなどでどれだけポジティブなメンションを集めているかによっても、サイトの評価が高まります。

Google(検索エンジン)の仕組みとSEOにおける基本の考え方

日本におけるSEOは、実質的にはGoogleを意識した施策とほぼ同義になっています。

というのも、日本における検索エンジンのシェアはGoogleが約65%を、Yahoo!が約30%を占めており、さらにYahoo!の検索エンジンはGoogleのアルゴリズムを採用しているからです。

Yahoo!は独自のアレンジを若干加えてはいるものの、検索順位はGoogleのものとほぼ一致します。

そのため、SEOを適切に実施するためにも、Googleの基本的な仕組みや考え方について理解しておきましょう。

Googleの目的とビジネスモデル

いまや誰にとっても当たり前の存在となりつつあるGoogleは、1998年9月4日に当時スタンフォード大学に在籍していたラリー・ペイジとセルゲイ・ブリンによって創業されました。

そのGoogleが掲げる最大の目的は「世界中の情報を整理し、世界中の人々がアクセスできて使えるようにすること」であり、創業以来これをミッション・ステートメントとして検索エンジンをはじめとしたインターネット関連のサービスや製品を提供しています。

Googleでの検索自体は無料で利用できるようになっており、代わりにGoogleでは、サイト運営者向けの広告配信サービスであるGoogle広告(旧Google Adwords)を提供しています。

これは、冒頭で述べたGoogleの広告枠に費用を対価として自社サイトを掲載する仕組みです。

Google広告で自社サイトの広告を出稿すると、特定のキーワードで検索したときに広告枠に自社サイトへのリンクが表示されます。そのリンクが検索結果画面上でクリックされるとGoogleに所定の金額を支払うことになります。

ここからの広告収入が全体の60%以上を占めています。

つまり、Googleを通じて検索を行うユーザーが増えれば増えるほど、Googleのビジネス自体が拡大する仕組みとなっています。

念のために付け加えておきますが、自然検索枠においては、自社サイトへのリンクがクリックされても費用が発生することはありません。

Googleが評価するサイトは「ユーザーに必要とされるサイト」

Googleは、検索キーワードを「質問」、検索ボックスを「質問箱」、サイトを「答え」と位置付けており、ユーザーに的確な答えやユーザーが探している情報を提示できるサイトをより高く評価します。

Googleにとっては、より多くのユーザーにGoogleでの検索を利用してもらう必要があり、そのためには「Googleの検索は便利、役に立つ、満足できる」とユーザーに感じてもらうことが欠かせません。

こうした理由から、Googleは検索ユーザーが納得できる検索体験を提供することを目指して、現在も検索エンジンの改良を行っています。

そして、ユーザーの検索体験の満足度を重視するGoogleでは、「ユーザーに必要とされるサイト」を高く評価するためのアルゴリズムを追及しています。実際にそのような満足度の高いサイトの多くが上位表示されています。

ユーザーに必要とされるサイトには様々な要素があります。

例えば、「検索キーワードの関連情報が網羅されている」「正確で信頼性の高い情報が掲載されている」「サイト内で目的の情報に到達しやすい」「サイトが見やすく文章も読みやすい」など、ユーザーごとにいろいろなニーズがあるでしょう。

より多くの検索ユーザーに対して最適な検索結果(答え)を返すことに注力して、Googleはサイトの評価を行っているのです。

そして将来的には、「究極のパーソナルアシスタント」となることがGoogleの目指す姿であり、ユーザーが知りたいことを先回りして提案する執事のようなプロダクトを目指しているといわれています。

サイトが上位表示される仕組み

Googleの検索エンジンがサイトの評価を決めるためのプロセスは、

  1. クローリング(Crawling)
  2. インデキシング(Indexing)
  3. ランキング(Ranking)

の3つのステップから成り立っています。

まずは、クローラーがリンクやすでに把握しているサイトリストなどをたどってWebページを巡回(クローリング)します。

次に、クローリングで取得したデータをGoogleのインデックスサーバーに蓄積(インデキシング)します。この2つのプロセスを経てから、蓄積したデータを対象に独自のアルゴリズムにより順位付け(ランキング)を行います。

ユーザーはインターネット上のサイトを直接検索するわけではなく、Googleによって集められ、評価されたデータを対象に検索を行っているのです。

そして、上位表示に直接関わってくるランキングは、検索キーワードおよび検索ユーザーの知りたい情報に最も関連性の高いページを表示できるように、様々な要素を用いて行われています。

SEOにおいては、200を超えるランキング要素(Ranking Factors)をより多く満たすページほど、検索結果で上位表示されているといわれていますが、Googleはそのランキング要素の詳細を明らかにはしていません。

ただし、アルゴリズムのアップデートにおいて、その方針自体は明らかにされています。

【関連記事】

Search Engine Landによるランキングファクターの一覧表とその読み方

決定版!Googleアルゴリズムの変遷のすべて~前編~

AI Overviews(旧SGE)の登場とSERPの変化

AI OverviewsはGeminiモデルが複数サイトを統合して要約を生成する検索機能です。2024年5月から米国でデフォルト提供が始まり2025年までに世界10億ユーザーへ拡大予定となっています。
米Ahrefs調査では、AIO表示クエリが半年で2倍に増え、クリック数は平均34%減少したとの報告もあり、また別の調査では生成枠内に引用されるページは概ね「上位12位以内」「構造化済み」「権威サイト」の傾向が強いとのレポートもあります。

SEOにおける3つの重要な要素:キーワード設定、ドメインの強さ、ユーザー体験

検索結果で上位表示されるために大切な要素として挙げられるのが次の3つです。

  1. キーワード設定
  2. ドメインの強さ
  3. ユーザー体験

どんなキーワードで上位表示したいかを決定し、どのようにサイトを育てていくかを考え(ドメインの増強)、サイト内でユーザーにストレスなく何らかの行動(購入や申し込み)を行ってもらうことが大事です。

それぞれどのようなものかを見ていきましょう。

①キーワード設定

ユーザーはキーワードを用いて検索を行うため、どのようなキーワード(検索クエリ)をどのように設定するかが重要になってきます。 キーワードをページタイトルに含めることはよくあるSEOの施策であり、タイトルにキーワードを入れるということは、検索結果上で検索したユーザーの目に留まるということにつながります。

これは検索エンジンへの最適化だけでなく、直接目にしたユーザーの印象も踏まえて設定する必要があります。

キーワードをしっかりとタイトルに含めてサイトの内容を想定しやすくする、記事内にもキーワードを入れた上でタイトルとの整合性を保つといった対策を行うようにしましょう。

②ドメインの強さ

ドメインの強さとは、その名の通りドメインすなわちサイトの持つ力を指しています。

サイト内外の評価、アクセス数、運営機関などの評価指標がありますが、これらが優れている場合、俗に「ドメインパワーが強い」と表現します。 例えば、Yahoo!のようなサイトはドメインの強さがものすごく高いわけです。

このドメインパワーが高ければ高いほど上位表示されやすい傾向があるため、競合サイトよりもドメインパワーが高い状態を目指すことがSEO施策の目標の1つとなります。

③ユーザー体験

最近になって注目が集まっているのが、ユーザー体験(UX)という指標です。 検索ユーザーの役に立つというGoogleの「ユーザーファースト」の考えに基づき、使いやすくユーザーの目的が達成しやすいサイト設計が重要です。 それは、例えば、下記のようなことが挙げられます。

  • 検索意図に沿ったコンテンツ内容になっているか?
  • 読みやすさやサイト内の使いやすさは十分か?
  • 表示速度は遅すぎないか?

ユーザー体験自体はランキングアルゴリズムに組み込まれていませんが、アルゴリズムの評価には使用されています。

また、AI Overviews時代は“クリックされずとも引用される体験”が新しいUX指標になります。段落単位で完結した解説、FAQ構造、一次データの明示、著者情報の構造化は必須と考えた方が良いでしょう。

【関連記事】

Googleゲイリー氏インタビュー

SEO + UX =成功 の法則

SEO業者の取り組みとその歴史

検索エンジンのアルゴリズムという難解かつ詳細が明らかにされないものに対しては、専門家となるSEO業者の力を借りることが重要な位置を占めてきました。同時に、SEO施策の歴史はSEO業者とGoogleとの攻防の歴史でもあります。

ここでは、両者の関係がどのように変わってきたのかを見てみましょう。

SEO業者の取り組みとGoogleの攻防

SEOには、検索エンジンのアルゴリズムの裏をついたスパム的な手法によって検索順位を上げようとする「ブラックハットSEO」と、Googleのガイドラインに沿って検索順位を上げようとする「ホワイトハットSEO」という大きく2つのアプローチ方法があります。

ブラックハットSEO

ブラックハットSEOは、検索エンジンのアルゴリズムが未成熟な時代に行われていました。

例としては、検索エンジンと検索ユーザーにそれぞれ異なる内容のWebページを閲覧させる「クローキング」や、検索エンジンに特化して関連するキーワードを詰め込んだ文章を自動生成させる「ワードサラダ」、SEOだけを目的にした被リンクを構築する「人為的なリンク構築」などが挙げられます。

しかし、これらの方法で検索順位が上がったとしても、低品質な内容であったり間違った内容だったりすれば、ユーザーは検索結果に満足せず、さらにはGoogleの検索そのものに対する期待値も下がってしまいます。

そこでGoogleは、これらの抜け道を小さくするようなアップデートを何度も重ねて、「検索ユーザーのためにならない」ブラックハットSEOを排除してきました。現在では、こうした過度なブラックハットSEOはスパム行為として、検索結果の上位には見られなくなりました。

ホワイトハットSEO

そして現在のSEOは、検索エンジンのガイドラインに沿い、検索ユーザーに対して役立つ情報を提供する「ホワイトハットSEO」が主流となっています。

例えば、サイトのメタ情報の最適化やユーザーの検索意図(インテント)に沿ったコンテンツ発信などもホワイトハットSEOに当たります。 検索体験の満足度向上という、ユーザーファーストを掲げたGoogleの方針。

いかにこの点を押さえ、ユーザーにとってより良い検索体験を提供できるかどうかが、今後のSEO施策における重要なポイントになっていくでしょう。

今までのSEOとこれからのSEO|AI時代を乗り切るためには?

AI Overviews常設化で“ゼロクリック検索”が一段と増加し、ブランド想起と上位の確保、そして引用フォーマット最適化が生死を分けます。

生成AIとLLMの急進が、検索体験そのものを“意味空間”へ引き上げています。米国で導入されている「AI Mode」ではクエリがベクトル化され、関連パッセージが再評価されて回答に合成される――もはや“ページ”単位でなく“意味”単位で競う時代です。では、これからのSEOは何を磨くべきでしょうか?

意味の設計を行う

まずは事業のターゲットと売る商材の強みなどの理解、言語化に勤め、「誰に何を伝えるか」の解像度を上げましょう。次にサイトの「意味設計」です。FAQ・要点見出し・短段落など、AIが切り出しやすい粒度でコンテンツを再構築し、Passage Re-ranking で選ばれやすい形に整えます。

ステップ やること ポイント
1. Who-What-How把握 ペルソナと検索モーメントを特定 営業現場の“生の悩み”を拾い、顧客像をブレさせない
2. 意図グルーピング 検索意図を1テーマ1グループで束ねる 同じ意図はまとめ、異なる意図はページ分け
3. 段落チューニング 一問一答・FAQ・短段落で完結 パッセージ re-ranking で抽出されやすい形=一問一答/FAQ/見出しで要点先出し
4. 構造ラベル付け H2-H3 と Schema.org で意味を宣言 “住宅ローンの組み方”なら <h2>住宅ローンの組み方</h2>FAQPage
5. トピッククラスタ化 関連記事を階層化し内部リンク サイト全体をその領域の“コーパス”にする
6. 一次情報&監修 データ・図表・専門家コメントを注入 E-E-A-Tを強化し、引用される確度を底上げ

検索意図を整理の上、トピッククラスターモデルでテーマを階層化し、内部リンクとスキーマで“このサイトはこの領域のコーパスだ”と示すことで、クローラビリティと網羅性を両立させます。

最後に「E-E-A-T の経験値」。独自データや実証実験、専門家の監修など一次情報を増やし、AIが引用したくなる確からしさを担保します。

計測指標の変更

成果計測も変わります。クリックされない“見えない貢献”を指名検索やCVRの微増、LLMへの引用調査など複数指標で捉え、施策と結び付けて説明する言語化能力が問われます。

つまり「ページを作る仕事」から「意味をデザインし、その価値を証明する仕事」への変化が訪れています。検索が“探す”行為から“答えを受け取る”体験へ転換する今こそ、SEOの本質「ユーザーの問いに誰より深く、速く、確かに応える設計力」が試されています。

自社SEO(インハウスSEO)に限界を感じたら?SEOコンサル会社の選び方

社内でSEO施策を行うインハウスSEOには、コストの節約や管理性の高さというメリットがあります。

その一方で、SEO施策は継続的に行う必要があるため、メンテナンスや管理にかかる労力が負担となります。 また、日々更新されていくアルゴリズムへの適切な最適化手法を学ぶためのハードルも高いといえるでしょう。

こうした理由でインハウスSEOに限界を感じた場合は、SEO会社への外注も検討してみることをおすすめします。

外注コストや業者選定の手間もありますが、信頼できるSEO会社をパートナーにできれば十分な効果も期待できます。

自身は本来のコア業務に集中しつつ、適切な知識やツール、リソースを備えたプロ集団であるSEO会社に協力してもらうことで、SEO施策に満足できる効果が得られるでしょう。

参考:SEOを外注する際のチェックリスト(資料ダウンロード)

SEO施策会社の選び方で最低限おさえておきたいポイント

これまでのSEO業者とGoogleとの攻防に見られるように、スパム的な手法で目先の結果だけを出そうとする業者も、残念ながらゼロではないからです。 そこで、選定にあたっては、以下のような業者は除外する必要があります。

  • 現在もなおブラックハットやスパム的な手法を用いている
  • 必要なサービスが欠けている
  • 予算をオーバーする料金を請求する

その上で、知り合いのSEOに取り組んだ方に紹介をもらったり、これまでの実績や評判などを調べたりして、信頼できるSEO業者を探していきましょう。

参考:アイオイクスのSEOコンサルティングサービス

seojapan

AI×SEO時代を生き抜くキャリア戦略セミナー開催レポート

4ヶ月 2 週間 ago

AI技術の急速な発展により、SEO業界は歴史的な転換点を迎えています。

  • 従来のやり方が通用しなくなる」
  • 「個人のスキルだけでは限界がある

そんな不安を抱えている方も多いのではないでしょうか。

当社アイオイクスでは、創業20年以上の実績と業界での信頼を基盤に、この変革期をチャンスと捉え、新しい働き方とキャリア戦略を模索しています。

今回のセミナーでは、そうした取り組みの一端をご紹介するとともに、AI時代に理想的なキャリアを築ける環境について、実際の事例を交えてお話しします。

開催概要
開催日時: 2025年6月23日 18:00-19:30
テーマ: AI×SEO時代のキャリア戦略
登壇者: 遠藤 幸三郎(アイオイクス Webコンサルティング事業部長)× 豊藏 翔太 氏(シンクムーブ代表・アイオイクス Webコンサルティング事業部フェロー)

本記事のまとめ

  • AI技術の台頭により、SEO業界が根本的な変革期を迎えている中で、SEO担当者が生き残り・成長するためのキャリア戦略とは?
  • 従来の「作る主体」から「意味を設計する仕事」への転換が重要であり、ブランドや事業の深い理解が求められる時代に
  • 独立か会社員かの二択ではなく、「自由と責任があるカルチャーでの会社員」という第三の選択肢にアイオイクスも候補に入れてほしい
  • AI時代にチームで働く意味としては、組織で学習加速することと実験機会の数が重要
  • 深い専門性(縦軸)とAIを活用した横断的スキル(横軸)を合わせたT型人材を目指すのが理想

遠藤氏パート:AI×SEO時代の新しいキャリア戦略

当社アイオイクスの遠藤氏は、SEO業界の変遷を3つの時代に分けて説明しました。

■SEO業界の歴史的変遷

  • 2002-2010年: リンク主体のSEO時代
  • 2010年代: コンテンツSEO時代(ペンギンアップデート以降)
  • 現在: AI×SEO時代への移行

「今回のAIの流れは、過去のリンクSEOからコンテンツSEOへの転換と似たゲームチェンジの要素があります。だからこそ、事業のあり方や組織としての価値の置き方、人事評価制度、働くメンバーの強みも見直して再編成する必要があると考えました」

アイオイクスは、2002年とSEO黎明期から業界の大きな変化を20年以上見続けてきました。だからこそ、私たちは変化を恐れるのではなく、チャンスとして捉える文化が築かれています。

「何かを制作する」時代から「意味を設計する仕事」への転換を感じている。

遠藤氏は、SEOは従来の「何かを制作する時代」から「意味を設計する仕事」への転換が重要であると強調されました。

AI時代に求められる新しいSEO担当者の視点

  • ブランドや事業の深い理解
  • 生成AIに選ばれるサイト・ブランドの設計
  • 多様化する検索行動への対応(動画、画像、音声など)
  • 複数プラットフォーム(検索エンジン、SNS、動画プラットフォーム)を意識したコンテンツ設計

「これからのSEOの業務は、「ライティングだけ」では難しく、企業のブランドの文脈に沿って、どういった意味を訴求をしていくか。そして、それをどういうユーザーに対して、どのような接点で届けるかを設計する仕事が重宝されるようになると考えています」

実験重視の組織設計にシフト

AI時代の不確実性に対応するため、アイオイクスでは実験的な取り組みを重視していることが説明されました。

  • 実験を行い、効果的な施策のみを展開
  • 各社の施策効果を指標化し、有効性を検証
  • 商材の形や提供価値を探求する継続的な改善

「AIにどういった形だったら好まれるか、それがどういうふうに取り上げられるのか、具体的に企業のビジネスでどんな数字に落ちるのかをファシリテートしていくことが求められています。SEOはかつてないくらい不透明な時代となりましたが、そんな中で新たなキャリアの選択肢として、SEO Japanを検討してもらえたら嬉しいです。」

豊藏氏パート:AI時代のキャリア戦略の実践例

豊藏氏は、AI時代のキャリア戦略について独自の視点を提示しました。

「AI時代のキャリア戦略を考える上で、独立するか会社員として働くか分かれると思います。個人的には、会社員として取り組むならアイオイクスのような自由と責任があるカルチャーで働くのも良い選択だと思います」

AI時代に会社員として働く場合の、自由と責任のバランス

豊藏氏自身の経験は、この「第三の選択肢」の実例となっています。

豊藏氏の過去の活動例

  • 本業での挑戦: 営業からコンサル、事業推進、商材開発まで幅広い経験
  • 副業での実験:アフィリエイト・転職サービス・レンタルスペース・広告運用など

「副業で得た経験、例えばInstagram広告を自身の副業で取り組んだ経験を、アイオイクスのセミナー集客に活用することもできました。逆に、アイオイクスで培った解像度の高いマーケティング視点を、自分のビジネスに応用することで成果を出せています」

AI時代に求められる「T型人材」はキャリアの選択肢が大きく広がる

豊藏氏は、AI時代における人材戦略について「T型人材」の重要性を強調しました。

「今はAIにより、自分の専門外の知識も取り込みやすくなった時代と考えています。だからこそ、自分の芯のある専門性と両立できると強い時代だと思ってます。縦の軸と横の軸両方を兼ね揃える事で、生成AIで5割、6割、7割ぐらいまで一定の品質が作れるようになりました。だからこそ、自分の専門分野を越境していくことでより広範なスキルが身に付きます。」

T型人材の構成要素

  • 縦軸(専門性): SEOやマーケティングなど、深い専門知識
  • 横軸(応用力): AIを活用して他領域の知識を効率的に習得

「マーケティングの根本は差別化の仕事です。だからこそ、生成AIで形にされたものから、81点、82点、83点と一点刻みで積み上げていくのが人間の役割と考えています。」

アイオイクスの仕事環境はAI時代に強みとなるか?

両登壇者のクロストークでは、AI時代におけるアイオイクスの強みについて詳しく言及されました。

  • 20年以上の実績と信頼
  • 創業: 2002年、SEO業界のパイオニア
  • SEO Japan: 業界標準の情報発信プラットフォーム運営
  • 大手企業実績: SMBC、パソナグループなど有名企業との取引
  • 業界認知: 「SEO業界の歴史と権威がある」

「こうしたブランド資産は、AI時代に急に生まれるものではありません。SEO Japanの得てきた歴史は、中長期的なブランド資産として大きな強みになると考えています。」

AI時代のSEOコンサルティングは求められることが増える。個人対応の限界と組織の価値

遠藤氏は、AI時代のSEO案件について以下のように分析しました。

  • (AI活用やAI対応の整理・検討など)やることが大幅に増加
  • 従来のコンテンツ制作・テクニカルSEOも重要
  • LLM最適化対応
  • AI活用による業務効率化
  • 多様化する検索プラットフォームへの対応
  • 組織内AI導入支援

「SEOに取り組むには個人で対応すると、イチロー以上の守備範囲を求められます。(笑)すべてをカバーするのは現実的ではありません。だからこそ、AIの力を借りながら強い組織を作っていきたいと考えています。」

学習スピードが加速し、視座が向上するチームを作りたい。

AI時代のチーム戦略の優位性

  • 学習スピードの加速: 優秀な人のAI活用方法を間近で学べる
  • 視座が向上する: より高い視点でのAI活用方法を習得
  • 実験機会がある: 組織リソースを活用した大規模な試行錯誤

「いきなりスーパーマンになるのは難しいですが、経験を吸収するには、チームの方が断然有利です。AIを使うことによって業務のスピードが速くなるからこそ、そのスピード感の中でチームに属して、スピード感の中でキャッチアップもよりスピードを持って進化できると考えます」

アイオイクスでの実践例
私たちのチームでは、ChatGPTなどのAIツールの利用を経費でサポートし、最新のAI活用ノウハウを全社で共有する文化があります。一人の発見が、チーム全体の成長につながる環境です。

アイオイクスのカルチャーと生成AIの考え方

アイオイクスのカルチャーには以下のような特徴があります。

  • 実験推奨: 「これよりいいじゃん、やろう」という前向きな姿勢
  • 失敗許容: 完璧性より実験精神を重視
  • AIツール活用: ChatGPT等の経費利用可能
  • 柔軟な意思決定: 現場の提案を積極的に採用

「セクショナリズムがある会社とは違って、『今はこの形で進めてるけど、こういう会社さんと連携したらもっといい価値を顧客に提供できるのでは?』といった試行錯誤ができる環境です」(豊藏氏)

また、遠藤氏はコンサルティングをする上で以下の観点を重視しているという話をしました。

  • 現場: 実店舗視察、顧客体験の直接確認
  • 現物: 実際のデータに基づく施策立案
  • 現実: 机上の空論ではない実践的アプローチ

「実店舗がある企業の支援では、単純にウェブサイトを見るだけじゃなくて、実店舗に行って、どこのどういうシーンで、何をどうしゃべってるかとか、実体験を目にして、それを施策にどう落とすかを考えます」(遠藤氏)

採用情報:あなたも一緒に挑戦しませんか?

遠藤氏は求める人材像とカルチャーを以下のように話します。

ビジネスバリュー(お客様への価値提供)

  • 正しいWeb集客を啓蒙する
  • 理想と本音を傾聴する
  • 事情をプロジェクトに落として伴走する

「知的好奇心、チーム思考、そして先々通じる汎用的なビジネススキルを重視しています。SEOをやるというよりかは、SEOをお客様のビジネスに活用するという視点が重要です。ビジネスバリューに共感いただけるパートナー(フリーランス、法人パートナー等)の方を募集しています。」(遠藤氏)

カルチャーバリュー(組織文化)

  • 介在価値にこだわる
  • 挑戦を続け成長する
  • 3現から思考する

加えて、社内のカルチャーから生まれるバリューは上記3つの通り。ビジネスバリューのみならず、カルチャーバリューにも共感いただける方は、ぜひ一緒に働きましょう。

採用プロセスはカジュアルな対話重視

「面接官と受ける側という関係ではなく、ざっくばらんに話しながら、気が合えば一緒に働きましょうという感じです」(遠藤氏)

採用プロセスの特徴

  • 複数回面談: 不安解消まで丁寧に対話
  • 柔軟な形式: オンライン・オフライン両方対応
  • インフォーマルな場: 食事会等での自然な対話
  • 段階的参画: 業務委託からのスタートも可能

アイオイクスへの2つの参画方法

  • 正社員採用: フルタイムでの本格参画
  • 業務委託: プロジェクトベースでの協業

「気軽に話していただければと思います。わりかし面接するのが好きなんで、いろんな人がいて、すごい面白いんですよ」(遠藤氏)

まとめ:AI時代のキャリアに、アイオイクスという選択

AI時代のSEOは、単なる技術的スキルから「意味を設計する仕事」へと根本的に進化しています。

この大きな変革期において、一人で立ち向かうには限界があります。かといって、従来の硬直した組織では新しい挑戦は望めません。

そこで私たちが提案するのが、 「第三の選択肢」 です。

アイオイクスが提供する3つの価値

成長を加速する最適な環境
20年の業界実績による深い専門知識と、AI時代の変化に柔軟に対応する組織力。そして何より、失敗を恐れずに実験に挑戦できる前向きな文化があります。一人では不可能な大規模な試行錯誤と、チーム全体でのAI活用ノウハウの蓄積により、個人のスキルアップが圧倒的に加速します。

あなたらしいキャリアを実現
画一的な働き方ではなく、個人のライフスタイルに応じた柔軟な勤務形態を選択できます。副業との両立も積極的に支援し、多様な経験を通じてT型人材として成長していけます。自分のペースで、でも確実にキャリアを発展させる機会がここにあります。

変化し続ける業界での競争優位
専門性を深めながらAIを活用した横断的スキルを身につけることで、持続的な価値創出が可能になります。個人の成長が組織の発展につながる好循環の中で、変化を恐れるのではなく、変化をチャンスに変える力を培うことができます

独立でもない、従来の会社員でもない。自分らしく、でも一人ではできない大きな挑戦ができる。それがアイオイクスという選択です。

一緒に未来を創りませんか?

この変革期を一緒に乗り越え、新しいSEOの可能性を追求する仲間を探しています。
こんな方をお待ちしています

  • AI時代の変化を恐れず、チャンスと捉えられる方
  • 個人のスキルアップと組織への貢献を両立したい方
  • 自由度の高い環境で、責任を持って仕事に取り組める方
  • 実験的な取り組みや新しい挑戦に前向きな方

まずはお気軽にお話ししませんか?

興味をお持ちの方は、まずはカジュアル面談からお気軽にご連絡ください。

seojapan

Answer engine optimization:最適化すべき6つのAIモデル

5ヶ月 ago
{ "@context": "https://schema.org", "@type": "FAQPage", "mainEntity": [ { "@type": "Question", "name": "Google AI Overviewや生成AIの回答は何のデータを基に抽出されていますか?", "acceptedAnswer": { "@type": "Answer", "text": "Google AI OverviewやChatGPT検索などの生成AIは、検索インデックスやWeb上の信頼できる情報を基に回答を生成します。特にGoogle AI Overviewは検索上位20位以内のページを中心に、Perplexityは独自クローラーで収集した信頼ソースを優先しているとされています。" } }, { "@type": "Question", "name": "AI検索に向け企業が取り組むべきことはなんですか?", "acceptedAnswer": { "@type": "Answer", "text": "まずはGoogleやBingでの上位表示を前提としたSEOを継続しつつ、構造化データやFAQ設置などAIに引用されやすいコンテンツ作成が重要です。Perplexityなど独自ロジックのAIもあるため、信頼性・明確性のある情報設計が求められます。" } } ] }

この記事は、2025年 3月 25日に Search Engine Land で公開された Bruce Clay氏の「Answer engine optimization: 6 AI models you should optimize for」翻訳したものです。

この記事で分かるAI検索6モデルの特徴・仕組み

AIモデル名 特徴 仕組み(見解)
Google AI Overview 検索上部にAI要約を表示し、検索体験を変革 Google検索上位10〜20位の情報をもとに、Geminiが回答を生成している可能性が高い
Google AI Mode 検索画面全体をAI応答中心に切り替える新機能 クエリ・ファンアウト技術で複数ソースを並列検索・統合し、詳細な応答を提示
Google Gemini Google検索やAI製品群の中核を担う大規模モデル Google検索結果やAP通信など外部ソース、ユーザー履歴をもとにパーソナライズされた回答を生成
Bing Copilot Bingに統合された対話型AI検索 GPT-4ベースのPrometheusモデル+リアルタイムのBing検索結果を統合して回答を生成
ChatGPT検索 ChatGPTにリアルタイム検索機能を組み込んだ新体験 Bing検索+提携コンテンツを活用し、GPT-4oで文脈を加味した応答を生成
Perplexity AI 出典を明記した簡潔な回答に特化したAI検索 独自クローラーでWeb全体を収集し、信頼ソースを優先して即時要約・回答を提示

Google AI OverviewやChatGPT検索など、注目すべき6つのAI検索について、それぞれがどのようにコンテンツを取得しているのか、そしてそれがSEOにどのような影響を及ぼすのかを探ります。

AIを活用した検索技術は、私たちの情報の探し方を根本から変えつつあります。長年にわたって、GoogleやMicrosoft Bingでの検索順位は、検索における可視性の基盤となってきました。

しかし、AIを活用した検索が普及していくなかで、順位の優先度は変化していくのでしょうか?

検索エンジンが関連性を重視、評価していたSEOの初期時代とは違い、私たちは今、AIとSEOが混在した不安定な時代にいると思います。

どのAI回答エンジンが勝者となるかは、今後の展開を見守るしかありません。SEOが依然として重要であることに変わりはありませんが、AIは確実に、その「ルール」を書き換えようとしています。

この記事では、以下の内容を詳しく解説します。

  • 注目すべき6つのAI検索プレイヤーと、それぞれのコンテンツ取得の方法
  • ユーザーの検索行動がどこへ向かっているかを示す市場シェアと利用傾向
  • AI回答エンジンが、いまだに従来の検索エンジンに依存している理由
  • 企業が今すぐ始めるべき、AI活用型検索に向けた最適化アクション

AIモデルとリアルタイム検索

本題に入る前に、AIプラットフォームがどのように動作しているかを簡単に見ておきましょう。AIモデルは、それぞれ特定の時点までに収集されたデータをもとに学習されています。

たとえば、GoogleのGemini 2.0 Proは、2024年8月までの知識で学習されており、一方、OpenAIのGPT-4oは2024年6月まで延長したデータでトレーニングされています。こうした情報は日々更新される可能性があります。

したがって、最近の出来事やトレンドに関する質問では、モデル内部の情報だけでは足りません。AIはリアルタイムにウェブからデータを取得し直し、その場で要約を生成します。

つまり、AIがどれだけ正確かつ最新の情報を提示できるかは、ウェブから新しいデータを取得し、それを適切に処理する能力にかかっているのです。ここが非常に重要なポイントです。

また注目すべき点として、AI検索エンジンが独自のWebインデックスを構築できるようになってきていることが挙げられます。

たとえば、Perplexity AIの「PerplexityBot」は、GoogleやBingのインデックスに依存せず、独自にウェブをクロールしてデータベースを作成しています。それでもなお、多くのAI検索エンジンは、従来型検索エンジンの検索結果を活用しており、実際にそれに依存しているのが現状です。

ウェブサイトの管理者が、これらのクローラーによるコンテンツ取得を制限したい場合は、robots.txtの設定によってアクセス管理を行うことができます。

それではここから、AI検索エンジンが現代のSEOにどう関わってくるのかについて、さまざまな角度から見ていきましょう。

Google:AI Overview

AI Overviewは、Google検索に大きな変化をもたらしました。

GoogleのGemini AIモデルを活用して生成されるこのAI回答は、複数の情報源からデータを取得し、迅速かつ包括的な回答を提供するよう設計されています。

SEOの専門家にとって、これはチャンスであると同時に、新たな課題も意味します。

AI OverviewはGoogleの検索インデックスをもとに表示内容を決定しますが、同時にユーザーが検索結果をどう扱うかという行動そのものにも変化を与えています。

AI Overviewの仕組み

GoogleのGemini 2.0 AIモデルは、特定の検索クエリに対する概要を即座に生成するためにAI Overviewを支えています。
このAIが生成した回答は、Googleの検索結果ページの最上部、しばしば従来のオーガニック検索結果よりも前に表示されます。

市場シェアと導入状況

Googleは依然として検索市場を圧倒しており、米国内のシェアは約87.28%を占めています。
1日あたり数十億件にのぼる検索の中で、AI Overviewはオーガニック検索のトラフィックやユーザー行動に大きな影響を及ぼし始めています。

SEOにとっての意味

Googleでの上位表示は今も変わらず重要です。というのも、AI Overviewは基本的に検索結果から情報を取得しているからです。

Rich Sanger氏とAuthoritasの調査によると、AI Overviewに引用される情報の46%は、オーガニック検索結果の上位10件からのものでした。

私自身のSEO代理店での経験では、AI Overviewに取り上げられるには検索順位で上位20位以内に入っている必要があるという印象があります。ただし例外もあり、AI Overviewで引用されているサイトの中には、そもそもランキング上には現れないようなものも存在します。

AI Overviewに取り上げられると、引用元へのクリックが増える傾向があり、特に取引意図のあるクエリではその傾向が顕著です。こちら(Adi Srikanth氏のAIOがWebトラフィックに与える影響を探る)の調査では、トランザクショナルクエリ(何かをしたいという取引型のクエリ)においてAI Overviewに引用されたページのクリック数は、引用されなかったページの約3.2倍に達していました。情報検索クエリの場合でも、約1.5倍の差が見られました。

一方で、コンテンツがGoogleで上位表示されていなければ、AI Overviewに表示される可能性は極めて低いため、従来以上に堅実なSEO対策が求められます。成功のための具体的な方法については諸説ありますが、私としては、テクニカルSEO、ページ内最適化、そして優れたコンテンツ制作をバランスよく組み合わせた堅実なSEO施策を、ブレずに継続することを強く推奨します。

なお、ウェブサイト管理者は、自分のサイトの情報が AI 生成回答に利用されるかどうかを制御できます。
たとえば「Google-Extended」をrobots.txtでブロックするように記述できますが、これを行うことでGoogleがGeminiなどのAIモデルがあなたのサイトを学習や回答生成に使うことを禁止できます。この設定をしてもGoogleの検索ランキングには影響しませんが、Geminiが生成するAI回答であなたのコンテンツが使われることはなくなります。

注意点:AI Overviewへの掲載状況は、従来のオーガニック検索よりも変動しやすい傾向があるという調査結果も出ています。

まとめ:AI Overviewは、従来の検索結果を完全に置き換えるものではありませんが、ユーザーが検索結果をどのように利用するかに大きな変化をもたらしています。
現時点では、SEOの基本方針は変わりません。Google検索に最適化されたコンテンツは、AI Overviewにも取り上げられやすくなるという点を押さえておくと良いでしょう。

Google:AIモード(AI Mode)

2025年3月、Googleは、よりAIを活用した検索体験を提供するための新たなオプション機能として「AIモード(AI Mode)」を発表しました。

このAIモードは、標準のGoogle検索における「AI Overview」とは異なり、検索画面全体をAIが生成した応答中心のインターフェースに切り替えるというものです。

つまり、オーガニック検索結果の横にAIの回答が表示される従来型とは異なり、ユーザーはAIによる説明を中心とした検索体験へと移行できるのです。

画像クレジット: The Keyword blog、Google

AIモードの仕組み

AIモードは、より詳細かつ会話的で、視覚的にも強化された回答を提供する、Google検索における新たなオプション機能です。Bingの「Copilotトグル」に似た構造で、従来の検索結果に代わって、AIが生成した応答を中心に据えた検索体験へと切り替えることができます。

GoogleはこのAIモードについて、「高度な生成AIモデルと、Googleが誇る情報システムを統合したものであり、検索体験の中に直接組み込まれています。高品質なウェブコンテンツへのアクセスに加えて、ナレッジグラフや実世界のファクト、数十億点におよぶ商品データなど、リアルタイムな情報源も活用しています。さらに『クエリ・ファンアウト』(query fan-out)技術を使い、関連する複数のサブトピックとデータソースにわたって同時に検索を実行し、それらの結果を統合してわかりやすく整理された回答を提示します」と説明しています(上記の発表リンク)。

Search Engine Land によれば、Googleは「AIモードもAI Overview同様、ユーザーが関連情報やアクションにつながるコンテンツを見つけやすくするため、応答の中に関連リンクを表示します。どのタイミングでリンクを挿入するかについては、AIモデルが学習を重ねています」と述べています。たとえば、ユーザーがチケット予約などの具体的なアクションを起こす可能性がある場合には、リンクが積極的に表示されます。また、ハウツー系の検索では、画像や動画など視覚的な情報を優先的に提示する判断も行います。

SEOへの影響とは

GoogleはAIモードについて、「我々の根本にある品質・ランキングシステムに基づいており、モデルの推論能力を活用した新たなアプローチにより、回答の正確性を高めています。可能な限りAIによる回答を提示したいと考えていますが、有用性や品質に十分な自信が持てない場合は、従来のウェブ検索結果を提示します」と説明しています。

現在、AIモードはテスト段階にあり、AI Overviewのようにクリック率(CTR)にどのような影響を与えるかについては、まだ明らかになっていません。

まとめ:検索の進化とSEOの基本
AIモードの登場は、検索体験がAI主導型へと本格的に移行しつつある兆候です。とはいえ、少なくとも現時点では、従来の検索における上位表示が依然として非常に重要であると考えられます。

さらに深掘り│GoogleのAIモード:SEO担当者・マーケターが知っておくべき要点

Google: Gemini

Google’s AI Mode: Here’s what matters for SEOs and marketers

Geminiは、ChatGPTや他の生成AIツールに対するGoogleの競合プロダクトです。独立したチャットボットとして提供されるだけでなく、Google検索におけるAIオーバービューの基盤としても機能しています。

Googleは今後数か月をかけて、スマートフォンからスマートホームガジェットに至るまで、あらゆるアシスタント対応デバイスにGeminiを展開し、デフォルトのAIアシスタントとして統一していく方針です。

この動きは、検索とユーザーインタラクションの中核にAIを据えるという、Googleの長期的な戦略を象徴するものです。

Geminiの仕組み

Geminiは、Google検索結果と、AP通信などのサードパーティのコンテンツパートナーから情報を取得し、それらを統合して回答を生成します。検索ランキング情報もそのまま応答に組み込まれるため、ユーザーは単なる生成回答以上に、検索精度の高い情報に触れられる仕組みです。

また、Geminiはユーザーの検索履歴、YouTubeの視聴履歴、アプリの使用状況などをもとに応答をパーソナライズすることが可能です。これにより、従来の「クエリに対して一律の回答を返す検索体験」から、「ユーザー個別の関心や行動履歴に最適化された応答」へと進化しています。

市場シェアと利用実績

Statistaの調査によると、Geminiは2025年1月時点で約900万件のダウンロードを記録し、世界で3番目に多くダウンロードされたAIアプリとなっています。
またSimilarwebのデータによれば、主なユーザー層は25〜34歳が約30%と最多で、続いて18〜24歳が約21%となっており、Z世代〜ミレニアル世代が中心であることが分かります。

画像クレジット: gemini.google.com 分析、Similarweb

SEOにとってこれが意味すること

Google検索でのランキングは今なお重要ですが、それだけではありません。GeminiはGoogleの検索インデックスだけでなく、コンテンツパートナーシップからのデータも活用しています。

そのため、自然言語のクエリに最適化されたコンテンツ、コンテキストを補完するための構造化データ、「教えること」を主眼とした教育的コンテンツの重要性が高まっています。

また、Geminiはユーザーの履歴に基づいて回答をパーソナライズするため、同じ質問であってもユーザーごとに表示内容が異なる可能性があります。たとえば、あるユーザーが特定ブランドのYouTubeチャンネルを頻繁に視聴している場合、Geminiはそのブランドのコンテンツを引用したり、関連づけたりする傾向が強くなります。

さらに、Geminiは常に直接リンクを提示するわけではないため、クリック率(CTR)は不確実です。ある調査によると、参照トラフィックの量において、GeminiはChatGPTやPerplexityに次いで第3位とされています。

まとめ:
Geminiでの可視性を高めるには、Google検索で上位を獲得できる質の高いサイトを運営するという基本は変わりません。ただし、GeminiのAIによるパーソナライゼーションと会話型検索の進化が加わることで、対策にはより高い複雑性が求められます。

マイクロソフト:Bing Copilot

Bingは、検索結果にAIを直接統合した最初の大手検索エンジンであり、2023年2月に「Bing Copilot」(旧称:Bing Chat)をリリースしました。Microsoftは2019年からOpenAIに多額の投資を行っており、その成果として、AI検索においてGoogleよりも先行した形になります。この展開は、今後の検索エンジン市場における勢力図に影響を与える可能性があります。

Bing Copilotの仕組み

MicrosoftのPrometheusモデル(OpenAIのGPT-4を基に構築)を使用しています。

リアルタイムのBing検索結果と外部データソースに基づいてAIサマリーを生成します。

AIによる回答は、従来のウェブページ一覧よりも上位に表示されることがあります。

「ディープサーチ」をクリックすると、より詳細なAI回答が得られ、これにはウェブ上の情報源へのリンクも含まれます。

また、BingにはCopilotトグルがあり、よりインタラクティブで高度なAI検索モードを選択できます。

市場シェアと採用状況

Bingは米国の検索市場の約 7.48% を占めています。
Googleと比べると規模は小さいものの、AIを活用した検索を早期に導入したことや、他の AI プラットフォームがBingの結果に依存していることから、Bingの市場シェアは今後さらに拡大する可能性があります。

SEOにとってこれが意味すること

GoogleのAI Overviewとは異なり、Bing Copilotは必ずしも検索上位のコンテンツだけを参照するわけではありません。とはいえ、上位表示されているページの方が引用されやすい傾向は明確に存在します。

Rich Sanger氏の調査によると、Bing Copilotに引用されるURLの70%以上が、Bing検索の上位20位以内に入っているとされます。

AI検索機能の普及に伴い、Bing経由でのトラフィック獲得チャンスは確実に拡大しています。

まとめ:
これまではGoogle対策がSEOの中心でしたが、BingのAI化と他社ツールへの影響力の高さを踏まえると、Bingはもはや「ついでの対策対象」ではなくなりつつあります。今後は、Bingのアルゴリズム特性を理解し、Googleとは異なる視点でSEO戦略を設計することが求められるでしょう。

OpenAI:ChatGPT検索

ChatGPT検索は、AIを活用したリアルタイムWeb検索機能をChatGPTに統合することで、従来の検索体験を強化しようとするOpenAIの取り組みです。

この機能は当初、「SearchGPT」プロトタイプとして2024年半ばにリリースされ、後にChatGPTに統合されました。これにより、ユーザーは事前学習された知識だけでなく、ライブ検索機能を利用できるようになりました。

2024年10月までに、OpenAIはSearchGPTをChatGPTに完全に統合し、リアルタイムのWeb検索を実行できるようにしました。これにより、ユーザーのクエリに対して、より新しい情報源に基づいた回答を提供できるようになったのです。

この統合により、ChatGPT検索は従来の検索エンジンの直接的な競合としての位置づけを強め、GoogleやBingといったプラットフォームに代わる、AIを活用した新たな検索手段をユーザーに提供できるようになりました。

しかし問題は、依然として既存の検索エンジンの結果に依存しているという点です。

ChatGPT検索の仕組み

ChatGPT検索には、GPT-4oの微調整バージョンが搭載されています。このモデルは、合成データ生成技術を用いて事後学習が行われており、その一環としてOpenAIの「o1-previewモデル」からの出力の抽出が含まれています。つまり、すべての応答がWebから直接取得されているわけではなく、一部の回答はAIによって合成されたものとなっています。

SearchGPTは、Bingなどのサードパーティ検索プロバイダーだけでなく、独自の情報を提供するコンテンツパートナーシップからもデータを取得しています。これにより、複数の情報源を活用した回答が生成される仕組みとなっています。

市場シェアと導入状況

ChatGPTは、現在最も広く利用されているテキスト生成AIツールです。Statistaのデータによると、2023年には、ChatGPTが世界の生成AIユーザーシェアの約20%を占めていました。

TechCrunchの報道によると、ChatGPTの週間アクティブユーザー数はわずか6か月で2倍に増加し、現在では4億人以上のユーザーがその検索機能を利用しているとされています。

画像クレジット:「2023年の世界における主要な生成型人工知能(AI)テキストツール市場ユーザーシェア」Statista.com

SEOにとってこれが何を意味するか

SearchGPTは、Bingのインデックスに依存しているため、WebコンテンツがBingにおいてインデックスされ、上位表示されるように最適化することが今後のSEO戦略において重要です。Bingにインデックスされていないコンテンツは、SearchGPTの応答として取り上げられる可能性が低くなります。

SEO業界では、SearchGPTがBing内で信頼性の高い上位ランクの情報源を優先する一方で、Bingの上位ランク外の情報源も取り入れているといった見解が広まっています。

SearchGPTによる回答には、クリック可能な情報ソースが含まれることもあり、これがWebサイトへのトラフィックを生み出す可能性があります。実際に、中小企業391社のウェブサイトを対象に行われたトラフィック分析によると、ChatGPTによる参照トラフィックは2024年9月から2025年2月にかけて123%増加しており、この期間中、AI駆動型検索エンジンの中で最も多くの参照トラフィックを生み出したプラットフォームとなりました。さらに、ChatGPTは教育系やテクノロジー系のWebサイトに対するトラフィック誘導の増加にも貢献しており、2024年11月までには、3万を超えるユニークドメインが参照トラフィックを受け取ると見込まれています。

ChatGPTの会話形式による情報提供は、ユーザーの検索行動や情報の受け取り方を大きく変えつつあります。今後も「役立つコンテンツ」を重視することで、Webサイトの競争力は確実に高まるでしょう。

一方で、SEO初期と同様に、ChatGPTを利用した検索も操作に対して脆弱であることがテストによって明らかになっています。そのため、誤解を招くような結果や、偏った情報が表示されるリスクもある点には注意が必要です。

まとめ:ChatGPTは、検索エンジンの未来にとって最大の脅威となり得る存在です。ただし、SearchGPTがBingに依存している以上、AIが生成する検索結果でも上位に表示される可能性を高めるためには、Bingでの最適化を優先することが不可欠です。

Perplexity AI

Perplexity AIは、大規模言語モデルとリアルタイムのWebデータを組み合わせ、出典付きで簡潔な AI 回答を提供する独立系のAI検索エンジンです。

その最大の特長は、「引用(ソース)」にあります。

Perplexityの創設者Aravind Srinivas氏は、Lex Fridman氏とのインタビューで次のように述べています。

初めて論文を書いた際、共著の先輩から「論文内の主張はすべて引用で裏付けるべきだ」と教わりました。それは、他の査読済み論文か、自分の実験データに基づくものでなければならないという意味です。引用がない主張は、単なる意見に過ぎないのです。

「これは単純な原則ですが、“正しいことしか言えなくなる”という点で非常に本質的です。」

私たちはこの原則を踏まえ、「チャットボットを正確にする最善の方法は、インターネット上で確認でき、かつ複数の情報源から裏付けがとれる情報しか言えないようにすることだ」と考えました。

2022年後半にサービスを開始し、現在ではGoogleなどの従来型検索エンジンの代替、あるいは競合として注目を集めています。

Perplexity AIの仕組み

Perplexityは、独自の検索インフラを構築しており、Web全体をクロールしてリアルタイムに情報をインデックス化。ユーザーの検索クエリに対して、AIが即時に回答を生成します。

Googleのように全Webページを網羅するのではなく、ユーザー行動に基づき「検索頻度が高く、信頼性の高い」情報を優先的にインデックス化。これにより効率性と正確性を両立しています。

全ての回答にはソースへのリンクが付いており、出典を明記しない従来のチャットボットとは一線を画しています。

市場シェアと普及状況

2024年初頭時点で、Perplexityは月間アクティブユーザー数が1,500万人に達したと報告されています。

市場全体ではまだ規模は小さいものの、AI検索市場の約6%を占めるまでに成長しています。

また、ジェフ・ベゾスやNVIDIAなどの著名な投資家の支援を受け、評価額はわずか1年足らずで5億ドルから90億ドルへと急騰しました。

SEOにとってこれが何を意味するか

Perplexityが重視しているのは、「Web上の信頼できる情報源」です。つまり、自社サイトが権威性のあるWebメディアとして認識されることが、可視性を確保するうえで不可欠です。

ある調査では、Perplexityが参照している情報の約60%が、Google検索の上位10件と一致していることが明らかになりました。

また、Perplexityには好んで参照する「信頼ソース群」が存在する可能性も示唆されています。

GoogleやBingと異なり、Perplexity独自のランキングロジックがあるため、最適化のアプローチも異なります。

明確な見出し、セクションの整理、FAQの挿入など、構造化されたコンテンツが有利に働くとされています。

ただし、参照元リンクは設置されているものの、そこからのトラフィックは現時点では限定的です。

まとめ:Perplexityは、AI検索の勢いを背景に、主要検索エンジンからユーザーを奪うポテンシャルを持った有力な存在です。一方で、Perplexityも他のAI検索エンジン同様に「Web上の既存情報に依存」しており、AI向けに最適化された高品質なコンテンツを持つことが、引き続きSEOにおける競争優位となります。

AI検索とSEOの未来展望

AIの台頭により、検索エンジンの利用総量が大きく減少するという予測もあります。たとえば、Gartnerは「2026年までに従来の検索の利用は25%減少する」としています。しかしそれでも、「信頼性が高く最適化されたコンテンツを持つWebサイト」の重要性は揺るぎません。

どのAI検索エンジンが覇権を握るかは、まだ見えません。GoogleのAI OverviewsPerplexityを巡る法的訴訟が進行中であり、今後の司法判断がプラットフォームの運用に大きく影響する可能性があります。

では、今すぐにそのAI検索を最適化すべきでしょうか?

まずは、自社の業界やターゲットに合ったAI検索エンジンの利用状況を調査し、参照トラフィックが見込めるかを検討しましょう。

すでにSEO施策を行っている場合は、PerplexityなどAI検索向けに追加の最適化を行う価値があるか、トラフィックを継続的に観測して判断するのがよいでしょう。

当然ながら、Googleは依然として主要な検索エンジンであり、最適化の優先度は高いままです。

ただし、状況は一様ではありません。GoogleのAI Overviewによりクリック数が増加したと報告するサイトもあれば、大幅なCTR低下を経験しているケースもあります。

実際、ある調査では「GoogleのAI Overviewが表示されたクエリでのCTRは、前年の1.41%から0.64%に低下」したというデータもあります。

画像クレジット: Seer Interactive

また、ChatGPTやPerplexityのようなAI検索では、従来型検索に比べてニュースサイトやブログへの参照トラフィックが96%も少ないという報告もあります。

Emarketerのデータも、これを裏付ける結果を示しています。

画像クレジット: emarketer

いくつかのデータでは、AI検索エンジンからの参照トラフィックに一定の「序列」が存在することが示唆されています。

たとえば、ChatGPTは総合的な参照トラフィックで他を上回る一方、業界や分野によってはその傾向が異なります。

画像クレジット:「中小企業のウェブサイトではChatGPTやその他のAIエンジンからのトラフィックが増加している」ウィリアム・カマー、Search Engine Land
画像クレジット:「中小企業のウェブサイトではChatGPTやその他のAIエンジンからのトラフィックが増加している」ウィリアム・カマー、Search Engine Land

こうした変化が続く中でも、SEOの基本は変わらないと安心してよいでしょう。

確かにアプローチや手法は変わるかもしれませんが、土台は同じです。ユーザーを第一に考え、ターゲット層が利用するプラットフォームに最適化された優れたウェブサイトを作り、検索での可視性を保つために変化に柔軟に対応し続けることが重要です。

SEO Japan編集部より:Google一極のSEOではAI時代を捉え切れません。鍵は「構造化+良質コンテンツ」。まず Google 評価を固めつつ、Bing や Perplexity でも拾われる情報設計に再構築しましょう。検索変化の背景はこちらの記事で、AI Modeの対応は当社遠藤のブログ記事低評価コンテンツ基準の解説もぜひご参照ください。

Google AI OverviewやChatGPT検索など生成AIのよくある質問

Google AI Overviewや生成AIの回答は何のデータを基に抽出されていますか?

Google AI OverviewやChatGPT検索などの生成AIは、検索インデックスやWeb上の信頼できる情報を基に回答を生成します。特にGoogle AI Overviewは検索上位20位以内のページを中心に、Perplexityは独自クローラーで収集した信頼ソースを優先しているとされています。

AI検索に向け企業が取り組むべきことはなんですか?

まずはGoogleやBingでの上位表示を前提としたSEOを継続しつつ、構造化データやFAQ設置などAIに引用されやすいコンテンツ作成が重要です。Perplexityなど独自ロジックのAIもあるため、信頼性・明確性のある情報設計が求められます。

seojapan

生成AIで変わる検索の仕組みと、そこで勝ち抜く方法

5ヶ月 2 週間 ago

この記事は、2025年 5月 27日に Search Engine Land で公開された Duane Forrester氏「Inside the AI-powered retrieval stack – and how to win in it」を翻訳したものです。

従来のリンク順位中心型検索は終焉を迎えつつあり、新しいAIベースの検索技術(検索スタック)が主役となる時代が始まった。

本稿では「ベクトルデータベース」「埋め込み表現」、そして「逆順位融合(Reciprocal Rank Fusion)※」が、検索スタックをどのように変えたのかをご紹介します。
※逆順位融合(Reciprocal Rank Fusion):複数の検索結果ランキングを統合する手法。RRF。

人々が「サングラス」についてどのように検索するか、想像してみてください。

従来の検索モデルでは、ユーザーは「最高のスマートサングラス」と検索し、SERP(検索結果ページ)に表示されたリンクを順に確認していきます。

一方、新しい検索モデルでは、ユーザーは「Ray-Ban Metaグラス※って何?」のように質問を投げかけ、SERPに表示されたリンクを一切見ることなく、仕様、使用例、レビューなどを含んだ総合的な回答を得られます。
※Ray-Ban Metaグラス:メガネ型のデバイス。アイウェアブランドのRay-BanとFacebook、Instagramなどのサービスを運営するMeta社が共同開発したスマートグラス。

この変化は、新時代の到来を告げています。コンテンツは、もはや単に検索結果で上位に表示される必要はありません。
「検索されること」「理解されること」そして「回答として組み込まれること」が求められるのです。

かつてのSEO戦略は、ページを作成して、GoogleやBingがクロールしてくれるのを待ち、キーワードが検索クエリに一致することを祈りつつ、広告が表示されないよう願うというものでした。しかし、このモデルは静かに崩れつつあります。

生成AIによる検索システムでは、ページが検索結果にリストされる必要すらありません。
重要なのは、そのページが構造化され、AIにとって解釈可能であり、必要なときに情報として利用できる状態になっていることです。

これが新しい検索スタックです。リンク、ページ、ランキングといった従来の要素ではなく、ベクトル、エンベディング、ランキング融合、そしてランキングではなく“推論”によって機能するLLM(大規模言語モデル)を基盤としています。

もはやページ単体を最適化するだけでは不十分です。
どのようにコンテンツを分割し、意味ベースでスコアリングし、再び組み立て直すか──そのプロセス全体の最適化が求められます。

そして、この新しいパイプラインの仕組みを理解すれば、従来のSEO施策がどれほど古風に見えるかが分かるはずです。(ここで紹介するのは簡略化したパイプラインです。)

新しい検索スタックの仕組み

すべての最新の検索拡張AIシステムの内部には、ユーザーからは見えない“検索システムの技術スタック”が存在します。
これは従来の検索システムとは根本的に異なります。

エンベディング(Embeddings)

文、段落、またはドキュメントは、その「意味」を数値化した高次元のベクトルに変換されます。

これにより、AIは単なるキーワードの一致だけでなく、「意味の近さ」によってアイデアを比較できるようになります。そのため、正確な語句を使っていなくても、関連性の高いコンテンツを見つけ出せるのです。

ベクトルデータベース(vector DBs)

これらのベクトル(埋め込みデータ)は、ベクトルデータベースに高速で保存・検索されます。
代表的なものとしては、Pinecone、Weaviate、Qdrant、FAISSなどがあります。

ユーザーが質問を入力すると、そのクエリもベクトルに変換され、データベースから最も近い意味のチャンク(断片)が数ミリ秒以内に返されます。

BM25

昔ながらのアルゴリズムですが、今なお極めて実用的に使われている検索アルゴリズムです。キーワードの頻度と希少性に基づいて、コンテンツの関連度を評価します。

特に、ユーザーがニッチな用語を使用したり、正確なフレーズ一致を求める場面において、高い精度を発揮します。

以下の図は、BM25とベクトル類似度を使ったランキング動作を比較した概念図です。
2つのシステムがどのように「関連性」を判断するかを、架空のデータに基づいて示しています。

  • BM25は、キーワードの正確な一致を重視してドキュメントをランク付けします。
  • 一方、ベクトルベースの検索では、意味的な類似性に基づいてコンテンツを提示します。

それぞれのドキュメントは、意味や一致度に応じて順序付けられていることにご注目ください。

RRF(逆順位融合)

RRFは、BM25やベクトル類似度といった複数のランキング手法を、ひとつのランキングリストに統合することを可能にします。この手法により、キーワードマッチとセマンティックマッチのバランスがとれ、最終的な検索結果が、いずれか一方の検索方式に偏ることがありません。


RRFでは、BM25とベクトル類似度によるランキングシグナルを、「逆順位スコア式(Reciprocal Rank Score:RPF式)」を用いて統合します。

以下のグラフでは、それぞれ異なる検索システムにおいて文書がどのような順位にあるかが、最終的なRRFスコアにどのように寄与するかを示しています。

たとえどちらの手法でも1位でなくとも、複数の検索アプローチで一貫して高く評価されている文書は、RRFにおいても高く評価されます。
このようなモデリング手法により、文書の順位付けはより洗練され、精度の高い並び順が実現されます。

LLM(大規模言語モデル)

RRFで上位にランクされた結果に対し、LLMが要約、言い換え、あるいは原文を引用する形で応答を生成します。

これが「推論レイヤー(reasoning layer)」です。ここでは、コンテンツの出所よりも、「質問に正しく答えられるか」が重視されます。

無論、インデックスは今も存在しています。ただし、見た目は変わりました。
もはや、クローラーでページが巡回されて、インデックスされ、ランキングされるのを待つ必要はありません。

現在では、コンテンツはベクトルデータベースにエンコード(埋め込み)され、メタデータではなく意味ベースで検索されるようになっています。

・社内のデータであれば、こうした処理は即時に行われます。

・公開Webコンテンツの場合は、GPTBotやGoogle-Extendedなどのクローラーが今もページを取得していますが、その目的は従来のSERP(検索結果)を作ることではなく、コンテンツの意味を把握し、インデックスするためです。

このスタックが優れている理由(適切なユースケースであれば)

この新しいモデルは、従来の検索エンジンを置き換えるものではありません。
ただし、従来の検索では対応が難しかったタスクに対しては、飛躍的な進化をもたらします。

たとえば、

  • 社内ドキュメントの検索 → 最適です。
  • 法廷記録の要約 → 問題ありません。
  • 10個のPDFから関連する抜粋を探したい → ゲームオーバー(=従来型では難しいが、これなら可能)

この製品スタックが優れている理由は以下の通りです。

  • レイテンシ(応答速度):ベクトルデータベースは数ミリ秒でデータを返します。クロールの待ち時間やタイムラグはありません。
  • 精度:埋め込み検索は、キーワードだけでなく「意味」にもマッチします。
  • コントロール:検索対象となるコーパス(情報集合体)を自社で定義できます。無関係なWebページやSEOスパムが混入することはありません。
  • ブランドセーフティ:広告が表示されず、競合他社が検索結果に紛れ込むこともありません。

このため、エンタープライズ検索、カスタマーサポート、社内ナレッジシステムといった分野では、すでにこの新しいスタックが採用されています。そして現在、一般的な検索領域でも、この方向へと大規模にシフトが進みつつあります。

ナレッジグラフがスタックを強化する方法

ベクトル検索は強力ですが、あいまいな面もあります。意味的な近さは捉えられるものの、「誰が、何を、いつ」といった人間の世界で当然とされる関係性までは完全には表現できません。

そこで役立つのが、ナレッジグラフ(Knowledge Graph)です。

ナレッジグラフは、システムが曖昧さを解消し、推論できるようにするために、エンティティ(人・製品・ブランドなど)の関係性を定義します。たとえば、「Apple」と言ったとき、それは企業のことなのか、それとも果物のことなのか?「それ」とは物体のことか、それとも顧客のことか?

以下のように、それぞれが補完し合います。

  • ベクトルデータベース:関連コンテンツを見つける
  • ナレッジグラフ:つながりを明確にする
  • LLM(大規模言語モデル):すべてを自然言語で説明する

つまり、ナレッジグラフと新しい検索スタックは二者択一ではありません。優れた生成AIシステムは、これらを組み合わせて活用します。

【戦術ガイド】生成AIを活用した検索最適化の実践

まず、私たちが馴染みのある「従来の検索において上位表示を狙う方法」をざっとおさらいしましょう。

重要なのは、ここで示すのは網羅的なリストではないという点です。これは、これから紹介する生成AI時代の戦術と比較するための背景です。従来の検索でさえ非常に複雑です(私は以前Bingの検索エンジンに関わっていたので、それはよく分かっています)。それでも、以下の内容を見れば、生成AI向けの対策がむしろシンプルに思えるかもしれません。

従来型検索での上位表示には、以下のような要素が重要でした。

  • クロール可能なページ構造
  • キーワードを調整したコンテンツ
  • 最適化されたタイトルタグ
  • 高速な表示速度
  • 信頼できるサイトからの被リンク
  • 構造化データ
  • 堅牢な内部リンク

さらに、以下も加えると、より成果が期待できます。

  • EEAT(経験・専門性・権威性・信頼性)
  • モバイル対応
  • ユーザーエンゲージメントのシグナル

これは、技術的な土台、コンテンツの関連性、そして評判を組み合わせたものであり、他サイトがあなたをどう扱うかによって評価されます。

生成AI時代、どうやって「引用コンテンツに選ばれる」か?

ChatGPT、Gemini、CoPilot、Claude、Perplexity などの生成AIに、自社のコンテンツを参照してもらうにはどうすればよいのか?以下は、すべてのコンテンツ提供者が取るべき具体的な戦術です。

1. チャンク化と意味検索を意識した構造づくり
コンテンツを取得しやすいブロックに分割しましょう。
<h2> や <section> などのセマンティックHTMLを使ってセクションを明確に分け、アイデアを整理します。FAQ形式やモジュール型の構造も有効です。
これが、LLMが最初に読む「レイアウト層」になります。

2. 巧妙さより明快さを優先する
賞賛される文章よりも、理解される文章を目指しましょう。
専門用語・比喩・曖昧な導入文は避け、ユーザーの質問に合わせた、具体的でわかりやすい回答を重視します。
これにより、意味的なマッチング精度が向上します。

3. AIにクロールされる環境を整える
GPTBot、Google-Extended、CCBot などのクローラーがサイトにアクセスできなければ、存在しないも同然です。
JavaScriptでレンダリングされるコンテンツは避け、重要な情報は生のHTMLで提供しましょう。
また、schema.orgのタグ(例:FAQPage、Article、HowTo)を使って、クローラーにコンテンツの種類を明示します。

4. 信頼と権威のシグナルを整える
LLMは、信頼できる情報源を好みます。
署名、発行日、連絡先、外部引用、著者プロフィールなどの要素を明示することで、生成AIの回答に表示される可能性が高まります。

5. ナレッジグラフのように社内コンテンツを構造化する
関連するページを相互にリンクさせ、サイト全体の構造的なつながりを定義します。
ハブ&スポーク構造や用語集、コンテキストリンクなどを使って、意味的な一貫性を高めましょう。

6. トピックをモジュール的かつ多面的に掘り下げる
単に主要な質問に答えるのではなく、あらゆる角度から情報を提供します。
「何」「なぜ」「どうやって」「比較」「いつ」といった形式で分けたり、TL;DR、要約、チェックリスト、表などを追加するのが効果的です。

7. 表現の確信度を高める
LLMは、記述の確信度も評価します。
「〜かもしれない」「〜と思われる」といった曖昧な表現は避け、明確で断定的な言葉を使いましょう。
自信のある記述は、生成AIに選ばれやすくなります。

8. 意味の重複で表現の幅を広げる
同じことを別の言い回しで繰り返しましょう。
多様なフレーズを使うことで、さまざまな検索クエリに対応しやすくなり、ベクトル検索での可視性が高まります。

9. 埋め込み可能な段落を作成する
ひとつの段落には、ひとつの明確なアイデアだけを含めましょう。
複数の話題を混ぜず、シンプルな文構造を用いることで、コンテンツの埋め込み・取得・統合が容易になります。

10. 潜在的なエンティティに文脈を与える
明白に思える情報でも、はっきりと言語化しましょう。
たとえば「最新モデル」ではなく、「OpenAIのGPT-4モデル」と明記します。
エンティティの明示により、ナレッジグラフや曖昧性解消の精度が高まります。

11. 主張の近くにコンテキストを配置する
主なポイントから離れすぎずに、それを裏付ける情報(例・統計・比喩など)を配置します。
これにより、チャンク単位での一貫性が高まり、LLMが内容を確信を持って処理できます。

12. 構造化された抜粋を生成AI向けに提供する
AIクローラーがコピーしやすい、クリアな情報を用意しましょう。
箇条書き、回答の要約、「要点」セクションなどを活用し、情報の価値を際立たせます。
これはPerplexityやYou.comなど、スニペット形式の生成AIに有効です。

13. ベクトル空間に関連コンテンツを密集させる
用語集、定義、比較記事、事例などの周辺コンテンツを公開し、互いにリンクさせましょう。
トピックを密にクラスター化することで、ベクトル検索でのリコール率が上がり、主要コンテンツの可視性も高まります。

【ボーナス】AIに取り上げられているか確認する方法

成果を確認したいときは、コンテンツで取り上げた質問を、PerplexityやChatGPTのブラウジングモードで聞いてみましょう。
もし表示されないなら、構成と表現を見直し、明確さを高めたうえで再挑戦してください。

最後に:あなたのコンテンツは今やインフラである

あなたのウェブサイトは、もはや目的地ではありません。
それは、生成AIが回答をつくるための「原材料」なのです。

今後は、引用・参照・要約され、誰かが読んだり聞いたりする回答の一部として使われることが期待されます。
この傾向は、MetaのRay-Banスマートグラスのような新しい消費チャネルが増えるほど、ますます強くなります。

ページ自体の存在は依然として重要ですが、それはあくまで「足場」にすぎません。
勝ちたいなら、ランキングだけにこだわるのをやめ、情報源としての価値を高めましょう。もはや「訪問されるか」ではなく、「引用されるか」がカギです。

※本記事はもともと、Substack『Duane Forrester Decodes』にて “Search Without a Webpage(ウェブページなしの検索)” というタイトルで公開されたもので、許可を得て再掲載されています。

SEO Japan編集部より:先日話題になったiPullRank社のMike King氏の記事と同様に、「クリック外の可視性」をKPIにする方向を提唱しており、いずれも「機械が読む単位」で情報設計する必要を説いています。
一方で、当記事では短期タスクを中心に「今すぐできるTodoリスト」を示しており、ここで紹介されていることに取り組みつつ(llms.txtは懐疑的ですが)、今後の大きな方針としては、次のゲーム盤そのものを解説しているiPullrank記事を基に、組織とデータ基盤の再設計を検討すると良いかもしれません。AI Modeの対応について、わかりやすくかみ砕いた当社遠藤のブログ記事も併せてご確認ください。

seojapan

LLM検索結果からブランドドメインへのリンクはわずか9% LLMのリンクがブランドにとってなぜ重要なのか

5ヶ月 4 週間 ago

この記事は、2025年 5月 6日に Search Engine Land で公開された Jason Tabeling氏の「What LLMs link to and why it matters for your brand」を翻訳したものです。

LLM(大規模言語モデル)の検索結果に含まれるリンクのうち、ブランドの公式ドメインに向けられているものは、わずか9%に過ぎません。本記事では、こうしたデータを分析し、それがWeb戦略にどのような影響を及ぼすのか、また企業としてどう対応すべきかを考察します。

LLMは、複雑な問いへの回答やクリエイティブなコンテンツの生成といった用途に対応しており、「ゼロクリック」な結果──すなわち、ユーザーがさらなる調査をせずに済む、簡潔で直接的な回答を提供するよう設計されています。

この変化は、ある重要な疑問を私たちに突きつけます。ユーザーが必要な情報を得るために、もはやWebサイトを訪れる必要がなくなったとしたら、ウェブトラフィックはどうなるのでしょうか?

ウェブサイトの将来的な役割についての議論はまた別の機会に譲るとして、今、検討すべきより差し迫った戦略的課題があります。それが「リンク」です。

具体的には、LLMはどのような種類のリンクを提示しているのか。そしてブランドは、そのリンクからどのようにトラフィックを生み出すことができるのか。

LLM出力におけるリンクの重要な役割

LLMの出力に含まれるリンクは、情報の出典としての引用の役割を果たし、提示された情報の正当性を確認したり、ユーザーが元のソースにアクセスする手段となったりします。

特にセンシティブで複雑なトピックにおいては、このような仕組みが正確性と信頼性を保つために非常に重要です。

ブランドにとって、この引用リンクこそが、LLM経由でのインバウンドトラフィックを獲得するための、ほぼ唯一の実行可能なルートです。

良いニュース:LLM経由の紹介トラフィックは約400%増加しています。(英語記事:外部リンク)

つまり、LLMが生み出すトラフィックの規模が大きくなればなるほど、LLMがどのようなリンクを提供しているのかが、いっそう重要になってくるのです。

データが示すブランドリンクとサードパーティリンクの現実

私は数百に及ぶプロンプトを分析し、LLMが提示するリンクを次の3種類に分類しました:

  • ブランドの公式ドメインへのリンク
  • サードパーティのドメインへのリンク
  • ブランド名が記載されているが、リンク先はサードパーティのドメインであるもの

その結果、実際にブランドの公式ドメインへリンクしている割合は、全体のわずか9%にすぎないことが明らかになりました。

これは、ブランドにとって深刻な課題です。というのも、回答の中でブランド名が挙げられているにもかかわらず、自社サイトへは直接リンクされていないからです。

さらに詳しく:B2B SEOのためのLLMの最適化:概要(英語記事:外部リンク)

実例:小売業および金融サービス業界のケース

ここでは、小売業と金融サービス業界からの具体例をご紹介します。

小売業のケースでは、私はバンドン・デューンズ(アメリカ・オレゴン州にあるゴルフリゾート)での近々のゴルフ旅行に備えて、レインコートを探していました。

その検索結果はそこそこのものでしたが、Perplexityが提示したリンクのうち、パタゴニア公式サイトに繋がるものは1件のみで、残りはすべてサードパーティのサイトに誘導されました。

金融サービスと保険の質問でも、同様の傾向が見られました。

挙げられたブランドは、予想どおりの大手企業でしたが、リンク先はすべて、リード情報を集約するサードパーティのサイトでした。これらのサイトは通常、そのトラフィックを該当ブランドに再販売し、裁定取引的なビジネスモデル(情報を仲介し差益を得る)によって利益を得ています。

LLMがサードパーティの情報源を好む理由

LLMの視点から見ると、サードパーティのサイトへのリンクは理にかなった選択です。

それは、実世界における人々の情報収集行動を反映しているからです。たとえば、どのレインコートを購入するかを決める際に、パタゴニア自身に偏りのないレビューを期待する人はまずいないでしょう。

同じように、LLMも「中立的」に見えるサードパーティの情報源を優先する傾向があるようです。

この中立性こそが、より良いユーザー体験を提供することを目的とした選択と言えます。

とはいえ、こうしたサードパーティのサイトの多くは、リンクされるブランドから何らかのかたちで利益を得ており、トラフィックを収益化しているという現実があります。

さらに深掘り:AIを活用した検索結果(SERP)とLLMに向けて、2025年のコンテンツ戦略をどう最適化すべきか(英語記事:外部リンク)

ブランドがとるべき対応策:3ステップのフレームワーク

では、ブランドはこの状況にどう対処すべきなのでしょうか?現時点で有効と考えられるアクションは、以下の3つです。

ステップ1:結果を理解する

まずは、自社ブランドが各種LLMでどのように表示されているかを調査しましょう。表示されているリンクがどのようなものかを把握することが不可欠です。

戦略的な意思決定を行うには、現状を正確に理解することから始めなければなりません。

ステップ2:リンクを監査する

提示されているリンクはサードパーティのサイトですか?

それらのサイトは、強力なインバウンドリンクプロファイルを有しているでしょうか?あるいは、ユーザー生成コンテンツに依存しているのでしょうか?

こうした分析から得られる洞察が、次のステップへのアプローチを左右します。

ステップ3:仮説を立てる

LLMは常に進化しており、依存している入力データも不透明な部分が残っています。そのため、仮説を立ててテストを始めることが重要です。

観察されたパターンに基づいて、コントロールグループとテストグループを設定し、それに応じてコンテンツやリンク戦略を調整してください。

その後、影響を測定し、再度ステップ1に戻って改善を重ねていきます。

さらに詳しく:GA4でLLMからのトラフィックをセグメント化する方法

AI時代におけるリンクエクイティの再考

リンクは長年にわたりWebの基盤であり続けてきましたが、今やLLMのトレーニングや情報の提示方法においても、その役割は非常に重要なものとなっています。

これらのモデルが私たちの日常にますます深く統合されていくなかで、リンクの価値はさらに高まっています。

LLMの出力内でリンクがどのように機能しているのかを理解することによって、ブランドはこの変化し続ける環境に柔軟に対応し、ユーザーとの対話の中で信頼され、注目され、アクセスしやすい存在であり続けることができるのです。

SEO Japan編集部より:現時点では生成AIからの流入は1%以下のサイトが多いでしょう。ただし、生成AIをリファラとする流入数は、当社の解析ツールを見る限り、直近昨月比約120%前後で増加しています。現時点での割合で見れば大したことはありませんが、そこに顧客がいることは確かです。1件、2件の良質なCVが事業にインパクトを与える領域では、無視できない数といえます。

生成AIは、Google・bing等のAPIを参照している(RAG)背景があり、結果として上位表示しているサイトは言及されやすい仕組みです。生成AIの特徴を踏まえると、①出典の信頼性(E-EAT)②一問一答(FAQ・冒頭要約) ③bingのAPI(BingのSEO) の3点を抑えておくと良いかもしれません。

seojapan

GoogleはLLMs.Txtをキーワードメタタグと同等と評価

6ヶ月 2 週間 ago

この記事は、2025年 4月 17日に Search Engine Journal で公開された Roger Montti氏の Google Says LLMs.Txt Comparable To Keywords Meta Tag を翻訳したものです。SEO上級者は、ぜひこの記事のソース元となっているRedditのこちらのスレッドをブラウザ翻訳などでご確認いただくことを推奨します。

Googleのジョン・ミューラー氏は、LLMs.txtがどのように役立つかについて、キーワードメタタグと比較し、現実的な評価を示しました。

Googleのジョン・ミューラー氏は、ウェブサイトのコンテンツをAIエージェントやクローラーに表示するための標準案であるLLMs.txtに関する質問に答え、その有用性を過小評価しました。さらに、LLMs.txtの使用が無意味である理由を、役に立たないキーワードメタタグと比較して説明しました。

LLMs.txtの特徴

LLMs.txtは、大規模言語モデル用の「robots.txt」とよく比較されますが、これは誤解です。robots.txtの主な目的は、ボットによるウェブサイトのクロールを制御することです。対して、LLMs.txtはボットの制御を目的としていません。そのため、LLMs.txtとrobots.txtを比較するのは適切ではありません。

LLMs.txtの提案は、AIにMarkdown形式のテキストファイルを使ってコンテンツを表示させ、広告やサイトナビゲーションを排除し、ウェブページのメインコンテンツだけを閲覧可能にすることです。Markdown言語は人間と機械の両方が理解できる形式で、見出しは「#」、リストは「-」で示します。LLMs.txtはこの機能に似たものを備えていますが、それ以外の機能は提供していません。

LLMs.txtとは

  • LLMs.txtはAIボットを制御するためのものではありません。
  • LLMs.txtはAIボットにメインコンテンツを表示させる方法を提供します。
  • LLMs.txtは単なる提案であり、広く受け入れられた標準ではありません。

最後のポイントは、Googleのジョン・ミューラー氏の発言と関連があり重要です。

LLMs.txtはキーワードメタタグに相当する

Reddit(アメリカの巨大掲示板型ソーシャルメディア:ユーザーが投稿したコンテンツに対して投票できる記事、質問、意見交換などのコミュニティサイト)でLLMs.txtに関する議論が始まり、AIボットがLLMs.txtファイルをチェックしていないという経験が他のユーザーによって共有されました。

あるユーザーは次のように書いています。

「今月初めにブログのルートにLLMs.txtファイルを送信したのですが、クロールログにはまだ影響が見られません。トラッキングシステムを導入されている方や、導入後に何か変化があった方はいらっしゃいますか? まだ実装していない場合は、ご意見をお聞かせください。」

そのユーザーは、20,000 以上のドメインをホストしており、AI エージェントやボットは LLMs.txt ファイルをダウンロードしておらず、BuiltWith のようなニッチなボットのみがそれらのファイルを取得していると話していました。

現在約2万のドメインをホストしています。一部のニッチなユーザーエージェントを除いて、ボットがこれらのドメインを取得していないことは確認済みです」

ジョン・ミューラー氏はこう答えました:

「私の知る限り、どのAIサービスもLLMs.txtを使用しているとは言っていません(サーバーログを見れば、チェックすらしていないことがわかります)。私にとって、これはキーワードメタタグに相当するものです。サイト所有者が自分のサイトについて主張する内容です…(本当にそのサイトがLLMs.txtを使用しているのでしょうか? まあ、確認すればいいでしょう。その時点で、サイトを直接確認すればいいのではないでしょうか?)」

彼の言う通り、Anthropic、OpenAI、Googleといった主要なAIサービスは、提案されたLLMs.txt標準へのサポートを表明していません。しかし、もし実際に誰も使っていないのであれば、その存在に何の意味があるのでしょう?

ミューラー氏はまた、LLMs.txtファイルが冗長であると指摘しています。

なぜなら、元のコンテンツ(および構造化データ)が既にダウンロードされているのであれば、わざわざMarkdownファイルを使う理由がないからです。LLMs.txtを使用するボットは、他のコンテンツがスパムでないことを確認する必要があるため、わざわざLLMs.txtを使う意味がないのです。

ボット側がLLMs.txtを信頼することの難しさ

最後にもうひとつ。パブリッシャーやSEO担当者がLLMs.txt内のコンテンツをAIエージェントにスパムとして送信し、別のコンテンツをユーザーや検索エンジンに表示することを防ぐ方法があるのでしょうか?この方法では、LLMをクローキングすることと同義で、スパムを生成するのは非常に簡単です。

その点では、これは検索エンジンが使用しないキーワードメタタグと非常によく似ています。サイトが本当にそのキーワードに関するものであると信頼するのはあまりにも不確実であり、最近の検索エンジンはコンテンツを解析してその内容を理解する点でより優れ、洗練されています。

LinkedInでのフォローアップ投稿

Redditへの投稿を開始したシモーネ・デ・パルマ氏は、LinkedInにLLMs.txtに関する議論を投稿しました。デ・パルマ氏は自身の経験に基づき、LLMs.txtがユーザーエクスペリエンスを低下させる可能性があると説明しました。

彼は次のように書いています

「LLMs.txtファイルはハッシュタグ#AIサービスによって無視されているようで、ウェブサイトの所有者にとって実質的なメリットはほとんど、またはまったくありません。

さらに、LLMs.txtファイルは元のURLにリンクバックしないため、ユーザー体験低下につながると主張する人もいます。ウェブサイトで引用を獲得すると、ユーザーを適切なウェブページではなく、途方もないテキストの羅列に誘導してしまう可能性があります。では、そもそもLLMs.txtファイルの意味は何でしょう?」

議論に参加した他の参加者も同意しました。ある回答者は、ファイルへのアクセスが少なかったと述べ、業務のリソースは他に集中させた方が良いという意見を述べました。

その回答者はこう語っています

「同感です。私が実施しているテストでは、アクセス数も少なく、今のところメリットも見られません(別の方法で活用すれば、さまざまなクローラーを混乱させるリスクもあるため、有効活用できる可能性がありますが)。現時点では、適切に構築された構造化データ、robots.txt、そして各種サイトマップに注力する方が生産的です。」

上記Reddit の原文はこちらをご確認ください:LLM.txt – 私たちはどこにいるのでしょうか?

SEO Japan編集部より:現時点では「無視される可能性の高い、形だけの仕様」という扱いで、Googleとしても“実装したからといって効果があるとは限らない”というスタンス。OpenAIやAnthropicなど主要な生成AI企業側も対応を明言しているわけではなく、「企業側が出力を制御したい気持ちは理解できるが、果たしてそれが成立するかは別問題」といった空気感が漂っています。

SEOにおけるrobots.txtと異なり、LLMs.txtはあくまで“提案レベルの意思表示”にすぎず、今後のAIモデルとWebの関係性がどうなるのかを見極める上での一つの材料と捉えておくのが現実的でしょう。

seojapan

Googleが品質ガイドラインを改定─AI生成コンテンツは“見抜かれ”、評価される

6ヶ月 3 週間 ago

この記事は、2025年 4月 9日に Search Engine Land で公開された Danny Goodwin氏の 「Google quality raters now assess whether content is AI-generated」 を翻訳したものです。

Googleは最新の検索品質評価ガイドラインにおいて、AIなどの自動生成ツールによって作成されたコンテンツに対し、最低評価を付ける可能性があることを明確にしました。

この変更は、Googleのシニア検索アナリストであり検索リレーションズチームを率いるジョン・ミューラー氏が、マドリードで開催された「Search Central Live」で明かしたものです。同氏によれば、Googleは品質評価者に対し、メインコンテンツが自動化された手段、または生成AIツールによって作られているページを特定し、それらを「最低品質」と評価するよう求めているとのことです。
この方針は、Aleyda Solis氏が2025年1月の品質評価ガイドライン更新に関する情報をLinkedInで共有したことで、業界に広まりました。以下に、今回のガイドライン改定で注目すべきポイントをまとめます。

25/04/09 LinkedInでAleyda Solis が共有した情報

🚨 Google is now asking quality raters to assess if the main content of a page is auto or AI generated, and if so, is lowest rated 👀 John Mueller at Search Central Live Madrid

Aleyda Solís

この変更は、2025年1月の検索品質評価ガイドラインの更新の一部です。この更新で他に何か見逃した方のために、最新バージョンの最も重要な変更点を以下にまとめました。

1 : 1. Googleが新たな定義「Generative AI」を導入

今回のガイドラインでは、Googleが初めて「Generative AI(生成AI)」という用語を正式に導入し、その定義と位置づけを明示しました。生成AIとは、機械学習モデルの一種であり、与えられたデータサンプルから学習し、新たなテキスト、画像、音楽、コードなどを生成する技術です。
Googleは生成AIを「有用なツール」であるとしながらも、その使用には注意が必要であり、悪用される可能性があることも指摘しています。この定義は、ガイドラインの「セクション2.1(重要な定義)」に追加されました。

2 : スパムの定義を再編──AIによるスケール型コンテンツへの警鐘

Googleは、検索品質評価ガイドラインにおけるスパムページの定義を大幅に見直しました。

以前の「セクション4.6.3(自動生成されたメインコンテンツ)」は削除され、新たに複数のサブセクションが追加されました。これらは、生成AIなどによるスケール型コンテンツの氾濫や、労力をかけずに大量生産されたコンテンツに焦点を当てています。

2025年版ガイドラインは、昨年発表されたGoogleの検索品質方針の大きな見直しに合わせて調整されたものであり、AI生成コンテンツのリスクにも具体的に踏み込んでいます。

各セクションの主なポイント

セクション4.6.3:期限切れドメインの悪用

→ 過去に使用されていたドメインを再取得し、ユーザーにとって価値の乏しいコンテンツを掲載することで、新たな所有者の利益を目的とする行為。

セクション4.6.4:サイトレピュテーションの濫用

→ サードパーティのコンテンツが、ホストサイトが保有するランキングシグナル(通常は独自コンテンツから獲得)を利用して公開されるケース。この手法は、単体では評価されにくいコンテンツに不当な順位を与えることを狙ったもの。

セクション4.6.5大規模コンテンツの濫用

→ 手作業による編集やキュレーションなしに、大量かつ低労力で生成されたコンテンツ。生成AIはこの種のコンテンツ生成で使われる典型的なツールとして挙げられています。

セクション4.6.6労力や独創性に乏しいメインコンテンツ

→ コピー、言い換え、埋め込み、自動生成、再投稿などにより、ほぼすべてのメインコンテンツが付加価値を持たない状態となっているページは、最低評価の対象とされます。コンテンツの出典が明示されていても、価値が伴わなければ評価は下がります。

セクション 4.6.6は、ジョン・ミューラー氏も、Search Central Liveの講演でこのセクションに特に言及し、次のように強調しています:
「ページ上のメインコンテンツ(テキスト、画像、音声、動画など)のすべて、あるいはほとんどが、ほとんどまたは全く労力をかけず、独創性も付加価値も伴わずにコピーや言い換えで作られている場合、そのページは“最低評価”とされるべきです。」

評価者はどのようにしてコンテンツが自動生成かAI生成かを正確に判断するのでしょうか?
自動生成されたかどうかを直接判定するための明確な基準は設けられていないものの、「言い換えられたコンテンツ」については新たに具体的なガイドラインが設けられました。

自動生成・言い換えコンテンツの評価基準も明文化

セクション4.6.6:生成AIコンテンツ

→ 自動化ツールを使って他のページのコンテンツを言い換えたり要約したりして生成されたコンテンツも、評価対象に。

セクション4.6.7:生成AIツールによる出力の特徴をもつコンテンツ

→ 言い換えられたコンテンツは識別が難しいが、以下のような特徴が見られることが多い:
〇一般的に知られた事実のみを含む。
〇 Wikipediaやその他の著名なサイトと内容が高く重複。
〇 ニュース記事や掲示板などを要約しただけで、独自性や価値がない。
〇「AI言語モデルとして」など、生成AIツールによる出力に見られる表現が含まれている。

3 : 「低評価」と「最低評価」の違いを明文化──再パッケージコンテンツの線引

新たに追加されたセクションでは、「最低評価」とまではいかないが、検索ユーザーの役に立たないと見なされる「低評価」コンテンツについて、評価者向けに具体的なガイドラインが示されています。

■「低」と「最低」の違い
・低評価:
一部のメインコンテンツ(MC)は再利用されているものの、キュレーションや改変に多少の手が加えられている。

・最低評価:
ほぼすべてのMCが、労力や独自性、付加価値が全くない状態でコピーや言い換えされている。

この定義により、単なる「転載」「要約」「装飾」では評価が下がることを明確にし、オリジナリティや価値を伴わないリパッケージコンテンツへの警鐘が鳴らされています。

■具体例として挙げられた「低評価」コンテンツ
・ソーシャルメディアでの追加コメントや議論がほとんどないリポスト

・埋め込み動画や「再ピン」画像など、他サイトのコンテンツを掲載しているが、作成者自身のコメントや編集が加えられていないページ

・他人のレビューを流用しただけの「ベスト○○リスト」など、独自の観点や情報がほとんどないまとめページ

Googleは、これらのコンテンツを「見かけはオリジナルでも、実質的に価値が伴っていない」と位置づけ、評価者には「質の高いユーザー体験を装った薄い内容」を見抜き、フラグを立てることを期待しています。

4 : 「フィラー」コンテンツの可視化──見た目だけの情報は“低評価”

「フィラー」コンテンツの可視化──見た目だけの情報は“低評価”
もうひとつの新セクションでは、ページの目的にほとんど寄与していないにもかかわらず、スペースを埋めてページを“それらしく”見せている「フィラーコンテンツ」についてのガイドラインが紹介されました。

■フィラーとは?
フィラーコンテンツとは、視覚的にはページを充実させているように見えても、ユーザーにとって価値が低く、閲覧体験を妨げる要素のこと。

フィラーコンテンツの対象例

・広告、汎用的な導入文、冗長な段落などのせいで、肝心の情報を埋もれさせているページ

・主要コンテンツから注意をそらすような、目立つ位置に配置されたフィラーコンテンツ

・スペースを稼ぐことで、実際よりもページが長く、内容が豊富に見えるようにしている希薄なページ

Googleは、こうしたフィラーによって「ユーザーが本当に求めている情報へのアクセスが妨げられている場合」、そのページを低評価とすべきとしています。

■評価者への指針
評価者は、単にコンテンツの有無だけでなく、ページ全体のレイアウトや情報設計が「ユーザーの目的達成をどれだけ助けているか」に注目するよう求められています。

5 : 「専門家風」に注意──誇張・ミスリード表現は「低評価」

Googleは、コンテンツ作成者やサイト自体に関する誇張された主張や誤解を招く記述にも、厳格な姿勢を示しています。

新設セクション 5.6

「ウェブサイトやコンテンツ作成者に関する欺瞞的な情報は、最低評価(Lowest rating)の強い理由になります。」
完全な虚偽とまでは言えないが、「やや誤解を招くような誇張表現」も低評価の対象とされます。
→専門的な資格を実際よりも大きく見せている
→個人の体験談を「専門家視点」と偽っている
→内容よりも“経歴推し”の構成になっている

これはつまり、評価者は主張をそのまま鵜呑みにせず、メインコンテンツが実際に示していることや外部調査の結果をもとに評価することが求められるという意味です。

「E-E-A-T(経験・専門性・権威性・信頼性)の評価は、メインコンテンツ(MC)そのものや、評判調査で見つけた情報、検証可能な資格情報などに基づくべきであり、『私は専門家です!』というウェブサイトや作成者の主張だけで判断してはなりません。」

そして、評価者が「この資格や主張は実質的な内容というよりも、マーケティング的な誇張では?」と感じた場合には、文書にはこう明記されます。

「ウェブサイトやコンテンツ作成者に関する情報が誇張されていたり、やや誤解を招くものだと思われる場合には、Low評価を使用してください

その他の変更点:細部も厳格に整理

Googleは他にもいくつか小規模な変更を加えました。

・セクション4.0:最低品質のページ
Googleは以下の文を追加しました:「ウェブサイトの所有者の利益(例:収益化)を目的に作られ、訪問者の利益や有益な目的にほとんど、あるいはまったく配慮していないページには、最低評価(Lowest rating)が必要です。」

・セクション4.5.3:ページ目的の欺瞞
ページ目的の欺瞞、ウェブサイトに関する誤解を招く情報、欺瞞的なデザインGoogleはこのセクションを改訂し、より多くの情報を追加しました。
また、表形式と箇条書きのリストで例を示し、それぞれのケースをわかりやすく分類しています。

・Low Recipe 3:新しい評価タイプ
この新しい評価タイプは、以下のような広告が目立つレシピページに適用されます:

  • 関連性のないコンテンツが多く含まれている
  • インタースティシャル広告(画面に割り込む広告)が表示される
  • 広告が目立ちすぎている

    このようなページは「Low Recipe 3」として低評価されます。

・セクション0.4:広告ブロック拡張機能
評価者は以下の指示に従う必要があります。「評価作業のためにウェブページを閲覧する際は、ブラウザに搭載された広告ブロッカーの機能をオフにすること。」
この指示は、Chromeなど一部の広告を自動でブロックするブラウザにも適用されます。

seojapan

今後2年間の検索に関する4つの予測

7ヶ月 1 週間 ago

この記事は、2025年1月 9日に botify で公開された Morgan McMurray氏の 「The Future Is Here: 4 Predictions for Search in the Next Two Years」 を翻訳したものです。

2024年は検索業界にとって、信じられないほど変革の年でした。人工知能(AI)が、消費者の意思決定プロセス全体に統合され、検索の専門家は戦略を見直し、新しいツールを取り入れ、さらに高速でパーソナライズされた検索エコシステムに対応する必要がありました。

今年のBotify Connectでは、最新のSEO動向に基づき、SEOに関する4つの主要な予測を検討しました。この記事では、それぞれの予測を詳しく説明し、変化がブランドにどのような影響を与えるのか、そしてその準備方法についての洞察を提供します。

予測1 : オーガニック検索は消えないが、キーワードは消えつつある

まず、キーワードの重要性が薄れていく理由を理解する前に、新しい検索環境を知る必要があります。オーガニック検索は依然として有効ですが、キーワードの追跡方法は、個別のキーワードターゲティングから、検索行動に基づいた広範な傾向に焦点を当てたものに進化しています。

消費者行動の変化

自然言語処理(NLP)や生成AIへの投資が成果を上げ、検索の仕組みが根本的に変わりつつあります。AIが統合されたインターフェースにより、ユーザーはより自然で流動的な方法でコンテンツにアクセスし、ロングテールのパーソナライズされたクエリが急増しています。その結果、消費者は会話型でコンテキスト主導の質問をするようになり、従来のキーワードが関連性を失う可能性があります。

また、ツールやプラットフォーム、AIアシスタントの普及により、検索はますます分散化しています。消費者は複数のインターフェイスを使ってコンテンツを検索しているので、ブランドのコンテンツが表示されるためには、これらのプラットフォームにインデックスされる必要があります。

AIアシスタントは、消費者の検索の大部分を担当するようになります。これらのアシスタントは、結果を提供するだけでなく、ユーザーに代わって行動し、ユーザーの好みに基づいて意思決定を行い、タスクを完了します。この傾向により、消費者のクエリがより複雑になり、ニーズに合わせたハイパーパーソナライゼーションが進みます。そのため、検索のロングテールはさらに細分化し、専門家が特定のキーワードに焦点を当てることが難しくなる可能性があります。

ポストキーワードの世界にはまだ遠い

従来のキーワード追跡の重要性は低下していますが、キーワードを完全に無視することはできません。検索は依然としてユーザーの意図を満たすことが重要であり、キーワードデータは消費者の意図を予測するうえで価値があります。重要なのは、新しい検索時代が「ターゲットキーワードの文字列」で構成されるクエリから「会話」の時代に移行しているということです。

従来の検索エンジン(GoogleやBingなど)とユーザーのインタラクションは、現在の検索インデックスやランキングを形作っており、短いクエリからより長く詳細な検索への移行が進んでいます。消費者のクエリも、AIアシスタントによって将来の質問を理解する手助けとなるでしょう。消費者がGoogleで行っていた検索は、ChatGPTやPerplexityなどのツールで提示されるプロンプトと似ています。しかし、会話型検索や検索の分散化(Googleが検索の中心ではなくなりつつある状況)への傾向は、消費者行動の細分化が進むにつれてランキングの重要性を低下させることを意味します。

長期的には、AIが生成した回答(AI Overviewなど)が広く統合され、消費者が情報を検索する方法が多様化していく中で、従来のランキング指標は新たな指標に取って代わるでしょう。ブランド認知度の指標として、シェア・オブ・ボイスやブランド言及は、キーワードランキングよりも優先されるようになると考えられます。

キーワードの重要性低下に備える方法

幸いにも、キーワードトラッキングが減少していく中で、検索戦略を将来に向けて確実にするために実行できる対策があります。

  1. 関連プラットフォームにインデックスされていることを確認 : 消費者がどこでブランドを見つけているかを理解し、従来の検索とAI統合検索の両方に最適化されていることを確認しましょう。
  2. 今日のキーワードデータを活用して未来のクエリを予測 : 消費者が明日ChatGPTで何を尋ねるのかを予測します。頻繁に出てくる質問は何かを把握し、ターゲットキーワードに関連する疑問を特定しましょう。
  3. シェア・オブ・ボイスやブランド言及、ブランドの権威を追跡 : ブランドの可視性を報告するときには、さまざまなプラットフォームで消費者がどのようにターゲットキーワードを使用しているか、ブランドの権威を追跡する指標を活用しましょう。あなたのブランドは表示されていますか?競合他社はどうですか?提示された情報は正確で、最新のものですか?
  4. 会話型 AIやAI概要(AIO)に重点:上位ランクのコンテンツがAI概要ライブ検索引用などの生成応答に表示されることを目指しましょう。ライブ検索を備えた回答エンジンは、上位ランクのコンテンツを取得して応答を更新するため、コンテンツが正確で、定期的に更新され、AIボット向けに適切に最適化されていることが重要です。

予測2 : 来年の今頃には、トラフィックの大部分がAIボットからのものになる

ウェブサイトへの人間のトラフィックはすでに減少傾向にあり、2026年までにトラフィックの25%が従来の検索から離れると予測されています。現在、消費者が何を検索し、何をクリックし、何を読むかなど、すべての行動は消費者に依存しています。しかし、近い将来AIボットが消費者に代わって検索やコンテンツ配信のプロセスをより頻繁に代行するようになり、検索結果から得られる大量リンクの記事の読み取りや、クエリ結果の要約といった多くの流れをAIボットが担うようになるのです。

消費者はAIアシスタントの効率性に満足しており、これらのツールは使えば使うほど精度も高まっていきます。そのため、消費者はさらにAIに依存し、使用頻度とエンゲージメントが高まるサイクルが生まれます。この結果、ウェブサイトへのトラフィックの大部分が人間のユーザーではなく、AIボットが中心になる可能性が高まっています。

AIボットによるトラフィック増加がブランドに与える影響

従来、トラフィックが多ければコンバージョンも増えるという関係がありました。しかし、AIボットによるトラフィックはコンバージョンとしてカウントされません。AIアシスタントは、ユーザーのために上位のコンテンツを要約し、ウェブサイトへのクリック数を減少させるため、インプレッションとクリック数の減少が見込まれます。しかし、これは同時に新たなチャンスをもたらします。

トラフィック量の減少は、より情報に富んだクライアントベース、向上したクライアントロイヤルティ、そして長期的な顧客エンゲージメントとコンバージョンの向上によって相殺される可能性があります。結果として、AIボットによるトラフィックの増加が、より高品質で影響力の大きいインタラクションへと繋がり、ブランドにとっては新たな価値を生むことになるでしょう。

ボットトラフィックの増加に備える方法

AIボットの数と、それらがもたらすトラフィックの量は今後さらに増加していくことが予想されます。これに伴い、ブランドは検索コンバージョンのみならず、サイトのインフラストラクチャに与える影響についても注意深く考慮する必要があります。将来の負荷を軽減するために、今から取り組むべき戦略がいくつかあります。

  1. ボット管理戦略を策定する:許可するボットとブロックするボットについて、リーダーシップと情報に基づいた決定を行いましょう。たとえば、大規模言語モデル(LLM)をトレーニングするためにコンテンツを収集するAIボットを許可しない一方で、ライブ検索ボットによる新しいコンテンツ表示は許可するなど、戦略的に対応します。ボットを管理するための戦略を組織レベルで策定すれば、関連するコストをどう処理するかについての方針が決められます。
  2. ボットの動作を追跡するログファイルを使ってボットの動作を追跡し、どのボットがどのコンテンツにアクセスしているのかを把握します。この情報に基づき、どのボットがブランドにとって優先すべきかを特定します。
  3. コンテンツをAIモデルや検索インデックスにプッシュする:ブランドにとって重要なボットを特定したら、IndexNowやPush to Bingなどのツールを活用して、コンテンツを検索インデックスやAIモデルにプッシュします。これにより、ライブ検索でコンテンツが参照され、消費者向けに生成されたAIコンテンツに正確に表示されるようになります。
  4. AIボットトラフィックがウェブサイト指標に与える影響を経営陣と共有する:AIボットによるトラフィックがウェブサイトのパフォーマンスに与える影響について、経営陣と明確にコミュニケーションを取りましょう。

予測3 : 今後300日以内に汎用人工知能(AGI)が実現し、検索の変化が加速する

正確には今後300日以内にAGIが実現するわけではないかもしれませんが、AGIは遅かれ早かれ実現する見込みです。そのため、重要なのはその準備を始めることです。AGIが実現すると、検索における変化が飛躍的に加速し、AIが消費者の検索行動を支援する方法や、SEOがAIツールを活用する方法が一変します。

AGIとは何か?(また、AGIではないものとは?)

AGI(汎用人工知能)は、人間のような認知能力を持ち、平均的な人間が実行できるあらゆる知的タスクをこなせるとされています。学習だけでなく、推論や新しい状況への適応も可能です。しかし、AGIは超人のような存在ではありません。人工超知能(ASI)は、理論的には特定の分野で人間の専門家よりも優れた知能を持ちますが、現在はまだ実現していません。

そのため、AGIに対して悲観的に考えるのではなく、検索において深い専門知識を持つ担当者はこれをチャンスと捉えるべきです。ブランドはAGIを活用してさまざまなプロセスを自動化し、内部の効率性を高めるとともに、消費者に対してより良い体験を提供できるようになるのです。

AGIは検索にとって何を意味するのか?

現在のAIモデルからAGIへの進化により、検索の新たな可能性が広がります。たとえば、リアルタイムでウェブサイトをクロールできるインテリジェントクローラーや、消費者のニーズを事前に予測して、ユーザーが質問する前に回答を提供するAIアシスタントなどが登場することが考えられます。AGIは消費者のニーズを表明する前に予測するため、カスタマージャーニーはさらに予測的かつユーザーの先回りをするものになるでしょう。

AGIに向けてブランドを準備する方法

チャンスを捉えるマインドセットを持ちましょう。ブランドには、AGIが実現する未来で成功するために必要なすべての準備を整えることができます。AGIに備えて、積極的にその機会を活用することが重要です。

自動化に投資し、AI技術を活用する:自動化に投資することで、効率とスピードを高め、リソースを節約できます。データの追跡頻度を増やし、長期的な基盤を確立して、急速に加速する変化のサイクルに備えましょう。

・すべてのプラットフォームでインデックスを維持する:コンテンツをインデックスにプッシュし、AIアシスタントがそのコンテンツを参照できるようにすることが重要です。消費者の意図と行動に注力し、検索プラットフォーム全体でブランドがどのように表示されるかを把握しましょう。

・テクノロジースタックを検証しレベルアップする:AGIが求める要求に対応できるように、テクノロジースタックを見直し、アップグレードすることが必要です。

予測4 : 2026年までに、SEOチームは生成AI検索チームになる

SEOはこれまで、マーケティングやブランド認知という広範な機能の一部として機能してきました。しかし、検索がますます分散化し、多くのプレイヤーや消費者の選択肢が開かれるにつれて、「SEO」という言葉は、従来の検索エンジン最適化にとどまらず、AI検索プラットフォーム全体でのより幅広い消費者体験やジャーニーを含む用語へと進化していきます。

SEO専門家の役割の変化

SEOの需要はなくなることはありません。むしろ、SEOの仕事は増加する可能性があります。

SEOの仕事は従来、検索というブラックボックスを解明することに注力してきました。その側面は今後もほとんど変わらないでしょう。しかし、検索プラットフォームの多様化に伴い、SEOの専門家は、ユーザーの意図、ブランドの可視性、コンテンツの最適化に関する深い理解を、より多くのチャネルに適用しなければならなくなります。つまり、SEOの仕事は、従来の検索エンジンの最適化から、すべてのAIインターフェースにおけるシームレスなエクスペリエンスを確保することへと進化します。

それでも、従来の検索SEOとAI時代の検索で成功するために必要な知識は非常に似ています。AI検索での最適な測定方法やランク付け方法はまだ確立されていませんが、SEO専門家は、これまでの不確実で曖昧なアルゴリズムの中で多くの経験を積んできました(そして最終的に非常に正確に予測してきました)。最適化戦略を決定するためのテストと追跡の方法は、AI時代にも十分に役立つはずです。

SEOチームの準備方法

つまり、実践者は既存の技術スキルを活用し、ブランドリーダーはそれを積極的にサポートする必要があります。

・AIテクノロジーの理解を深める:検索組織内でAI技術の理解を高め、進化させることが重要です。

・技術的なSEO専門家の確保:技術的なSEOの専門家をチーム内に取り入れ、十分なリソースを確保しましょう。彼らは、検索エンジンとAIアシスタントの両方に最適化されたサイトを構築するために必要なスキルとノウハウを持っています。

・主要クエリのランキングに注力:トップテールやミッドテールのクエリで上位10位にランクインすることを重視し、ロングテールの明確なコンテンツインデックスを確立しましょう。

・AI駆動型検索プラットフォームで働くスキルを習得:SEOチームがAI技術を活用して作業できるよう、専門的な能力開発とAIテクノロジー教育に投資することが必要です。

検索の未来には柔軟性が必要

AI、中央集権からの分散化、そしてAGIの導入により、検索業界のルールは劇的に変化しています。検索の実践者やリーダーにとって、今こそ適応する時期です。変化を受け入れ、チームを準備し、常に最先端のテクノロジーに投資していきましょう。2026年までに、今日の準備が検索の未来でどれだけ成功するかを決定づけることになります。

seojapan

Googleのランキングは実際どれくらい変動しているのか?

9ヶ月 ago

この記事は、2025年 2月 3日に Search Engine Landで公開された  Mordy Oberstein氏の「How volatile have Google rankings really been?」を翻訳したものです。

2024年のGoogleランキングは、前年に比べて26%の変動率の増加が見られ、一部の業界ではさらに大きな変動が発生しました。以下で、データとその洞察をご覧ください。

人生には一定の事柄がいくつかありますが、Googleのランキングはそのうちの1つではありません。ランキングの変動に関心を持っている方、またはこのウェブサイトを読んでいる方は、近年そのランキングがますます不安定になっていることに気付いているでしょう。特に業界のベテランにとっては、この変化がより顕著に感じられているかもしれません。

そのため、SEOは新しい方向に進化していると私は考えています。進化が意味することや、業界がその変化にうまく適応しているかどうかについては、また別の機会に詳しく議論しましょう(要約すると、私たちは完璧にうまくいっているわけではありませんが、失敗しているわけでもなく、変化に対応している最中です)。

この変化の主な要因の1つは、SERP(検索結果ページ)の不安定性です。私は、これを探求し、いくつかの具体的な事実を示すことを目的としています。

2024年のランク変動率

2024年のGoogleのランキング変動は、2023年と比較して26%増加しました。この変動は、単純なものではなく、複数の指標を確認し、できる限り正確なデータをもとに分析しています。しかし、2024年のランク変動がどれだけ増加したかを調べ、2023年と比較すると、少なくともデスクトップ検索では26%の増加となっています。

カテゴリー別のランク変動性:2023年から2024年の比較_デスクトップデータ

これはすべての業界に当てはまるわけではありません。
例えば、特定のニッチな業界では、2023年と比較して2024年にボラティリティが大幅に増加しています。

あなたのサイトが人気のスナックについての情報を提供している場合、そのサイトのランキング変動性は50%以上高くなる可能性があります(ちなみに、レリッシュは誰にとっても好きなスナックではありませんが)。

ただし、ほぼすべての業界で2024年に順位の変動が増加しており、1つの例外を除いて、Semrushによる追跡データでもそれが確認されています。

カテゴリー別の平均ボラティリティレベル – デスクトップデータ

2023年(それ自体がすでに「顕著」だった)と比較すると、2024年を通じてほぼすべての業界でランクの変動性が「顕著」に増加したと言えます。唯一例外は不動産業界です。

ここで注目したいのは、データが示すのはあくまで「平均的なボラティリティ」であり、2023年にすでに高かった数値が2024年にはさらに高くなっている点です(不動産業界を除く)。

Googleアルゴリズムのアップデートに関する議論をする際、私は通常、デスクトップとモバイルの比較を行うことはありません。理由としては、デバイス間の数値が非常に近いため、時間を無駄にする価値がないからです。

しかし、今回のケースでは、デバイス間で明確な違いがあり、なんと10パーセンテージポイントもの差が見られました。

カテゴリー別のランク変動性:2023年から2024年の比較_モバイルデータ

デスクトップのSERPは2023年よりも2024年に26%の変動が見られましたが、モバイルのSERPは「わずかに」16%の変動にとどまりました。

デバイス間の格差は、ニッチな業界にもわたって広がっていました。

例えば、健康分野では、デスクトップでは2024年に最も変動性が高まったニッチの1つではありませんでしたが、モバイルではその逆で、明らかに大きな変動が見られました。

これは、医療分野に関連するキーワードがモバイルで非常に不安定だったわけではなく、実際にはヘルス分野のデータはデバイス間でかなり似ているということです。主な理由は、2023年に他の業界でモバイルの変動率がデスクトップよりも高かったため、2024年においてその差が生じたことです。

カテゴリー別の平均ボラティリティレベルモバイルデータ

eコマース分野では、2024年にデスクトップとモバイルの両方で同じレベルのランク変動がありました。しかし、モバイルではその変動の平均が5ポイント高くなっていました。

モバイルとデスクトップのボラティリティ増加の差は、2023年におけるモバイルのボラティリティレベルが既に高かったことに起因しています。そのため、2024年には変動の増加が比較的小さく見えます。

とはいえ、絶対的な変動性のレベルはデバイス間でほぼ同じです。(たとえば、ショッピング業界の場合、2024年の平均変動性は両方のデバイスで8.5/10でした。)

ちなみに、ボラティリティスコアが8.5というのは非常に高い数値です。

これらの数字を見れば、2023年から2024年にかけてのボラティリティの増加がいかに驚異的であるかが分かります。

SERPは決して安定していません。

ランク変動の増加は永続的な傾向か、それとも一時的な急増か?

2024年の平均ボラティリティの増加だけでは、すべてを理解することはできません。単一の出来事、例えば1か月または2か月の極端な変動がデータを歪めている可能性もあるため、慎重に判断する必要があります。

その答えは、「いいえ」です。

2024年のボラティリティは非常に広範囲にわたっており、7月(およびある程度8月)を除けば、年初から一貫して高いボラティリティが続いていました。

月間平均ボラティリティによるSERPボラティリティの傾向 – デスクトップデータ

2023年7月には公式なアップデートがなかったため、振り返ってみると興味深い点があります。

2023年7月のボラティリティは、その月の中旬頃に発生した、奇妙で継続的な極端なランクの変動によるものです。

SERPボラティリティ – 2023年7月

画像提供:Search Engine Roundtable

このデータの重要な点と結論は、単に「ランクが不安定な時期」があっただけではなく、それがいつ収まるのか分からない「不安定な時期」であったということです。

むしろ、これからはSERPのボラティリティがどのようなものであるかについて、新しいシナリオが生まれてきているように感じられます。

Googleが今後、継続的かつ定期的にアルゴリズムのアップデートを行うと報じられていることから、状況はさらに悪化する可能性が高いと予想されます。

劇的とはどの程度劇的か?

ボラティリティの平均レベルやボラティリティの傾向だけでは答えられないもう一つの疑問があります。それは、ボラティリティがどの程度劇的なのかということです。

つまり、ランクの動きはどれほど劇的であるべきなのでしょうか?

より不安定なSERPの大きな部分は、実は小さなマイクロムーブメント(微細な動き)である可能性も十分にあります(ちなみに、SERPは何年も前からすでに非常に不安定でした。これについては後で詳しく説明します)。

標準偏差は、ランクの変動性を測定するための最良の指標の1つです。

ベースラインとボラティリティがどれほど離れているかを見ると、ランクのボラティリティ自体はそれほど劇的ではないことが分かります。

各カテゴリーの標準偏差(2023/2024)

画像提供:Search Engine Roundtable

2023年と比較して、1つを除くすべての業種で標準偏差が減少しました(「ニュース」SERPは独自の問題を抱えています)。

現在の状況では、ボラティリティの「量」は増加していますが、動きの程度自体は2023年に比べて減少しているというシナリオになっています。

これを「順位はそれほど大きく変動していない」と誤解しないでください。これは絶対的なものではなく、2023年との相対的な変動に関するものです。

例えば、デロリアンを時速88マイルで運転すると、2021年のニュースを除いた標準偏差は1.15から1.69の範囲であったことがわかります。

各カテゴリーの標準偏差(2020/2021)

2024年の標準偏差は、ニュースを除いて1.3~2.5の範囲となっています。順位が時間の経過とともに「変動が少なくなる」というわけではありません。

ランク変動の平均レベルは2023年ほど劇的ではないかもしれませんが、2021年に見られたレベルにすら達しておらず、2020年に見られた極端なランク変動のレベルを超えています。

2020年当時は、1を超える標準偏差が注目されていましたが、現在では2を超える標準偏差について話している段階です(ちなみに、自宅には標準偏差2を超えるものが4つあります)。

まださらに変動が大きくなる可能性があります。

全体的に標準偏差が高くなっている理由は、ランクの変動性が急激に上昇した数回の出来事に関係しているのでしょうか?

毎年の最高スコアと最低スコアの差

そのようではないようです。

上記のグラフは、ボラティリティの最小レベルと最大レベルの差が縮小していることを示しています。

2023年の最小ボラティリティと最大ボラティリティの差は8.1ポイントでしたが、2024年には7.2ポイントに減少しました。

これは、最大ボラティリティの「急上昇」がそれほど劇的ではなかったことを示しています(相対的に言えば)。

これには2つの理由が考えられます(それ以上の理由はありません):

  1. 最小スコアの方が高かったため、より高いレベルのボラティリティからスタートしたことになります。その結果、ボラティリティの最小レベルと最大レベルの差は狭くなります。
  2. 大きな急上昇は少なかったものの、全体的にランクの動きが「それほど劇的ではなかった」ため、2024年には変動がそれほど大きくならず、結果としてボラティリティの最小レベルと最大レベルの差が縮まりました。

すべてのデータを総合的に見ると(私の方法論にはしっかりとした根拠があります)、全体的には劇的な変動は少ないものの、ボラティリティが高まっている兆候がいくつか見られます。

なぜ?

  • 2024年には平均ボラティリティが上昇しています。
  • 2024年の順位変動は全体的にそれほど劇的ではない(標準偏差を参照)。

したがって、オッカムの剃刀(実際の剃刀とは関係ありません)を適用すると、最小ボラティリティと最大ボラティリティの差が縮まった理由として最も可能性が高いシナリオは、ボラティリティはより頻繁に発生するようになったものの、2023年ほど多くの「高値」には達しなかったということです。

しかし、反論としては、先に見た月ごとのボラティリティの傾向(便宜上ここでも追加しています)があり、これはボラティリティ量の急上昇が2024年よりも2023年の方が急であったことを示しています。

SERPボラティリティ月次平均ボラティリティ別の傾向

簡単に言うと、2023年8月と2024年8月はほぼ同じレベルのボラティリティを示しています。しかし、2023年のボラティリティが始まった時点と比べると、2024年はその時よりもかなり低いことがわかります。

もし2023年のようにボラティリティが急上昇した場合、そのレベルも上がると考えるかもしれませんが、この点に関しては「わからない」としか言いようがありません。これを公式なSEO記事で書くことは避けるべきですが、ここではそう伝えるべきではないということです(つまり、これは記事に書いていないということです)。

ただし、これが次のデータポイントに導いてくれます。この転換点は非常に優れたもので、まるでポッドキャストを聞いているかのようです。

状況は不安定ですが、誰が数えているのか?

私が数えています。

Semrushが2024年にわずか15日間、または低いボラティリティしか記録しなかったことをご存知でしょうか?

もちろん、そんなことは誰もすぐに知りませんよね?それが少し奇妙に感じるかもしれません。

しかし、これが実際の事実です。

デスクトップでは、ボラティリティが低かった日はわずか15日間、ボラティリティが「通常」だった日は83日間でした。

記録によると、2024年は365日ではなく366日でした。うるう年でしたので、数字の足し算は理解しています。

したがって、気分を良くするために、ボラティリティの高い日が1日減ったと仮定しても問題ないかもしれません。

年別ボラティリティレベルの内訳 – デスクトップデータ

ちなみに、2024年におけるボラティリティが低い日数は64%減少し、ボラティリティが通常の日数も39%減少したことを意味します。

一方で、2024年には「高ボラティリティ」の日が19%増加し、「非常に高ボラティリティ」の日が80%増加するという大きな変化が見られました。

モバイルの場合、少し異なり、2024年を通してボラティリティが低い日が数日増加しています(ただし、ボラティリティが高い日の数は変わりません)。

年別ボラティリティレベルの内訳 – モバイルデータ

ただし、2024年にはモバイルで「非常に高い」ボラティリティの日が12日減少したため、良い兆しではあります。

それでも、基本的にはどれも好ましくはありません。

2024年のデスクトップにおけるボラティリティは約78%が不安定で、そのうち36%は非常に不安定な状態でした。それはまるで悪夢のような状態で、多くの人にとって、それは実際に悪夢でしたし、今もそうです。

ボラティリティがさらに高まる? 誰が気にするのか?

少なくとも、あなたは気にすべきです。マーケティングチャネルとしてのGoogleの概念は、すでに変わり始めています。

まず、検索結果が必ずしも良い結果を出さないことが増えています。例えば、私は病状についてGoogleで検索していたところ、メイヨークリニック、WebMD、Redditなど、さまざまなウェブサイトから同じようなコンテンツを選ばなければならないことがありました。

それは、まるで「ストロベリーアイスクリーム」と「ナッツ入りストロベリーアイスクリーム」のどちらかを選ばなければならないようなものです。

そして、LLM(大規模言語モデル)やAI検索エンジン、AIO(AI最適化)、AI生成コンテンツなど、さまざまな要素が登場しています。

さらに、コンテンツの消費傾向は私の意見では完全に変化しています(ちなみに、これは常に変化し続けています)。

ああ、RedditがSERPに大量に表示されたことを忘れていました。(アイスクリームにスプリンクルをつけますか?)

それに加えて、SERPは不安定な状態です。これはかなり大きな問題です。

まるで家族や義理の家族と一緒に感謝祭のディナーを食べ、出されるのはゆで豆腐だけというような感じです。

さらに、テレビもないのでフットボールは見られず、ビールもありません。唯一あるのは1992年のZimaだけです。

それで、あなたはどうすべきか?

私はアドバイスをしているわけではありません。ただ、「なぜ気にするべきなのか」を示しているだけです。

何をすべきかは、また別の話です。それは「チャネルを多様化する」や「独自の視聴者を狙う」以上のことだと思います。

個人的には、それは私たちがどのように観客にアプローチし、彼らと共鳴するかを非常に真剣に検討することを意味すると感じています。

とりあえず、それについてよく考えてみましょう。

さらに詳しく: Google を超えた SEO: Reddit、Quora、TikTok などでブランドを構築する

seojapan

フィンテックSEO:成功が実証された戦略

9ヶ月 2 週間 ago

この記事は、2025年1月31日に Siege Media で公開された Ross Hudgens氏 「Fintech SEO: Strategies Proven To Succeed」を翻訳したものです。

当社の支援してきた中でも、金融領域はSEOの難易度が高い領域です。SEOに注力したサイトが多くひしめく中で、競合に勝つためのポイントはどこにあるのか?Ross Hudgens氏 の語る戦略を見ていきましょう。 – SEO Japan

フィンテックSEO(※)は、eコマースSEOやSaaS SEO、その他の一般的なSEO戦略とはまったく異なる課題を伴います。フィンテック企業がターゲットとするキーワードの中には、インターネット上で最も競争の激しいものも多く、目立つためには世界水準の戦略が求められます。

※FinTech(フィンテック)…金融(Finance)と技術(Technology)を組み合わせた造語

Siegeは、Mint、Quicken Loans、QuickBooksなど、世界トップクラスのフィンテック企業と連携する機会に恵まれました。これらの経験を通じて、金融市場で繰り返し成果を上げる実証済みのSEO戦略を学びました。

この記事では、金融分野におけるROIの評価方法、技術的なSEOがそれほど重要でない理由、そして金融関連のリンクを大規模に生成する方法について学びます。

http://Fintech SEO: Strategies Proven To Succeed

テクニカルSEOはあまり考慮されない

金融ウェブサイトは一般的に小規模であり、この分野では、執筆時点で2億6,700万ページがインデックスされているAmazonのような大規模なサイトは見当たりません。そのため、SEOのテクニカルな側面はそれほど目立たず、大きな変化をもたらすことは少ないと言えます。

Webサイトのページ数が10,000ページ未満の場合(この規模は金融業界では比較的大きい方ですが)、複雑な技術的な問題が発生することはほとんどありません。

とはいえ、これがテクニカルSEOが全く無視されるべきだという意味ではありません。むしろ、金融業界のSEOは、他の業界とは異なる形態をとる傾向があります。私たちの経験に基づけば、金融企業の一般的なSEOアプローチは次のようになります。

これは、この分野に存在する SEO の問題のほとんどがページ レベルで発生するためです。各クエリに勝つためには、カスタムで思慮深いコンテンツとユーザー エクスペリエンスの取り組みが必要です。Amazon のような企業では、インフラストラクチャを数千ページに拡張し、クロールバジェットなどを考慮する必要があることが多いため、、小規模な Web サイトで大規模な分析を行うことはほとんどありません。

フィンテック企業では、SEO マネージャーがほとんどのテクニカルな問題に対処できることが多いですが、そこからは社内外のチームメンバーによるコンテンツやリンクに多大な労力を費やす必要があります。

獲得の難しさからリンクの価値は高い

フィンテック業界では、生涯リンク価値が15,000ドルを超えることがよくあります。この水準のリンク価値は、インターネット上でも非常に高いものです。

これは、金融業界が非常に価値のある分野であり、リンクを獲得するのが非常に難しい業界だからです。

ファッションやウェディング業界では、オーガニックリンクが自然に多く発生することがありますが、フィンテック業界では、ブランド間で見られる商業的な関連性が影響し、オーガニックリンクが自然に発生することはほとんどありません。

リンクを依頼する際には、最終的な目標が金銭的な利益を得ることであることが相手に伝わるため、しばしば断られることがあります。そのため、創造性を発揮し、優れたコンテンツを提供することが重要となります。

テレビやデジタル広告が参入障壁になることも

奇妙に思えるかもしれませんが、住宅保険自動車保険生命保険といった用語で上位にランクインするのが難しいのと同じように、フィンテック業界ではテレビやデジタル広告が参入障壁となる可能性があります。

フィンテックSEOの性質上、他の業界で自然に実行できる「ブランド」戦略は、この分野ではおそらく効果的に実行できません。しかし、同じブランド戦略がブランド認知にとって依然として重要であり、実際に発生する少数のオーガニックリンクを促進し、CTR(クリック率)の向上や検索結果の信頼性の向上に寄与し、最終的にはランキングの向上に繋がります。

そのため、もしあなたのビジネスに何らかの広告戦略が欠けている場合、フィンテックにおけるブランド指標はほぼゼロに近くなる可能性が高いです。結果として、SEOパフォーマンスも悪化する恐れがあります。

この事実は受け入れがたいかもしれませんが、競争が激しく、利益率の高い業界では、現実的な状況です。私たちは、2語の金融用語で上位表示を目指すクライアントには、長期的に成功するために広告を通じたブランドマーケティング戦略に注力するようアドバイスしています。

スタートアップの資金調達までのジャーニーを活用してリンクを生成する

フィンテック業界では、資金調達ラウンドに関するニュースを通じてリンクを生成することが、成功するSEO戦略の重要な柱の一つとなります。インターネットで最も有名なフィンテックコンテンツサイトであるNerdWalletは、IPO(新規公開株)を実施し、その後、収益発表に関するニュースサイクルを繰り返し報道されることで、多くの利益を得ています。

これらのリンクは非常に権威が高く、一度得られると複製が不可能であり、競争力のあるランキングに上位表示されるために欠かせません。リンクを獲得する難しさを考えると、競争の激しい用語で上位を目指すフィンテック企業が、ブートストラップ(自己資金)だけでそれを達成するのは非常に難しいと言えます。

このプロセスを活用するためには、隣接市場で資金調達を行った競合他社を探し、そのバックリンクプロファイルで「資金調達」という用語を検索することで、さらに多くのリンクを獲得できます。また、資金調達のストーリーを最大限に活かすために、資金を調達する際には同じ出版物にアプローチして売り込むことが効果的です。

個人金融ブロガーは避ける

リンクは非常に価値が高く、獲得が難しいため、リンクを増やすには手動でのアウトリーチが効果的な場合が多いです。しかし、個人金融ブロガーがこの業界で受け入れてくれるとは期待しない方が良いでしょう。彼らに売り込むと、他の誰よりも高額な料金を要求されることがほとんどです。

そのため、個人金融に特化しない、関連性のある業界でリンク構築戦略を展開することをお勧めします。具体的な例としては、以下のようなものがあります。

  • 全国ニュース
  • ローカルニュース
  • トップファネルランキングによる受動的なリンク生成
  • ウェルネス、健康、特別関心グループ

共感を呼ぶコンテンツは、しばしばSUCCESモデルに従っています。このモデルは、シンプルで予想外、信頼性が高く、具体的で感情に訴え、ストーリー性があるコンテンツを指します。

お金に関するトピックの魅力の一つは、それが非常に感情的な話題であることです。これを活かして、業界に合ったデータ主導のコンテンツを作成し、その後、ニュースメディアに売り込むことが可能です。

価値実現までの時間が短いシミュレーター

財務的な影響を考慮すると、ほとんどのフィンテック企業にとってシミュレーターの導入は理にかなっています。計算機は競争が激しい用語であることが多いですが、同時にWebサイトの重要な要素でもあります。シミュレーターは、受動的なリンク獲得に最も貢献するツールの一つであり、特にうまく活用できる場合は積極的に取り入れるべきです。

私たちのマクロ戦略では、価値実現までの時間をできるだけ短縮することに重点を置いています。上のGIFで示されているように、このシミュレーターを使用すると、ユーザーはほぼ瞬時に答えを得ることができます。これを実現するためには、ユーザーの一般的な回答を事前に入力したり、geoIPで場所を推測したりする方法が有効です。

ユーザーが入力しなければならない回数を最小限に抑えることで、ランキング上位にランクインし、リンクを生成するための優れたエクスペリエンスを提供できる可能性が最大限に高まります。

クイックアンサーエリアを備えた「What Is」トピックの利点

金融分野でよく使われるクエリタイプの一つに、「キーワードとは何ですか?」があります。ユーザーは複雑な金融に関する課題を理解しようとしており、このようなクエリを通じて情報を得ようとします。

Googleが進化する中で、SEO担当者としての私たちの目標は、ユーザーにできるだけ迅速に情報を提供することです。これを最も効果的に行う方法は、スクロールせずに見える範囲、主にサブヘッダーの部分で、簡単な回答を提供することです。

この戦略を実現するためには、コンテンツ領域のユーザーエクスペリエンス(UX)を再構築する必要がある場合もありますが、長期的なランキングを達成するためには、この方法を強くお勧めします。

さらに、定義を目立たせることで、他のサイトが自分の投稿でそれを参照する可能性が高まり、最終的には受動的なリンクを増やし、成功に繋がる重要な要素となります。

YMYLの編集レビュー

金融業界は「あなたのお金、またはあなたの人生」に深く関わる分野であり、ユーザーがクレジットカードを使用する前にその組織のアドバイスを信頼できることが非常に重要です。

この点を考慮すると、コンテンツは金融の専門家が執筆するか、少なくとも専門家によるレビューを受けることが強く推奨されます。また、著者と編集者の信頼性をWebサイト上で明確に示し、可能な限りファーストビューで信頼性を確立することが必要です。

例えば、Bankrateは、編集者に関する情報だけでなく、コンテンツに入る前に投稿のレビュー担当者に関する情報も提供することで、この点をうまく実現しています。これらのレビュー担当者の略歴はマウスオーバーで表示され、詳細を知りたい読者に迅速に信頼感を与える仕組みになっています。

UX、コンテンツ、リンク = $$$

要するに、フィンテックSEOとは、ページレベルでコンテンツの品質に投資し、リンク生成にリソースを投入して目標を達成することを意味します。そして、これらすべてを結びつけることで、世界クラスの製品を作り上げることができます。

その上で、最も競争が激しい用語のいくつかで上位にランクインするためには、何年も費やす覚悟が必要です。例えば、2語の金融用語で上位にランクインするためには、長期的なタイムラインで見ると、4年以上かかる場合があります。それでも、時間をかけて取り組む価値は十分にあります。

もし、タイムラインを短縮するためのサポートをお求めでしたら、フィンテックに特化したSEO重視のコンテンツマーケティングサービスについて、ぜひお問い合わせください。

やはりUX、コンテンツ、そして獲得が難しい自然リンクにフォーカスされた内容でした。シミュレーターがコンテンツとしてもリンク獲得の側面でも活路となる点は非常にうなずけます。「とは」に位置するコンテンツおいても、長期的なランキングを達成するためにスクロールせずに見える範囲で、簡潔な回答を提供する重要性を説いています。いわゆる「ゼロクリック対策」にも手を伸ばす必要がありそうですね。 – SEO Japan

seojapan
確認済み
29 分 39 秒 ago
SEO Japan フィード を購読

人気記事トップ10

人気記事ランキングをもっと見る