ChatGPTでSEOは終わった? そんな軽いコンテンツじゃ昔から上位表示は難しかった気がする【SEO情報まとめ】

AIチャットの登場でSEOは終わるのか? Webライダー松尾氏は、「AIで作れるような軽いコンテンツだったら、以前から上位表示できてないのでは?」「1ページ目に必要な人の本心を考え抜く材料をAIは学習できていない」と言う
よろしければこちらもご覧ください

AIチャットの登場でSEOは終わるのか? Webライダー松尾氏は、「AIで作れるような軽いコンテンツだったら、以前から上位表示できてないのでは?」「1ページ目に必要な人の本心を考え抜く材料をAIは学習できていない」と言う。

ほかにも、「Googleマップで悪質な脅迫、対処法は?」「FAQリッチリザルトは乱用で抑制された?」「新生オフィスアワー」などなど、最新事情やテクニカル情報もふくめ、あなたのSEO力アップに役立つ情報をまとめてお届けする。

  • Googleマップで脅迫「★1を消してほしければお金を払え」、対処法は?
  • FAQリッチリザルト表示をグーグルが減らしたのは意図的だった
  • グーグル、全サイトのMFI移行をついに完了
  • 新生オフィスアワー開始! モバイル用サイトマップの運用、ECサイトのペイウォール、検索結果の画像を選択したいなど
  • Search Consoleの一括データエクスポート機能の使い方をグーグル社員が解説
  • ロシアのサイトから大量のスパムリンクが! どうすればいい?
  • SEO視点では、最適なリンク本数は何本?
  • ニュースサイト向けSEOのベストプラクティス
  • JSレンダリング時にGooglebotが外部APIを呼び出すのを防ぐにはどうすればいい?
  • Google、AIと検索を融合したSearch Generative Experience (SGE) を発表
  • Googleヘルプフルコンテンツシステムが数か月後にアップデート、「隠れた宝石」コンテンツを上位表示する

今週のピックアップ

ChatGPTでSEOは終わった? そんな軽いコンテンツじゃ昔から上位表示は難しかった気がする
SEOを実際には知らない人がそう言うだけ (松尾 茂起 on ツイッター) 国内情報

ChatGPTのようなAIチャットの台頭や、グーグルが発表したSGE(Search Generative Experience)のようなAIを用いた新しい検索サービスの登場で、「SEOは終わった」とか「SEOの終焉だ」と吹聴する人がいる。果たしてそうなのだろうか?

ウェブライダー松尾茂起氏のツイッターでのコメントを紹介したい。

ChatGPTのようなツールは、使いこなせば非常に便利だ。しかし、それ単体でコンテンツ作成の完全な置き代わりとなるものではない。松尾氏が指摘するように、「SEOが終わった」という人は自分でコンテンツを作り込んだ経験がない人に違いないというのは筆者も同意だ。

言い換えれば、ChatGPTで終わってしまうようなSEOしかできていなかった人は、これまでたいしたことができていなかったんだろうということだ。つまり、早晩他のコンテンツに埋もれてしまっていたはずなのだ。

松尾氏は長編バージョンの見解もツイッターに投稿している。こちらも納得できる内容だ。

※全文を読むには「Twitterで会話をすべて読む」をクリック/タップしてツイッターの投稿へ移動する

松尾氏のポイントは次のとおりだ:

  1. 「AI来た、オワタ」の言葉は煽動的なので、触れすぎないように注意しよう

  2. なんだかんだでコンテンツは求められ続ける気がする

  3. AIを恐れるのではなく、AIを活用して自分の仕事のバリューをどのようにしてアップデートできるかを考えとよさそう

筆者の見解もあわせてお伝えしたい。

なにか新しい技術が登場するたびに、SEOは終了させられてしまう。筆者がSEOに関わってから20年近くになる。これまでに「SEOは終わった」を幾度となく耳にしたが、いまだに終わっていない。検索サービスがある限りSEOが終わることはない。

もちろん、新しい技術や機能に適合することは重要だ。しかしSEOの根底にあるのはユーザーの本当に役に立つコンテンツを提供することであり、それは、これまでも現在も未来も不変だ。

さらに言えば、AI生成コンテンツが増えることで、そうしたコンテンツをAIが学習し、さらにチャットAIの出力が均質化されていくことも想像できる。この場合、傑出したコンテンツを作ることの価値が増していくと考えるべきだろう。

チャットAIによる粗製濫造コンテンツによってグーグルの処理が惑わされる可能性もある。しかし、そうしたことは一昔前のSEO向けコンテンツ大量生成・ランキングでも発生していたことだ。グーグルには、「だれでも作れるそこそこのコンテンツ」と「本当にユーザーに価値を提供する良質なコンテンツ」を見分ける能力をさらに高めていってほしい。

★★★★★
  • すべてのWeb担当者 必見!

グーグル検索SEO情報①

Googleマップで脅迫「★1を消してほしければお金を払え」、対処法は?
グーグルに通報、相談を (櫻庭里穂 on ツイッター) 国内情報

Googleマップの脅迫被害の実例を紹介する。次のような流れだったそうだ:

  1. ★1の最低評価レビューを大量に付けられる
  2. 4.8くらいだった評価が2.8にまで下がる
  3. 集客に影響がでる
  4. 「レビューを消してほしければお金を払え」と脅される

おかしなレビューを通報するようにツイッターで協力をお願いしたところ、最終的には大部分の不正レビューを削除できたそうだ。

小規模の飲食店を相手に★1のレビューを付けると脅し、代わりにお金を要求する、この恐喝ともいえる不正行為は2022年あたりから米国で発生していた。日本でも似た手口の営業妨害が起きているようだ。

レビューだけはなく写真も含め、事実に基づかないコンテンツの投稿はマップユーザーの投稿ポリシーが明確に禁止している。脅されても決してお金を払ってはいけない。次の2通りの方法でまず対処してほしい:

レビューの報告は各レビュー右側の[⋮]から
報告内容は「スパム」が適切だろう

こうした不正行為にはグーグルも対処しているが、マップのスパムはなくなっていない。自衛するしかないのだが、それも難しいのが現状だ。早い段階で気付いてグーグルに相談するしかない。

ちなみに、こうしたレビューの削除依頼は、一般ユーザーに頼まなくてもGoogleビジネスプロフィールマネージャから自分でもできることは知っておくといいだろう(複数まとめて送信もできる)。

★★★★☆
  • すべてのローカルビジネス運営者 必見!

FAQリッチリザルト表示をグーグルが減らしたのは意図的だった
乱用で役に立たなくなったから? (Search Console Help) 海外情報

よくある質問のリッチリザルトがモバイル検索でもPC検索でも表示されなくなったことを報告した。公式な情報がようやくでてきた。掲載先は、Search Consoleの仕様変更や障害を通達するヘルプページだ。

次のように説明している:

グーグルは、検索結果に表示されるFAQのリッチ結果を減らしました。その結果、パフォーマンスレポートで報告されるよくある質問の検索の表示回数が減少する可能性があります。これは意図的な変更です。構造化データが検索結果でリッチリザルトとして表示されることをグーグルは保証しませんのでご注意ください。

障害によるものではなく意図して表示を減らしたとのことだ。

ヘルプページでは理由までは明らかにしていないが、グーグルのジョン・ミューラー氏は、非公式な見解だとしたうえで、次のようにコメントしている:

サイトはFAQマークアップを追加するのが好きで、FAQリッチリザルトを表示できれば検索結果でより多くのスペースを得る。しかし、度が過ぎると結果が役に立たなくなっていく。

ほかの検索要素と同じように、適切なバランスはときどき再評価するのは意味があることだ。

乱用が過ぎたため、対策したのだろうか?

★★★☆☆
  • FAQリッチリザルトを実装しているすべてのWeb担当者 必見!

グーグル、全サイトのMFI移行をついに完了
移行できないサイトはそのまま (コガン ポリーナ on ツイッター) 国内情報

モバイル ファースト インデックスへの移行は、最後の組を残すだけ

モバイルファーストインデックス(以下、MFI)の移行状況に関してグーグルのジョン・ミューラー氏はこのように昨年末にコメントしていた。

アユダンテのポリーナ氏が、管理しているサイトのうちMFI未移行だったサイトがすべて、2023年5月22日付けでMFIに移行していることを確認した。

筆者も、唯一残っていた未移行サイトを調べてみたら同じ日付で移行していた。

残っていたサイトに対する最終となる処理を、本当に実施したとのことだ。ミューラー氏が認めている。

最後のバッチ! モバイルでまったく動かないサイトがわずかに残っているが、これらは今後、デスクトップの Googlebot でクロールされる。

※「バッチ」とは自動実行の処理セットのこと

ただし、これをもって「すべてのサイトがMFIには完全に移行した」わけではない。モバイル対応できていないサイトがごくわずかだが残っている。

そうしたサイトは今後もパソコン用 Googlebot がクロールし続け、きちんとインデックスされる(当然のことながら、インデックスされるのはPC向けページ)。

MFIに移行してないサイトを抱えていたならば、Search Console を確認してみよう。切り替えが済んでいれば問題ない。もし、切り替えが済んでいなかったとして、1週間ほど経ってもそのままなら、そのサイトはもうMFIには移行しないのかもしれない。

なお、メインクローラは、Search Console のメニューから[設定]を選び、右側の「概要」にある「インデックスクローラ」で確認できる。

★★★★★
  • MFI移行していないすべてのWeb担当者 必見!

新生オフィスアワー開始! モバイル用サイトマップの運用、ECサイトのペイウォール、検索結果の画像を選択したいなど
インデックス問題トラブルシューティングの紹介あり (Google 検索オフィスアワー) 国内情報

あんな氏が1人で運営する新体制での#Google検索オフィスアワーの記念すべき第1回目が公開された。あんな氏が回答した質問は次のとおりだ。

  • モバイル用サイトマップの運用(32:09
  • EC サイトをペイウォールコンテンツとする(33:17
  • サイト上次々とインデックスが外れた(35:13
  • 検索結果の画像を選択したい(37:06
  • Google サイトが検索結果に表示されない(38:23
  • 一瞬でもリダイレクト元 URL を表示しない(40:19
  • 特定のキーワードでの検索結果が落ちた(41:22
  • クロスドメイン設定と検索エンジン(43:00
  • ハッキングされたコンテンツの対応(43:42
  • リンク付きの紹介はリンクスパム扱いになるか(45:53
  • nofollow の実装方法(47:03
  • Search Console のセキュリティ警告への対応(47:38
  • サーチコンソール レポートの数字がおかしい(50:03
  • 検索結果に正しい商品情報が反映されない(51:38
  • FAQ リッチリザルト検索結果の急落(42:40
  • 検索結果上のサイト名を指定したい(54:09
  • 動画コンテンツへの検索流入比率が増えた(55:49
  • ページエクスペリエンスは不要なのか(57:01
  • 見に覚えのない URL でスパムページが生成(58:43

オフィスアワーをより役立つものにしようとあんな氏は細かな改善を試しているようだ。全体をとおして視聴して、感想や意見があればフィードバックして協力していこう。

なお、今回のオフィスアワーでは、Q&Aに入る前に、筆者を含むヘルプコミュニティのプロダクトエキスパートたちが、自作したインデックス問題の包括的なトラブルシューティングのドキュメントに関して紹介する時間をもらっている。こちらも参考にしてもらえたらありがたい。

★★★★★
  • すべてのWeb担当者 必見!
グーグル検索SEO情報②
  • Search Consoleの一括データエクスポート機能の使い方をグーグル社員が解説
  • ロシアのサイトから大量のスパムリンクが! どうすればいい?
  • SEO視点では、最適なリンク本数は何本?
  • ニュースサイト向けSEOのベストプラクティス
  • JSレンダリング時にGooglebotが外部APIを呼び出すのを防ぐにはどうすればいい?
海外SEO情報ブログの掲載記事から
  • Google、AIと検索を融合したSearch Generative Experience (SGE) を発表
  • Googleヘルプフルコンテンツシステムが数か月後にアップデート、「隠れた宝石」コンテンツを上位表示する

グーグル検索SEO情報②

Search Consoleの一括データエクスポート機能の使い方をグーグル社員が解説
まずは基礎編 (Google Search Console Training on YouTube) 海外情報

Search Consoleでは、検索パフォーマンスのデータをグーグルのBigQueryに毎日継続的に一括エクスポートできる。これは、今年の2月に提供された機能だ。

この機能の使い方をダニエル・ウェイズバーグ氏が動画で解説した。

シリーズになるらしく、まずは基礎編。トピックは次のとおり:

  • 一括データエクスポート機能の概要
  • 一括データエクスポートの開始手順
  • 一括データエクスポートの管理

大量のデータを分析する必要がある大規模サイトのウェブ担当者は視聴するといい。なお、ウェイズバーグ氏は英語で話しているが、日本語字幕を利用できる。歯車アイコンから「字幕」⇒「日本語」を選択すると字幕を日本語に切り替えられる。

★★★★☆
  • SEOがんばってる人用(ふつうの人は気にしなくていい)
  • 解析担当者に伝えましょう

ロシアのサイトから大量のスパムリンクが! どうすればいい?
無視してかまわない (Google SEO office-hours) 海外情報

2023年5月の英語版オフィスアワーで次の質問があった:

私のサイトには、ロシアのウェブサイトから多くのリンクがあります。こうしたリンクをどのようにブロックすればいいですか?

これらのリンクは、検索でのランキングを下げることで私のサイトに害を与えようとしているのだと思います。

グーグルの社員(スパム対策チーム)からの回答は次のとおりだ:

私たちのアルゴリズムは通常、インターネット上のスパムやゴミリンクを認識して無視するのに非常に優れた仕事をする。そうしたリンクが大量にあっても、本当に心配する必要はない。ただ私たちのシステムに処理を任せ、自分のウェブサイトの改善に焦点を当てるだけでいい。

今のグーグルはスパムサイトからのリンクを自動的に無効化してくれる。ほとんどの場合は無視できる(はずだ)。

★★★☆☆
  • SEOがんばってる人用(ふつうの人は気にしなくていい)

SEO視点では、最適なリンク本数は何本?
ユーザー視点で考える (John Mueller on Twitter) 海外情報

グーグルのジョン・ミューラー氏が、ツイッターで次のような質問を受けた:

SEOに従うなら、1つのページには内部リンクと外部リンクを何本設置すべきですか? サイト管理者に役立つデータはありますか?

ミューラー氏は次のように答えた:

リンクがゼロなのはどうかと思うが(URL発見などの問題もあるため)、リンクの数が1本がいいのか10本がいいのか100本がいいのかは、私ならばユーザーにとってどうかで判断する。

質問したのはSEOを始めたばかりの人だろう。思考が完全に検索エンジンに向いてしまっている。

内部リンクにせよ外部リンクにせよ、重要なのは「それがユーザーにとって意味のあるものかどうか、役立つものかどうか」だ。本数は重要ではない。

ただし、どこからもリンクされていないページは「URLの発見」という点で不利だ。グーグルがページを発見し、最低限の関連性を理解できるように、最低1本のリンクを確保していくほうがいいだろう。

★★★★☆
  • SEOがんばってる人用(ふつうの人は気にしなくていい)

ニュースサイト向けSEOのベストプラクティス
ニュースサイト運営者は要チェック (Google Search Central on YouTube) 海外情報

ニュースサイト向けのSEOのベストプラクティスを、グーグル検索チームのダニエル・ウェイズバーグ氏とチェリー・プロマウィン氏が動画で解説した。

キーポイントを簡潔にまとめると次のとおりだ:

  • グーグルの検索結果には、ニュースコンテンツがさまざまな形式で表示される(テキスト、画像、動画、リッチリザルトなど)

  • SEOのベストプラクティスとして、E-E-A-T(経験、専門知識、権威、信頼性)が重要である

  • 正確な公開日と構造化データは、検索結果での認識性を向上させる

  • 画像と動画は、関連性があり有益でなければならない

  • ニュースポリシーへの準拠は、グーグルニュースへの掲載に不可欠である

  • マネタイズを優先するあまりユーザーエクスペリエンスを損なってしまわないようにする

  • リンクしたページと関係性があれば開示するといった透明性を推奨する

ニュースサイトの運営者は視聴して詳細を学ぶといい。

こちらの動画も日本語字幕を利用できる。

★★★★★
  • ニュースサイトのすべてのWeb担当者 必見!

JSレンダリング時にGooglebotが外部APIを呼び出すのを防ぐにはどうすればいい?
robots.txtでブロック、CSRは要注意 (Google SEO office-hours) 海外情報

2023年5月の英語版オフィスアワーのQ&Aをもう1つ紹介する。JavaScriptに関するものだ。

質問は次のとおり:

ウェブページのJavaScriptをレンダリングする際に、Googlebotが外部APIを呼び出すのをどうやれば防げますか?

こちらが回答だ:

robots.txtでAPIをブロックすることができるが、注意が必要だ。クライアントサイドレンダリングを使用しており、ページのコンテンツがこれらのAPIに依存している場合、Googlebotはコンテンツを表示するためにAPIにアクセスする必要がある。そうしないと、Googlebotがそれらのページを見たとき、そのコンテンツがページに表示されない。

robots.txtを使用してアクセスを制御できない外部ドメイン名のURLについては、JavaScriptでこれらのAPIを読み込む際に、ページをリクエストしているのがGooglebotならばAPI読み込みをスキップするようにできる。

なかなか難しい問題だ。外部のAPI呼び出しに回数の制限があったり費用が発生したりする場合、今のGooglebotはインデックス時にJavaScriptの実行も含めてレンダリングするため、影響がでてしまうのだ。

そのAPI呼び出しで取得するコンテンツが重要ではないのならば、プログラム側で制御したりrobots.txtで制御したりするのもいいだろう。ただしその場合も、インデックスすべきコンテンツのレンダリングに影響しないように配慮する必要がある。

しかし、APIで取得する内容がページの主要なコンテンツなのであれば、そうもいかない。この場合は、Googlebot のクロール頻度を下げる方法の公式解説を参考に、クロール頻度を下げるしかないのかもしれない。

★★★☆☆
  • 技術がわかる人に伝えましょう

海外SEO情報ブログの
掲載記事からピックアップ

検索トラフィックに大きな影響を与えるかもしれない、来るべきアップデートに関する記事をピックアップ。

この記事の筆者

【執筆】

鈴木 謙一(すずき けんいち)

「海外SEO情報ブログ」の運営者。株式会社Faber Companyの取締役Search Advocate(サーチ・アドボケイト)。

海外SEO情報ブログは、SEOに特化した日本ではもっとも有名なSEO系ブログの1つ。米国発の最新のSEO情報を中心に、コンバージョン率アップやユーザーエクスペリエンス最適化のための施策も取り上げている。

正しいSEOをウェブ担当者に習得してもらうために、ブログでの情報発信に加えて所属先のFaber Companyでは、セミナー講師や講演スピーカーを主たる役割にしている。

テーマ別カテゴリ: