「.store」ドメインのような新しいgTLDはグーグル検索で不利になるのか?
グーグル検索SEO情報②
「.store」ドメインのような新しいgTLDはグーグル検索で不利になるのか?
ccTLDにするかgTLDにするかはターゲット国によって決める (Reddit) 海外情報
次の質問がReddit(レディット)のSEO掲示板に投稿された。
「.store」のドメイン名を取得しました。このドメイン名は、「.com」や、「.nl」「.fr」「.de」などの国別のドメイン名と比べるとグーグル検索のSEOで問題になるでしょうか?
グーグルのジョン・ミューラー氏が回答した:
まず気をつけなければいけないのは、ccTLDとgTLDの違いだ。
- ccTLD ―― 国コード別トップレベルドメイン。「.jp」「.nl」「.fr」「.de」など
- gTLD ―― ジェネリック(分野別)トップレベルドメイン。「.com」「.net」「.store」など
ccTLDは1つの国に焦点を当てる傾向があるが、次の場合には問題ない:
- その国で主に販売する予定である場合
- グローバルに販売する予定である場合
もしccTLDを使っているが別の国を主にターゲットにしたい場合(たとえば、今は「.de」のドメイン名だが、米国をターゲットにしたい場合)、その国のccTLDを新たに取得するか、gTLDを使うほうがいい。
新しいTLDのすべてはgTLDだ。参考までに言っておくと、一部は地域特化のようにみえるが、技術的にはそうではない(たとえば「.berlin」というトップレベルドメインがあるが、これはgTLDだ)。
SEOのためのccTLDとgTLDの違い以外にも、ユーザーの観点も考慮する必要がある。彼らは別の国のユーザー向けだと認識したリンクをクリックするだろうか?
日本の「.jp」や英国の「.uk」は、ccTLD(国別コードトップレベルドメイン)に分類される。グーグル検索ではその国のユーザーをターゲットにしていることを示すシグナルになる。英グーグル(google.co.uk)の検索結果では、たとえ英語サイトであっても「.co.jp」ドメイン名のサイトが(一般的なクエリで)上位表示することは稀だろう。したがって、特定に国のユーザーをターゲットにするなら、その国のccTLDを取得するのは理にかなっている。
一方で、「.com」や「.net」のように特定の国とは結びついていないトップレベルのドメイン名は、gTLD(分野別トップレベルドメイン)に分類される。また一部の国のccTLDは、グーグル検索ではgTLD扱いされる(たとえばツバルの「.tv」やアンギラの「.ai」など。gTLD扱いされるccTLDはこちらのドキュメントにリストがある)。
質問者が取得したという「.store」は新しいgTLDだ。新しいgTLDをグーグルは特別扱いせず、SEO的に有利にも不利にもなることはない。これはグーグルが公式に表明している(実際に、あまり行儀の良くないサイトが多い新gTLDのスパムECサイトが検索結果によくでていた時期もあった)。
- ホントにSEOを極めたい人だけ
成人向けサイトではGooglebotの年齢を確認する必要なし
素通りさせてかまわない (グーグル検索におけるセーフサーチとは) 国内情報
成人向けサイトやアルコール・タバコなど、コンテンツの閲覧に年齢確認を必要とするサイトに関係する技術ドキュメントの更新をお伝えする。
次の推奨が追加された:
Googlebot が年齢確認なしでクロールできるようにする
年齢確認が必須となっているコンテンツについては、年齢確認をトリガーすることなく Googlebot がコンテンツをクロールできるようにすることをおすすめします。これは、Googlebot のリクエストを確認し、年齢確認なしでコンテンツを提供することで可能です。
Googlebotがアクセスしたときは、確実にGooglebotであることを確認したうえで年齢確認なしにコンテンツを配信できる。こうすることで、年齢確認の要素によってクロールがブロックされることを防げる(こうした処理をしてもクローキング扱いにはならない)。
- 成人向けサイトのすべてのWeb担当者 必見!
noindexはインデックス制御、robots.txtはクロール制御
役割を混同しない (John Mueller on Twitter) 海外情報
ツイッターでの、グーグルのジョン・ミューラー氏とフォロワーのやり取りを紹介する。検索エンジンのクロール制御に関するものだ。
(フォロワー)あるページパラメータに「nofollow」と「noindex」の両方を追加した後も、Googlebotはこれらのページとパラメータをクロールし続けています。今後、Googlebotにこれらのページをクロールしないように指示する他の方法はありますか?
ミューラー氏は次のように回答した:
robots.txtはクロールを制御するもので、noindexはインデックスを制御するものだ。
robots.txt is for controlling crawling, noindex is for controlling indexing.
— John Mueller (official) · #StaplerLife (@JohnMu) May 31, 2023
ミューラー氏の言わんとしていることがおわかりだろうか?それぞれの仕組みの働きは次のとおりだ:
noindex ―― インデックスさせない(正確には、検索結果にでないようにする)
nofollow ―― そのページのリンクをGooglebotがたどらないようにする(URL発見やランキングシグナルとして利用させない)
robots.txtでのdisallow ―― 指定したURLをクロールさせない
noindexを指定しているページも、nofollowを指定しているページも、Googlebotはクロールする(そもそもクロールしなければ、これらの存在を認識できない)。
一方で、robots.txtでdisallow指定すればクロールを禁止することになり、ページの中身を読ませないようにできる(ただし、robots.txtでブロックしていてクロールできず中身も読めないページでも、URL自体はインデックスして検索結果にでてくることがある)。
質問者の目的がクロールの制御なのであれば、robots.txtで設定するのが正解だ(もし検索の対象にしたくないのであれば、noindex指定があることをグーグルが把握できるようにクロールは引き続きさせなければいけない)。
- ホントにSEOを極めたい人だけ
Search Console一括データ エクスポートでびっくりな高額請求にならないための事前対策
効率的な4つの構成を提案 (グーグル 検索セントラル ブログ) 国内情報
Search Consoleの一括エクスポートを利用すると、BigQueryにデータを日時でエクスポートできる。分析には非常に便利だ。
しかしBigQueryは、使い方によっては料金が発生し、思いがけずに高額になってしまうこともある。請求利用料金が高額になってしまわないようにするためには、「どんな状況で料金が発生するのか」「どうすれば費用を抑えられるのか」を知っておくといい。
Search ConsoleデータのBigQueryエクスポートに特化した効率的なデータの活用方法を、グーグルが検索セントラルブログで解説した。
次の4つの構成を提案している:
- 請求アラートと制限を作成する
- 元データに直接ダッシュボードを構築しない
- データ ストレージの費用を最適化する
- SQL クエリを最適化する
一括エクスポート機能を利用しているなら、詳細を元記事で確認してほしい。
内容が技術的でわかりにくい場合は、データ処理を担当している部署やパートナーにこの記事を添えて「ウチは大丈夫?」と確認するといいだろう。
- 一括エクスポート機能を利用しているすべてのWeb担当者 必見!
デジタル庁のサイトがちゃんと作られていて参考になるらしい
一見するとなんてことのないサイトだけれど (Qiita) 国内情報
デジタル庁のサイトは、一見するとなんということのない簡素なサイトに見えるのだが、分析すると実際には非常に精巧に構成されているそうだ。
次の点で、一般的なサイトとは一線を画しているとのことだ:
- 洗練されたシンプルさ、そしてデザイン
- JIS規格に沿ったウェブアクセシビリティ
- モダンなフロントエンド技術の採用
相当にスキルが高いウェブデザイナーが関わっていると推測される。ウェブサイトの設計とデザイン、構築に関わっている人は、元記事とそこからリンクされている資料を参考に、どこがどのようにスゴイのかを確認するといい。
- すべてのWeb担当者 必見!
- ウェブデザイナーに伝えましょう
海外SEO情報ブログの
掲載記事からピックアップ
モバイル検索の新機能とBardの改良に関する記事をピックアップ。
- Google、モバイル検索でPerspectivesフィルタを導入
個人のクリエイターに焦点を当てたフィルタとのこと
- SEOがんばってる人用(ふつうの人は気にしなくていい)
- Google Bardがロケーション情報を取得し関連性がより高い回答を返すようになる
ローカルSEO戦略にも影響するか?
- SEOがんばってる人用(ふつうの人は気にしなくていい)
ソーシャルもやってます!