CyberAgent SEO Information

Ameba20周年にあたってAmebaのSEOを振り返ってみる

11ヶ月 3 週間 ago

Amebaが20周年を迎えることができました。これもひとえにブロガーさん読者のみなさんをはじめ、多くの関係者のみなさんのおかげです。本当にありがとうございます。

さて、今回はそんなAmebaでどんなSEOを行なってきたのか書ける範囲で書き留めておきたいと思います。

AmebaのSEOを担当することになった日

広告事業でクライアント様向けにSEOを行なっていた私に突如としてAmeba(アメブロ)のSEOを見てくれないか?という話が舞い込んできました。メディア担当役員の部屋でアメブロの検索流入が著しく低下している事実が告げられなんとかしてほしいという依頼を受けました。適当に工数を見積もって引き受けたのですが、恐ろしいことにウェブマスターツール(現Search Console)も導入されていませんでした。まずはウェブマスターツールを導入したのですが、その後想像を絶する量のスパム通知がやってきて、そっとPCを閉じました・・。その後「本当にSEOやらないとダメですか?」と聞いたほどに惨憺たる状況の中でアメブロのSEOはスタートしました。
その数ヶ月後には会社の方針もあって自社メディアのSEO担当、いわゆるインハウスSEO担当者になり本格的にAmeba、アメブロのSEOを進めていくことになります。

組織に受け入れてもらうための日々

とは言え、広告の事業から来たどこの馬の骨かもわからない元スパマーの人間の言うことなど簡単に聞いてもらえるはずもありません。課題をたくさん抽出してもなかなか動いてもらえない状態でした。今では全社的に部署の垣根を飛び越えてスムーズに開発も進むようになっているのである意味うらやましく思います笑
当時は、なぜその施策が必要なのか?いかにその施策がクリーンなのか根気強く説得しました。キーマンとは頻繁に飲みに行き、ようやく一緒にやっていこうという空気を作ることができました。

スパムファイティング

さんざんリンクスパムをしてきた人間がスパムファイティングするようになるとは皮肉なものです。当時のアメブロにはさまざまなスパムがありました。被リンクサイトとして作られている発リンクスパムサイト、アフィリエイトだけを目的としたアフィリエイトスパム、他サイトへの誘導だけを目的としたドアウェイスパム etc.. これらに対して自動的に検出できる仕組みルールベースと機械学習によって構築しました。おもしろいようにスパムをつぶすことができて気持ちよかったのを覚えています。金魚すくいで金魚をがんがんすくえているような感覚でした。このスパムファイティングによって明らかにアメブロのSEOの状況は良くなり検索流入が改善していきました。

クロール&インデックスの効率化

アメブロのSEOで一番自信を持っている部分はここです。ブログにはGoogleにインデックスされやすいものとされにくいものがあります。「おはよう」という文章と朝日だけが掲載されたブログは残念ながらインデックスされません。一方で、長文でトピックもはっきりしたものはほとんどがインデックスされます。
詳細は伏せますが、アメブロではインデックスされやすいものに特にクローラーが回りやすい仕組みを導入しています。最近ではややその効果が薄くなってきているので再度テコ入れが必要だと思っていますが・・・。
この施策によって検索流入は最高潮を迎えました。おかげさまで全社で表彰していただきましたが、本当はこの複雑な仕組みを構築していただいたエンジニアがもらうべき賞だなと思っていました。にしても、この頃がアメブロのSEOに取り組んでいて一番良い時期ではなかったかと思います。

ブログ以外のSEO

Amebaにはブログ本体意外にもさまざまな付随サービスがあります。

https://blogger.ameba.jp/

https://blogtag.ameba.jp/

などのブログをまとめたようなページもあれば、

https://official.ameba.jp/

オフィシャルブログのトップもあります。

これらも結構ビッグワードで上がっているため、ジャンルの精査や追加などを地道に行なっていました。

このあたりの地味な作業は自分自身は苦手なのでメンバーに全振りでしたが笑

さまざまなGoogleのプロダクトの導入

ウェブマスターツール

ここまでGoogleのさまざまなプロダクトを導入してきました。
最初は、プロダクトの導入というほどではないですが、ウェブマスターツール(Search Consoe)を各ブログごとに設定できるようにしました。これによって各ブロガーさんに検索流入を意識してもらう狙いでしたが、導入後すぐにアメブロ全体の流入が落ちたときは針の筵でした。タイミング悪すぎました。

App Indexing

App IndexingとはSERPでサイトへのブルーリンクをクリックするとアプリが立ち上がるものです。当初ブーストもあったためすぐに取り掛かりリリースしましたが、ほどなくしてブーストもなくなり、App Indexingを解除しました。

Verification API

当時の記事がこちらになります。GoogleのAPIを使ってワンクリックでSearch ConsoleやGoogle Analyticsと連携ができるようになりました。

モバイルファーストインデックスへの対応

こちらもプロダクトというわけではないですが。モバイルファーストインデックス(MFI)への対応として、セパレートURLを統合しました。
もともと、
ameblo.jp/ID/
s.amebalo.jp/ID/
というセパレートだったものを
ameblo.jp/ID/
2016年の12月に統合しました。
超大規模サイトのセパレートURLの統合(ダイナミックサービングへの統合)というのは過去に見たことがなかったため、大きなかけで統合直後は食事も喉を通りませんでしたが(嘘です)特に数値を落とすことなく無事統合できたことを覚えています。
ただ、急いで準備をしたにも関わらずなかなかMFIがやって来ずに白い目で見られたのは良い思い出です。さすがに先走りすぎました笑

AMP

Googleプロダクトの導入で一番思い出深いのはAMPかもしれません。おそらく世界ではじめて超大規模UGCのAMP導入事例となったはずで、どうなるかわからないという状態での見切り発車でした。結果としてバグが起こりつつ数週間で安定するという状態でした。なかなかリリースまで大変でしたが、当時はAMPに特別な枠(カルーセル)もあり、結構美味しい思いをさせてもらいました。
いまとなってはAMP自体アメブロでは終了させましたが、本当に「良い思い出」と言う感じです。

SEOクライシス

そこまで順調に推移した検索流入が2012年突如として大幅に下落することになります。そうです。パンダです。パンダアップデートです。パンダアップデートでは多くのUGCが影響を受けましたが、アメブロも例外ではありませんでした。
あまりの流入減少に社内では「SEOクライシス」と呼ばれるほどでした。思えばこの時期がSEOをやっていて一番苦しかったと思います。コアアップデートもそうですが、このような大型のアップデートは根本的な対策がありません。一般的に良質なコンテンツを作成することですが、UGCではコンテンツのコントロールができません。
オフィシャルブログで芸能人名でより上げることができないか?とかブログジャンルでより上げられないか?とさまざまな角度で改善策を模索していたと思いますが、もはや記憶にありません苦笑
結果としてパンダアップデートそのものによる影響をとりはらうことはできませんでしたが、幸いにもその後徐々にですが数値は回復しパンダアップデート以前の数値程度には戻すことができました。このときは、本当に良いブログを書いてくれるブロガーさんに感謝しました。

安定期

その後は比較的安定したSEOを行えてきたかなと思います。
途中で、レシピの構造化データを試したり、画像サイトマップを良質な画像が掲載されているブログに導入したり、クロール&インデックスがよりスムーズに行えるようにさまざまなアルゴリズムを改善したりしながら多少アルゴリズムの影響を受けながらも比較的良好な状況を保ち続けています。
これは私の力というよりは、施策を実行、実装してくれたエンジニアとメンバーそしてなにより良質なコンテンツを書いてくださったブロガーさんのおかげです。

今後について

正直言うと、もうAmebaのSEOは私が関わらなくても多くの社内メンバーだけで回るようになってきています。そのため、私が今後どこまで関わっていくか分かりません。
ただ、ブロガーさんはじめ関わっていくすべての方への感謝を忘れず、ブロガーさんのコンテンツがより一層世の中に届くように特に技術面での対策を行なっていこうと思います。
 
最後になりますが、あらためてブロガーの皆様ありがとうございます。今後ともよろしくお願いいたします。

2024年 SEOと検索エンジンの予想

1 year 11ヶ月 ago

ここ2年ほど年初にその年の検索エンジンやSEOについて勝手に予想してきましたが、せっかくなのでアメブロ全体のアクセスにちょびっと貢献する意味も込めて今年もやってみたいと思います。

 

2022年 

 

2023年

 

2024年は元旦から自然災害が発生するという誰も予想していなかったスタートとなりました。

改めて被災者の方に心よりお見舞い申し上げるとともに犠牲者の方のご冥福をお祈り申し上げます。

 

さて、2024年のSEO・検索エンジンについての予想ですが結論からいうと2023年の流れのままであろうと思います。

 

1.アルゴリズムは信頼性重視になる

昨日、ちょうど辻さんとも話していましたが、アメリカで11月には大統領選が行われます。大統領選前にはフェイクニュースが流れないように徹底するのがGoogleの姿勢であると認識しています。

そのためにはEEATの旧EAT部分、Expertise、Authoritativeness、Trustがより重要視されると考えられます。昨年より影響の出始めたもう一つの「E」であるExperienceに反しては今年の前半から中盤くらいで一旦弱まるのではないかと考えます。ただ、この旧EATは概念ですので、何をもってEATが高いと判断するのかは現時点で不明です。これまでの傾向を見ると大規模サイトが有利であったり、被リンクが多いものが有利であったり、サイテーション(指名検索やメンション)が多いものが有利であったりしましたが、そのままなのかより複雑な指標が入ってくるのかは分かりません。

いずれにしても小規模サイト、新興サイト、個人サイトや個人ブログ等について逆風になる可能性は高いと思われます。

我々にできることは結局のところサイトやコンテンツの信頼性を高めるための質の良いコンテンツを作り続けることと浮き沈みがあっても諦めずにサイトの運営を続けていくことしかないと思われます。それが、サイトの規模を大きくし、被リンクを増やし、サイテーションを増やしていくことにつながるはずです。

また、メーカーや店舗等のリアルなビジネスの場合はサイトの中身だけでなく、実際の商品やサービスがそれらにつながっていきます。ビジネスの品質そのものを高めることこそが最強のEAT対策と言えるかもしれません。

2.SGEは一般にはローンチされない

GoogleのSearch Generative Experienceそのものは益々進化していくと思います。Bardもそうですが、大規模言語モデルはますます発展するとみられますしハルシネーションへの対策もしてくるでしょう。現在SGEは、Search Labs経由での提供となっており一般に広く公開しているわけではありません。SEOの専門家の中にはSGEが2024年の早い段階で通常のGogole検索に実装されると予想している方もいらっしゃいますが、私は早くても年末、おそらく今年の実装はないと予想します。

社会情勢が不安定な中でハルシネーションのリスクがあるものをGoogleがリリースする可能性は低いと考えているからです。イスラエルでもウクライナでも戦争が起こっているうえに、アメリカの大統領選もあります。生成系AIの特徴をかんがえると(だいぶ)がんばればハルシネーションを発生させることはできなくないかもしれません。そのリスクはGoogleも考慮するでしょう。

また、そもそもSGEというかBardからですがMicrosftの対抗策だったはずです。そのMicrosft、Bingの利用率は増えているとは言えない状況だと思います。そんな中でSGEをリリースするというリスクをGoogleが背負う必要はないと考えます。

3.Googleの収益戦略の加速

昨年は検索結果の途中にリスティング広告が差し込まれたり、動画検索がYouTubeだらけになりその先のYouTubeでは広告が増えたりと、明らかにGoogleの収益化戦略が加速していました。Googleはもはやインフラではあるものの一般企業であり、また昨年は大規模なレイオフを行ったことからも理解できる部分はあります。ただ、さまざまなところで広告が増加したりGoogleの資産への誘導がなされたりという部分は、我々サイト運営者やSEOsにとってはつらいところではあります。

しかしながら、この流れというのは止まらないのではないかと思います。動画検索がいまから元の姿に戻りYouTube以外の動画コンテンツにトラフィックを流すという可能性は少ないでしょう。SERPsからリスティング広告を減らすこともないでしょう。

これからはさまざまなバーティカルサーチにおいてGoogleがビジネスを展開する可能性も考えておかなければならないかもしれません。

 

4.スパム対応の厳格化

Googleはトラスト、セーフティーに関わるチームをレイオフ時に解散させるなど、検索者が望む姿と逆行するような気配がありました。しかしながら、ホスト貸し(寄生サイト)を中心にスパムへの対応は引き続ききっちりと行われています。恥ずかしながらアメブロ上でもスパムは存在し(多くはスパムフィルタでブロックされます)それらへのマニュアルアクションは現在でもしっかりと行われている状態です。

Googleは引き続き世界中のスパムの実態を把握しようと努力していることも知っていますし、特に(過去のリンクスパム大国だった)日本の現状には気を配っています。一部の知恵を絞ったリンクスパムに関してもGoogleは対応策を検討しているようですし、引き続きホスト貸しに関しては対処していくものと思われます。

5.ユーザー行動の重要性の向上

Googleの人と話していても、User Behaviorへのフォーカスを進められます。昨年すでにその傾向は見られていましたが今年はよりその傾向は強まるかもしれません。User BehaviorはCTRや直帰率などの単純なものだけを指標にしなければスパムされにくいという特徴もあるでしょう。また、ユーザーが本当に良いと思っているサイトを炙り出すのに適していると思われますので、よりユーザーにフォーカスした、ユーザーに優しいアルゴリズムになると考えられます。

一方で、「1」に記したような信頼性というところとは相反するものが上がる危険性が捨てきれないことから、ユーザー行動指標が強くなるのは今年の前半だけかもしれません。ただ、大統領選が終わったり、社会情勢が安定したりした際には、かならず今よりも強くなる指標ではないかと思います。

 

6.SEO業界の若手の台頭

これは希望です。そろそろ世代交代の時期に入っていると思います。さまざまな場でSEOを生業にしている方と交流させていただきますが、若い方には本当に優秀な方が多いです。弊社でもSEOに関わる人、SEO専門の人だけでなくエンジニアやデザイナー、プロダクトマネージャーなどだいぶ若返りました。おじさんは私一人ということが多いです。(もはやおじいちゃんの扱いをされていますが)ぜひ若い方は横のつながりをもっていただきお互いを高め合っていただきたいと思います。

 

ということで簡単ではありますが2024年のSEOを勝手に予想してみました。

先にも書いたように、今年はあまり動きがなさそうな気がするので書き始めて「書くことがない」ことに気づいてしまいました。。なので若干無理矢理感があるかもしれませんがご容赦いただければと思います。

 

@kimuyan

 

2023年の予想の振り返り

1 year 11ヶ月 ago

まずは、令和6年能登半島地震で犠牲になられた方、羽田空港航空機衝突事故で犠牲になられた方のご冥福をお祈り申し上げます。また、当地震・事故により被災された方、負傷された方におかれましては心よりお見舞い申し上げます。

 

このような状況下でSEOについて発信すべきかどうか迷いましたが、できることをやっていくしかないと考えブログを投稿させていただきます。

前回のブログ投稿はなんと約1年前に2023年のSEOを予想するものでした。

https://ameblo.jp/ca-seo/entry-12782685173.html

当たらなかったものもありますが、比較的”かすった”感じにはなっているのではないでしょうか?

今回はこの”かすった”状態から昨年の予想の反省をしながら2023年を振り返ってみたいと思います。

 

1.ホスト貸しがいい加減終わる

終わってはいませんし、今でも筍ように日々出てきていますが、Googleが対処したことによって上位からはほぼ消えたクエリもあります。マニュアルアクションによって対処されることもあるようで貸し手側からしても貸しにくい状況ができつつあると思います。 ただし、一部のクエリにおいては依然として上位をホスト貸しが占める状態は続いておりこちらはGoogleのさらなる対応が期待されます。

なお、9月にAustinで行われたPUBCONではホスト貸しへの対応について日本から強い要望があったということをGoogleのGary Illyes氏が発言していました。Garyは私のことをHenjinと呼びますが、「we have some friends one of them I call “Hen-jin” which is basically just a weird person」という発言があったとのこと。。。

 

2.アルゴリズムの一層のAI化

これはそれなりにあったのかなと個人的には思っています。特に11月のアップデートではこの要素はある程度強かったように感じます。

アルゴリズムのAI化については2軸あると考えられ、1つは品質評価ガイドラインにおけるユーザー評価テストの結果の学習です。なぜかGoogleは公にはこれを認めたがりませんが、Microsftが実施していると公表しているものであり、Googleもそれと同じか近いことを行っていると考えられます。

もう1つはユーザー行動を学習したアルゴリズムです。Brighton SEOでDanny Sullivan氏がGoogleがユーザー行動をなんらかの形で使用していることを認める発言をしたと言われています。ユーザー行動がランキングに影響することはデータを分析しても明らかであったと思われますが、これが直接的な要因なのか間接的な要因なのかは不明です。

ユーザー行動が直接ランキングに影響する、つまりユーザー行動が良いのが上がり悪いものが下がるのか、ユーザー行動が機械学習のよって間接的にランキングに影響する、つまりユーザー行動が良いグループと似たようなサイト・ページであれば上がり、ユーザー行動が悪いグループと似たようなサイト・ページが下がるのかは定かではありません。(個人的には両方ではないかと思います)またひと言で「良い」「悪い」と言ってもクエリやページ・サイトの種別によって理想系はことなるため。良し悪しの判断は複雑だと思われます。

いずれにしても、ユーザーの感覚をアルゴリズムに反映するということは今後も行われているいくのではないかと思います。

 

3.MUMの本格導入

最大のポイントはここかもしれません。外れたような当たったようなです。MUMは名前すらほぼ出てきませんでした。かわりにGoogleでは、Bard、SGEが出現し一定のユーザーの支持を受けていると言えるでしょう。

ご存じの通りChatGPTが昨年1月から急激に世の中に広まりました。あわせて「生成形AI」「LLM」という言葉も一般的になったと思います。

ChatGPTベースの生成形AIをMicrosftBingが搭載し、ますますChatGPTが世間に広まっていくとGoogleも生成形AIに対して動かざるを得なくなります。3月には英語圏でサービスを開始し、5月には日本語圏でも開始されました。当初は精度が低いなどの問題があり、ChatGPTに劣る部分も目立ちましたが、幾度かのアップデートを経て十分に”使える”サービスになっていると思います。もちろんハルシネーションはまだバリバリありますが。なお、Bardはもともと大規模言語モデル「LaMDA」と「MUM」を使用していたと思われますが、現在は「LaMDA」に変わってより強力な「PaLM 2」を使用しています。

そして、Googleは5月から米国で8月末には日本でも、SGE,Search Generative Experienceのサービスを開始しました。

SGEはSearch Labs内の機能で、一般的なGoogleと異なり検索結果の最上部に生成系AIによって検索クエリに対してチャット型の回答が返されます。SGEは「PaLM 2」を使用しています。Bardとは異なりSGEはMUMを使用していないとみられるため、多少返ってくる回答が異なります。

このSGEですが、検索結果の最上部に表示されることから「SEO終了」など揶揄されましたが、その件については数日以内も記事に書きたいと思います。

いずれにしても、生成形AIによるチャット型の回答という「新しい検索のモデル元年」という形ではあったのではないかと思います。

 

4.GA4に四苦八苦する

これは人それぞれでしたね。解析界隈の方々が事前にたくさん情報を出してくださったおかげで、当初の予想よりはだいぶ楽に移行できたのではないかと思います。

個人的には、GA4から若手に解析系を引き渡すことができたので世代交代にはよいツール変更だったなと思います。

 

5.SEO界隈の育成や世代交代が活発になる

私事ですが、引退できる地場を整えることができたと思っています。

個人的には比較的育成に時間を費やし、広告事業の若手SEOコンサルには週30分×2本の講義をほぼ1年通して行うことができました。講義型式のものは数百枚のスライドと数十本の動画にまとめて、これから入って来る人にも基礎的な学習ができるように整備できました。 メディアのほうは1名はもう自分と同じことができるレベルになりました。あと1名そこまで引き上げられれば盤石です。

他社のお話も聞いても若手が伸びているという話を聞いていますので、非常に嬉しく思います。どんどんおじさんたちを突き上げて抜いていっていただければと思います。

昨年はGoogleのSearch Central Liveでひさびさにリアルな交流が復活しました。こういう場で若手同士積極的に交流することで切磋琢磨して業界を引っ張ってもらえたらと思います。余談ですが、うちのメンバーが幹事するそうなので、その節は何卒参加してやってください。

ということで、去年の自分の予想とその周辺を振り返ってみました。細かいアルゴリズムの話以外はおおむね検索全体の話にも触れられたと思います。アルゴリズムの話が聞きたい方は別の場で。次回は、2024年の予想について書いてみたいと思います。

 

@kimuyan

2023年のSEOは、Google検索はどうなるのか?(予想)

2 years 11ヶ月 ago

新年あけましておめでとうございます。

今年もよろしくお願いします。

 

2022年も検索エンジン、SEOまわりではさまざまなニュースがありました。

個人的には、ホスト貸し(寄生サイト)にまわりについて多く取り上げてきましたが、

それ以外でもコアアップデート、ヘルプフルコンテンツアップデート、スパムアップデートなどなど数多くのアップデートがありましたし検索UIにおいても多くの変化がありました。

 

さて、2022年になってすぐ1年を予想する記事を書きました。

結果としてはとても微妙な感じになってしまいましたが今年も恒例行事として今年1年の検索エンジン、SEOを予想していきたいと思います。

 

ホスト貸しがいい加減終わる

昨年、ホスト貸しに警鐘を鳴らす記事を書きました。すでにいくつかの寄生サイトの下落が見られますし、貸し手もランクダウンしているような傾向が見られています。

GoogleもHost Lendingと呼んで警戒を強めています。

昨年の終盤にGoogleのGary Illyes氏と話す機会が2回ほどありました。

そこでこのHost Lendingについて状況を確認しました。

そこでは

 「Host Lendingはスパムである」

 「Host Lendingにはマニュアルアクションを行っている」

 「マニュアルアクションしたものを機械学習していく」

 「Host Lendingはどんどんスパムとして通報してほしい」

とのことでした。

もちろんすべての人がホスト貸し憎しというわけでもないと思いが、ホスト貸しによって公平なSEOができなくなっていると考えている人は、どんどん通報していただきたいと思います。

その量によって、どれだけ学習できるかがきまるはずです。

多くの人が地道に通報を行っていけば今年中にはある程度ホスト貸しは上位表示できなくなっていくのではないかと思います。
(まだマニュアルアクションに依るところは大きいと思いますが)

 

アルゴリズムの一層のAI化

JADEの長山さんの記事に書かれれていましたが、GoogleはAIファーストにおいて遅れをとっていたとのことです。

確かにSMX AdvancedでもそのあたりはMicrosoftに挑発?されていたような気がしますね。

遅れをとったとは言えそこはさすがにGoogleであり爆速で巻き返してきたと言えると思います。

かつてWeb担の記事でも品質評価であったりユーザー行動であったりをなんらかの判断材料として使っていることをGoogle自らが示唆していますが、BERTなどのモデルを使用することによって学習できる速度や量、精度はかつてに比べて圧倒的に進化していると思われます。

先述のスパムの通報から学習して最終的に機械的に処理する部分もそうですし、先日シンガポールで行われたSearch Central Liveで出てきた「Crawling Selection」つまりは、クロールするかどうかをURL等から事前判断する部分についても機械学習がベースになっていると考えられます。

Crawling Selectionは当然それ以前にそれぞれのURLパターンごとのコンテンツ品質を学習して予測したうえで行うわけですから、コンテンツの良し悪しを判断しているとも言えます。

このあたりは私が担当しているアメブロでもある程度行っておりユーザー評価テストの結果を学習したアルゴリズムによって特に高い評価を得たものが優先的にクローリングされるようにしています。

我々でもある程度このような仕組みを作れるくらいなので、Googleであれば圧倒的に高レベルな品質判定ができると思います。

すでに完成形は近いのかもしれませんが、「人が本当に良いと思うものが上がる」という世界により一層近づくのではないでしょうか?

すでにただ長い(文字数が多い)だけのコンテンツは上がらなくなっていますし、これからは「◯◯なものがあがる」というように言葉で表現することが難しくなる「なんか良いものがあがっているな」というものになるのかもしれません。

本当の意味で上質なコンテンツ、サービスだけが勝つという世界に徐々に近づいているということは間違いないのではないでしょうか?

 

なおユーザー評価テストを行なった結果とランキングの関係性はこのような形になっています。

左がinformationalクエリ、右がtransactionalクエリです。

Y軸はランクで数字が小さい(ランクは高い)ほうが下になります。

X軸はユーザー評価で数字が大きいものが評価が高くなります。

このようにランクとユーザー評価はすでにある程度一致していると考えられます。

MUMの本格導入

AI化につながる部分ですが、実は昨年もっとMUMの導入が進むと思っていたのですが特に進捗はなかったように思います。

現時点でMUMを導入していることが発表されているのはコロナ関連くらいでしょうか?

MUMの特徴はなんと言っても日本語を含む75言語でトレーニングされているということでしょう。

プロダクトレビューアップデートは日本語には導入されていませんが、MUMが導入されれば多くのアップデート(今後は「システム」と呼ばれる)に言語の垣根がなくなるかもしれません。

MUMの導入がなかなか進まない背景は分かりませんが、BERTの1000倍強力なモデルであることを考えると毒にも薬にもなるのかもしれません。

結果として慎重にならざるを得ないのかと。

それだけ検索結果に大きな影響をおよぼしかねないのかもしれません。

昨今のGoogleの動きを見ていると、検索結果をがらっと大変動させることを好んでいないように思います。

これは当然ウェブマスターやSEOsに配慮しているわけではなく検索者への配慮でしょう。

いつも検索して出てきたものが出なくなったというように準指名検索のようなものの変動を抑えたいのではないかと思います。MUMという強力なモデルを安易に入れることで検索者が混乱するのを防ぎたいのではないかと考えています。

とは言え、言語の垣根がないことであったりBERTよりも圧倒的に強力なモデルであったりととんでもなく魅力があるものであり、その実績はコロナ関連情報でも示すことができていると思いますので、そろそろ導入されてもおかしくないのではないでしょうか?

なお、MUMが導入されてどんな変化が起こるのか?はもちろん分かりませんが前述のように「本当に人が良いと思うものが上がる」という世界に近づくのではないかと思います。

 

GA4に四苦八苦する

私自身がこれです。もともと解析分野は得意ではないもので・・・。

なんだかんだでユーザー行動はSEOにおいて大事だと思います。

それも単純に滞在時間が長ければ良いとかPV数が多ければ良いとかではなく、”目的別に理想的な行動がとられているか?”が重要であると考えます。

それを考えるとGA4に慣れ親しんでおかなければならないのですが・・・。

まあ、私は常時「チーム戦」なので誰かに任せてしまう可能性もあります笑

とにかく頑張りましょう。

 

SEO界隈の育成や世代交代が活発になる

これは正直言って、私の個人的な目標になります。

ただ、SEOの業界はどこかがはじめると追随する癖がありますので笑

これまでSEO業界はお世辞にも育成のうまい業界ではなかったと思います。

私自身育成は大の苦手でした。

それが2022年にはじめて育成に手応えを掴むことができました。

今年は多くのメンバーを育成して組織として成長させるとともにいつ何があっても大丈夫なように、世代交代ができるように準備していこうと思います。

弊社としては複数人の若手のエース級を育成する予定でいます。

各社育成には課題を持っていると思いますので、切磋琢磨していけたら良いですね!

 

 

以上方向性も深さもバラバラの内容をつらつらと書きましたが、個人の勝手な予想ですのでお許しください。

この予想があたってもあたらなくても2023年が皆様にとって良いお年となりますように。

2023年も検索エンジンをGoogleをSEOを楽しんで参りましょう!

 

@kimuyan

サイト・サブディレクトリ貸すな! 危険!

3 years 1ヶ月 ago

昨年末に、2021年のSEOを振り返るとして記事を投稿しました。

ここで、「ホスト貸し・サブディレクトリ貸しの横行」について触れました。

辻さんも「寄生サイト」について警鐘を鳴らされています。

 

ここ数日Twitterを中心にこのホスト貸しビジネスについての議論が起こりました。

(その中には私自身反省というか考えさせられることもありました。。)

ただ今日はここで特定の事業者に対して何かを言おうとは思いません。その事業者がホスト貸しをしていたり仲介していたりする証拠を私自身は持っていませんし、仮に持っていたとしてもSEO業界の人間が特定事業者ばかりをたたくことは、叩かれない他の事業者を喜ばせてより一層地下に潜らせる恐れがあると考えているためです。(抑止力になるかもしれませんが)

自分自身含めてリンクスパムをやっていたSEO事業者が「リンクやっています!」と表で一切言わないばかりか外部登壇など目立つことを嫌がっていたのを思い出します。

ただ、今回この問題をSEO業界以外から提起していただいたのは非常にありがたく思いますし、SEO事業者以外の方なら特定の事業者の名前を出されるのもやむを得ないというか全然問題ないと思います。

 

ホスト貸しは借り手だけでなく貸し手にもリスクが?

さて、前置きが長くなりましたがサイト・ホストの貸し借り、サブディレクトリの貸し借り、いわゆる寄生サイト(以下ホスト貸し)は本当におすすめできません。

いままでは正直なところ最後の賭けでやってしまうところがあっても仕方ない部分があるかもしれないと若干許容する気持ちもあったのですが、先日のGoogleのSeptember 2022 Core Update によって、ホスト貸しは本当におすすめできなくなりました。(

 

正直借りる側は上がらないことも多々あるし、上がっていても落ちることもあるという以外たいしたリスクはないのかもしれません。貸してくれるところを求めて移転を繰り返せばよいのかもしれませんし・・・

一方で貸し手側はこのコアアップデート実際はその前のアップデートから傾向は見られていると思いますが)によって局面が変わったと思います。比較的多くの借り手が下落するという現象が起きるとともに複数の貸し手側が下落する現象が確認できています。

もちろんコアアップデート中に起こったことなので、100%サブディレクトリを貸していることが原因とは言えませんし統計学的にどうなのかと言われると、そんなに母数がないのでなんとも言えませんが、辻さんもTwitterでおっしゃっていましたが私もサブディレクトリ貸しが下落の原因だと思われる事象を複数確認しています。

参考までにこちらのデータとグラフをご覧ください。

 

ホスト貸しをしている56サイトについて9月のコアアップデートでの上昇、下落の前後比較をしています。

上昇 3 5.4%
やや上昇 4 7.1%
変化なし 28 50.0%
やや下落 5 8.9%
下落 16 28.6%
全体 56 100.0%

 

変化なしが最も多かったものの上昇に比べて下落がかなり多いところは気になります。

ただ、今回のアップデートはホスト貸しにおける"借りているサブディレクトリ"、要は寄生部分だけが落ちているケースはかなり目立ちましたので必然的なものだとは思います。

 

そこで、これらの中でいくつかのサイトにおいて寄生部分を除いた"純サイト"部分だけがどうなっているかを調べてみました。

こちらは某メディアです。かなりトラフィックのあるサイトでサブディレクトリは落ちているもの、落ちていないものがありましたがそれ以外の部分も普通ではなかなか見ないレベルでの大幅下落となっていました。

最近よく問題になる医院・クリニックのサイトのサブディレクトリを貸しているパターンです。

5月の下落が壮絶すぎますので今回も単純なコアアップデートの影響かもしれませんが、下がっていることに変わりはありません。サブディレクトリにノイズコンテンツが入ることで専門性が下がってしまうことだってないとは言い切れないように思います。

ややエンタメ寄りのメディアです。こちらも大幅に下落しています。

今回のコアップデートで下落するような理由が特段見当たらないようなサイトです。

某ニュースサイトです。ニュースも一部サイト上下動しているので単純な普通のコアアップデート影響である可能性はありますが大幅に下落しています。

数は少ないですが、大幅下落しているところはどうやらサブディレクトリだけが落ちているわけではないように思われます。

因果と相関の話と同じで、貸しているものが引っ張ったのか借りているものが引っ張ったのかはわかりませんが。

ただ、繰り返しになりますが、サブディレクトリを貸しているサイト全体が下落している率が比較的高いことと、その他の下落サイトと比較して下落要因が見当たらないのに落ちているサブディレクトリ貸ししているサイトが複数あったことは事実です。

個人的に今はサブディレクトリを貸しているサイト、すなわちホスト貸しをしているサイト、貸し手側が落ちる可能性が十分にあると考えています。

これはペナルティ的なものかもしれませんし、ホスト全体のトピック性の問題かもしれません。

サイト全体が特定のトピックを持っている場合に、サブディレクトリにそのトピックと関係のないトピックが入ってくることによって、トピック性がぶれてしまうのではなかとも思います。

 

いずれにしても、リンクスパムで被リンクを受けている側だけでなく発リンクしている側にもリスクがあるように、ホスト貸しにおいてはすでに貸し手にも、というか貸し手にこそ大きなランク下落のリスクが伴うと考えていたほうが良いと思います。

サブディレクトリが検索されても本サイトのサイト名が表示

さらに、先日よりモバイルの検索でサイト名が表示されるようになっています。

ホスト貸しをしていると、貸しているサブディレクトリ部分が検索されても貸し手側のサイト名が表示されます。

 

検索者からすると誤って過度にその情報を信頼してしまう可能性があることが懸念されますが、ホスト・サブディレクトリの貸し手からしたら、「病院なのに比較コンテンツなんてやってるのか・・」とか「保険会社なのにクレジットカードの比較コンテンツなんてやってるのか」とか検索者に違和感を持たれる可能性があります。大袈裟に言えばブランド毀損につながる可能性があると思います。

まとめ

現時点でホスト貸しにおいて

・サブディレクトリ配下を貸している側が落ちる可能性が出てきた

・サブディレクトリ配下が検索されても貸し手のサイト名が出ることでブランド毀損する可能性が出てきた

ということが言えます。

 

さらっと書きましたが、これは非常に危険なことだと思います。

「手間なくレベニューシェアで収益が得られます」

のような謳い文句で営業してくる仲介業者がたくさんあるはずです。

手間なく収益が得られることにリスクがないと思いますか?

そんなリスクまで犯してホスト・サブディレクトリを貸しますか?

 

この記事を書いた理由は、「借りる側」と「仲介業者」にとってはおいしすぎてきっと”変わらない”と思ったからです。

彼らが変わらざるを得なくなるようなGoogleの大きな変化もあるとしても少し先になるかと思います。

なので、結局最後に一番損をする「貸す側」の方にこのリスクの認識が広がってくれればと思います。

 

P.S.

どこまでがホスト貸しなのか?は私もよくわかりません。

コーポーレートサイト含め自社運営のサイトの下はOKなのか?

それともトピックが違ったらダメなのか?

そのあたりの問題は難しくて私も何が正解なのかわかっていません。

ただ、第三者にサブディレクトリを貸してしまう行為はリスクが高すぎると思います。

 

木村 賢 (Twitter:@kimuyan)

これからSEOをはじめる人に

3 years 7ヶ月 ago

今日はいつもと少し毛色の違う記事を書いてみたいと思います。

社内からリクエストがあったのと、4月から新しくSEOを担当することになった方もいらっしゃると思うので、SEOを業務にするにあたりまずやっておいたほうが良いこと、心がけることなどを気の向くままに書いてみたいと思います。

なお、あくまで個人的な意見ですので別の考え方は当然あってしかるべきだと思います。

SEOの教育というところは苦労しているところが多いと思いますので議論のきっかけになったら嬉しいです。

 

まずは

SEO担当者になったらまずやる3つのこと

です。

  • 自分の担当するサイトやプロダクトのことをよく知る
  • 一緒に働く人を知る
  • Googleの考え方を知る

をおすすめします。

 

自分の担当するサイトやプロダクトのことをよく知る

 

SEO担当者になったら担当するウェブサイト・プロダクトのことをよく知る必要があります。

実際にすみずみまで見て使ってみることで、そのサイトやプロダクトの強みや弱み(特に強み)を知る必要があります。

そうしないと、コンテンツを作ることも難しいですしテクニカル的なSEO施策もやりにくくなります。

ここで大事なのはいきなりSearch Consoleなどで検索エンジン目線に立たないことです。

検索エンジン目線に一度立ってしまうとユーザー目線に戻ることが難しくなります。

必ずまずはじめは1ユーザーとしてそのサイトやプロダクトを使ってみることをおすすめします。

ユーザー目線でサイトを閲覧したときに気になったことはメモしておくと後から役に立つでしょう。

そして、その強みを生かすようなSEOを検討していくことが後々できると思います。

 

一緒に働く人を知る

 

今のご時世昔と違うので、多くの会社が新たにチームに加わる人がスムーズに働ける仕組みを導入していると思います。

それでも自分でチームの人のことを知ろうとすることは重要です。

 

そのサイトのプロダクトマネージャーは誰なのか?フロントサイドのエンジニアは誰でどんな人なのか?サーバーサイドは?デザイナーは?広報PR担当は?マーケティング担当は?営業のキーマンは?などなどそのサイトに関わる人を把握しておくと良いでしょう。

今のSEOはSEO担当者とフロントエンジニアやデザイナーだけで完結するほど単純ではなくなりました。ページエクスペリエンスにおいてはさらにサーバサイドエンジニアの方の力が必要でしょうし、被リンクやサイテーションなどを考えるなら広報PRの方の力が必要です。

SEOを完成させていくには多くの人の力が必要になります。いざというときに誰に頼ればよいかわかるようにチームの構成を知っておくことは今のSEOにおいて非常に重要だと思います。特にチームにはだいたい一人、誰にでも顔がきく人がいるものです。そういうキーマンをおさえるとその後SEOを推進していくうえで非常にプラスになるでしょう。(私は面倒くさがりなので、最初からキーマンをおさえにいって、そこから色々な人を紹介してもらいます)

 

Googleの考え方を知る

 

SEOの情報は世の中にあふれています。

その多くが役に立つ情報ですが、一部には怪しい情報もあります。

(中にはそのままそれを実施するとマイナスになるようなものも・・・・)

そこでSEOで頼るべきは、まずはGoogleが発信している”公式な”情報です。

 

検索エンジン最適化(SEO)スターターガイド

https://developers.google.com/search/docs/beginner/seo-starter-guide?hl=ja

ウェブマスター向けガイドライン

https://developers.google.com/search/docs/advanced/guidelines/webmaster-guidelines?hl=ja

品質評価ガイドライン(英語・PDF)

https://static.googleusercontent.com/media/guidelines.raterhub.com/ja//searchqualityevaluatorguidelines.pdf

 

上からだんだん難しい内容になります。

が、個人的にはいきなり品質評価ガイドラインを読んでみることをおすすめします。

品質評価ガイドラインとはGoogleの検索結果の品質を評価するために、評価者が多くのウェブサイト・ウェブページを評価するためのガイドラインです。ユーザーの評価と検索結果がマッチしているかを見るための評価者の評価用ガイドラインとなります。

これを読むと、Googleがどんな考え方を持っているかわかります。

どんなウェブページを良いページと考えているのか、どんなページをよくないページと考えているのか説明や評価例を見てみるとよくわかると思います。

最初にこれを読むとGoogleがどんなサイトやページを上げたいのかよく理解できると思います。

また、Googleがユーザーの評価(考え)をランキングに影響させたいという意思も見て取れます。

そうなれば、おのずとSEOとはGoogleに最適化したりハックしたりするのではなく(一部ではGoogleへの最適化も必要ですが)検索者に最適化するものだと理解できると思います。

そして、品質評価ガイドラインでGoogleの考え方を知ったうえで他のガイドを見ることによって、より理解は深まることと思います。

ちなみに、品質評価ガイドラインは英語です。英語そのものは(私でも読めるので)難易度は高くないと思えますが、それなりに根性は必要だと思います。新人のSEO担当者をマネジメントする立場にいる人は品質評価ガイドラインを読む時間をしっかりととってあげると良いと思います。

仮に10時間かかったとしても何倍にもなって返ってくるはずです。

 

次に

SEO担当者として心がける3つのこと

です。

  • 目的を常に意識する
  • わからないことは聞いて覚える
  • 得意な分野をつくる
を心がけておくと良いと思います。
 
目的を常に意識する
 

そのSEOで何を達成させたいのかを常に考えておく必要があります。

検索流入を増やしたあとのことです。

 

検索流入を増やしてECサイトの売り上げを伸ばしたいのか?

検索流入を増やして商品の認知を高めたいのか?

検索流入を増やしてPVを増やし広告収益を上げたいのか?

 

検索流入を増やすことは至上命題でしょうが、その先を常に意識しなければなりません。

SEOをやっていると、「この局面でSEOでなんとかできることがない」という場面に遭遇することがあると思います。

そのときに検索流入にこだわっていると無駄なSEOしさくをただするだけになりがちです。

SEOでその局面を打開するのが難しい場合、本来の目的を意識できていれば「いまSEOでどうにかするのは難しいのでリスティングによって売り上げ向上を図るのはどうか」とか「SEOでいまのアルゴリズムでは大きく伸ばすことは難しいが、まだSNSには打開の余地があるのでSNSによってPV増を狙うのはどうか」などの提案ができるはずです。

わたしはSEOが難しいときにSEOをゴリ押すのではなくSEO以外の代案を提示できるSEO屋が一人前のSEO屋だと思っています。

そして、SEOが難しいときにSEO以外の代案を用意するには常に本来の目的を意識している必要があります。

 

わからないことは聞いて覚える

 

SEOをはじめたばかりのころはわからないことだらけだと思います。

コンテンツの作り方もわからなければ大規模サイトならクロール&インデックスの最適化の方法もわからないでしょう。

(わたしもいまだに分からないですけど)

SEOをはじめたときに"考えること"は大切だと思いますが、考えてもわからないことはとにかく聞くこと。

考えて無駄なものは聞くこと。調べる時間がもったいないようなものなら聞くこと。

そして聞いたことを覚えること。だと思います。

そのためには聞いたことの回答に理由をもらうことだと思います。そうすることで覚えるだけでなく理解することができるはずです。

例えば「被リンクは多い方が良い」であれば、「Googleは被リンクを人気投票としてみなすため、得票が多いつまり被リンク獲得が多いと多くのスコアがもらえる」

「titleにキーワードを入れるべき」であれば「titleは検索エンジンがそのページのトピックを理解するのに役立つもののため、キーワードを入れておくと重要視されやすい」という具合です。

時間は有限です。聞く相手がいる場合にはどんどん聞く。ただ二度聞かない。これが一番良いと個人的には思います。

(組織によっては人に聞かずに調べるとかルールがあるかもしれませんが、個人的には調べてすぐわからないものは聞いちゃった方が良いと思います。もちろんそういう相手がいることが前提ですが。いない場合は聞ける相手をコンサルとしてつけるなど検討したほうが良いでしょう。)

 

得意な分野をつくる

 

はじめたばかりではまだ難しいですが、少ししてからはSEOの中でも得意な分野を持てると良いと思います。

コンテンツ作成でも良いし、サイト内リンクでも良いし、クロールのコントロールでも良いです。

ひとつ武器を持つことで自分のSEO屋としての強みを持つことができます。

強みを持てれば自信になりますし、自信はまわりからの信頼にもつながると思います。

これはインハウス以上にSEO会社で働く人にとって重要かもしれませんね。

 

最後に

最後にSEO担当者としてつけておくと良いスキル3つ

です。

  • データ分析スキル
  • 英語
  • 人間力

をおすすめします。

 

データ分析スキル

 

データ分析とSEOは切っても切れない関係性になってきています。

大規模サイトではクローラーの動きを可視化する必要がある場合が多いですし、多くのサイトでユーザー行動を気にする必要があるでしょう。

インハウスでなくSEO会社の方はアルゴリズムの分析をする必要があるかもしれません。

BIツールを使うでも、RやPythonを使うでもなんでも良いですがデータ分析のスキルがあるとないではアウトプットの速さと質に大きな差が出る可能性が高いです。

分析を他の人に依存することでボトルネックになる可能性もありますし、これからSEOをはじめる人はぜひチャレンジして欲しいスキルです。

 

英語

 

日本語の信頼できるSEOや検索エンジンの情報は少ないものです。

Web担当者Forum海外SEO情報ブログSEO Japanなど良質な発信をしてくれるサイトやブログはありますが英語で閲覧できる記事数には劣ります。(その分厳選されているというメリットはありますが)

Search Engine Roundtable などでは1日に何本もSEOの情報が発信されますし、Googleの公式情報も英語から最初に発信されます。

英語ができればより多くより早くより多くのSEO情報に触れることができます。

また海外のカンファレンスにも参加しやすくなると思いますし、そこでGoogleと直接コミュニケーションをとることができるかもしれません。

Googleのイベントでは英語なら直接いろいろと質問できる機会も多いので、英語が苦手な私は英語をある程度自由に使えるといいなあとうらやましく眺めています。。。

(PUBCON in LasV egasでのGoogleのGary Illyes氏のセッション)

 

人間力

 

最後にそれかよ!というツッコミもあろうかと思いますが2つの点で人間力が高いことはSEOにプラスになります。

まず当然ですが周りの協力が得やすいことです。

SEOの施策を行うにはそれ相応の他の人の工数を頂かなくてはなりません。

先に記したようにPM、エンジニア、デザイナーはじめ場合によっては広報や営業の方にもお世話になることがあります。

幅広い職種の人に協力してもらうには優れた人間力は不可欠です。

 

そしてもう一つは品質評価ガイドラインを見てもわかるように、Googleが人間の評価とGoogleの評価を一致させることを目指しているということです。人が良いと思うものをGoogleとしては評価したいわけです。

人間力を磨くことでサイトやコンテンツの良し悪しが正常に判断できるようになるはずです。

 

人間力を磨く方法はいろいろあると思います。

尊敬する人に出会い話をするのも良いでしょうし本を読むのも良いでしょう。

いずれにしても善悪の判断がきちんとできるくらいにはなる必要があるでしょう。

それは無意識にスパムやOver Optimzizeしてしまわないということにもつがなると思います。

 

最後にこれからSEOをはじめる方へ

 

SEOの担当者になって喜んでいる方ばかりではないと思います。

SEOはなんとなくうさんくさい、暗い、地味などネガティブなイメージがあるかもしれません。

それでも続けていれば楽しいこともありますし、知的探究心をくすぐられるような場面もあります。

そのときが来るのを心待ちに、ここに記したような準備をしっかりとしていただければと思います。

 

以上、自分で読み返してなんて偉そうなんだと笑ってしまいました。

私もまだSEOで何一つ成し遂げていません。私も若い人や新しくSEOをはじめる人に負けないようにがんばります。

 

木村賢 (@kimuyan)

 

アメブロのAMPをやめてどうなったか?

3 years 9ヶ月 ago

昨年の11月にアメブロのAMPを終了する旨のブログを書きました。

アメブロのAMPを終了します

11月15日から新規の記事についてAMPのURLへのアノテーションがつかなくなり、

段階的に過去記事についてもAMPページへのアノテーションを削除していきました。

(アノテーションとは<link rel="amphtml" href="https://gamp.ameblo.jp/xxxx/xxxxx.html>です)

そして2月7日には過去記事すべてにAMPページへのアノテーションが削除されました。

 

当初想定していた問題

AMPだからSEO上有利であるという「AMPブースト」は存在しないと思っていたので、

当初からAMPをやめてもオーガニック検索流入が減少することはないと思っていました。

 

トップニュースカルーセルについてはAMPが必須要件から外れましたが、

通常版のパフォーマンスが悪ければ出なくなるかも?という懸念は持っていました。

 

そして以前の記事でも触れましたが、

アノテーションが削除されることでクローラーが予想をしない動きをして

新規のしかも検索流入が得られる可能性のある記事がクロールされないという弊害が起こるかもしれないという不安はありました。

 

そしてGoogleがAMPとの関係性についてあまり触れていないDiscoverに何かしら影響が出るかもしれないとは思っていました。

少なくとも2019年にGoogleはAMPで大きな画像を掲載するのにAMPを使うと良いとサジェストしています。
参考;Google Discoverの最適化にはAMPがおすすめ⇒大きな画像を表示できるから-海外SEO情報ブログ

 

この3点について不安があったためアノテーションの削除は段階的に行っていきました。

今回は実装&確認を1フェーズとして、それぞれ概ね2週間ずつとっていきました。

展開量としては、最初全体の10%、次に全体の20%、次に30%、最後に40%と徐々に増やしていきました。

そうすることで万一数値に悪影響が出た場合は元に戻せるように準備しておきました。

個人的には大規模サイトのSEOを行うにあたって、全体への影響が大きく出る可能性があるものについては徐々に展開していくほうが良いと思っています。

特にUGCは運営サイドだけの持ち物ではなく、ブロガー様の持ち物でもあるのでそこに悪影響が出るようなことは最小限に止める必要があると考えており、今回のような施策を行う場合には段階的に展開していくことが多々あります。

 

AMP終了をした結果

先に、途中で戻せるように段階的に廃止したと述べていて、最後まで到達している段階で悪影響がなかったことはお分かりいただけるかと思いますが一応まとめます。

 

オーガニック検索流入

特段影響はありませんでした。季節要因と日々の努力によって(?)上昇傾向ではありますが、AMPを削除して下がったということはなくかと言ってクロール状況が劇的に改善したとかいう嬉しい誤算もとくにありません。

 

トップニュースカルーセルの流入

正直わかりません。

ただ全体のGoogleからの流入が低下していないことを考えると下がっていないと思います。

 

Discover

一見落ちているように見えるのですがAMP終了日とは被っていません。

一年間のDiscoverの推移を見ていただくとおわかりいただけると思いますが、AMP終了時点での数値が特別に低いわけではなく、”普通に戻った”くらいの感覚です。

そのためDisocverについても影響はなかったと考えて良いと思います。

 

結局AMPをやめてどうだったのか

現時点では何かが変わったわけではありません。

アノテーションの削除は行ったものの、gamp.ameblo.jpのサブドメインについては残存したままです。

今後いずれ、このサブドメインについても終了させる必要があると思いますが時期は未定です。

依然としてindexは残っている状態で、canonicalの読み込みとlink rel="amphtml"の削除を認識してくれてindexが減ってくれれば良いですが、どこかの段階で削除すると思います。

削除するときもまた段階的に削除できればと思っています。

最終的にこのサブドメインが残っている間は管理コストが発生しているわけなので、なるべく早い段階で削除に持っていければと思っています。

 

今後どうするのか

先のブログでも書きましたが、AMPをやめて遅くなったと言われないこと、AMPをやめたことでUXが良くなったと言われることが目標になると思います。

いろいろと準備はしていると思われますので、期待していただければと思います。

 

 

アメブロとAMPの関係は終わりましたが、6年前AMPというひとつの技術を採用したことは間違っていなかったと思っています。

その後いろいろな技術が誕生したことでAMP自体われわれにとっては必要なくなったということであって決してAMPが悪いということでもありません。

その時代時代で、それぞれのサービスにあった技術を採用していけるかどうかということが結局鍵になるのだと思います。

それが6年前はAMPだったけれど今はAMPじゃないと判断したというだけです。

今AMPのほうが良いであろうサービスもあるはずなので、決してAMPそのものを否定しているわけではないことは勘違いしないでいただきたいと思います。

 

-------------------------------------------------------

以下宣伝です。

-------------------------------------------------------

事業会社様等に限定されますが、無料SEOセミナーを3/17に開催しますのでよろしければご視聴ください。(応募多数の場合抽選となりますのでご了承ください)

 

 

 

木村 賢 (@kimuyan)

 

2022年のSEOやGoogle検索を勝手に予想する

3 years 11ヶ月 ago

あけましておめでとうございます。

良い新年をお迎えでしょうか?

私は、毎年恒例のSearch Consoleを全サイトを見直して、今年の戦略をなんとなく考えるということをやることができた元旦でした。

いきなり今年の方針を送りつけた社内の皆様は1/4まで無視しておいてください。

 

さて、何年か前までやっていた勝手な今年のSEO予想、Google検索予想をしてみたいと思います。

確定しているものもありますが、ほとんどは勝手にほろ酔い気分で予想します。(まだ缶チューハイ5本目なのでほろ酔いです)

 

Core Web Vitalsのデスクトップ評価導入が遅延する

いきなりそんなのかよ!と思うでしょうが、2月にCore Web Vitalsのデスクトップ評価がランキング要因に入ることになっています。

最近こういうリリースはおおむね遅れます。というか、はじめから2月と言っておいて実はもともと3月とか4月の予定ってこともあるんじゃないかと思っています。

こういうサイトはどうしたもんかと思いますが、そもそもモバイルのトラフィックが大半であればそこまで気にすることもないのかなとは思います。

モバイルのCWV導入でもランキングがそこまで大きく変わったサイトはないでしょうから。

とはいえ、これはランキングどうこうではなくUXにかかわるものであり、もともと対応していなければいけないことなので、やはり2月のつもりで体制整えて突貫工事ってのが良いとは思います。

ただ、CLSについては大半がアドネットワークから配信される広告サイズがわからないから・・・ってのが多いようには思います。

平均値なり中央値とるなりしないといけないですが、アドネットワーク側もなんらかの対応をがんばってほしいなとは思いますね。

AI的なアルゴリズムの拡大

アルゴリズムには、Googleの考えるあるべき論のアルゴリズムとユーザー評価やユーザー行動がフィードバックされた結果を学習した機械学習型のアルゴリズムがあると言われています。

実際に弊社で10段階のユーザー評価テストをやった結果とランキングの関係性を調査したところ

こんな感じで、順位と評価は相関することが分かりました。

(Y軸はランキングなので下に行くほどランクが高く、X軸は評価点数なので左に行くほど高い)

個人的にはGoogleの品質評価ガイドラインを用いたユーザー評価テストの結果はなんらかの形でアルゴリズムの調整に使われていると思っています。

2021年のコアアップデートでは説明がつかない変動をしたサイトがいくつかありました。

それらについてはSimilarwebなどを見ると特にECサイト等では平均PVが少なかったり滞在時間短いような傾向がありました。

弊社で調査したTransactionalクエリの滞在時間とランキングの関係性です。

良いTransactionalなコンテンツは数ページを閲覧してConversionに至るでしょう。

一方で、Informationalは1ページ見て満足して帰るということもあると思います。

某メーカーさんはQAコンテンツで直帰率の高さをむしろ高評価と置いていると聞いて納得したことがあります。

実際にランキングとの関係性も明確な相関関係は見られません。

ただ1ページあたりの滞在時間はある程度上位の方が長くなるのでしっかり読まれるコンテンツが上位にくる傾向はあるようです。

まあ、ただこれもCWVと同様にSEOうんぬんの問題ではないとは思います。

よく、SEOのコツは検索エンジンがなかったときにこそ行うべきことを行うといいます。

ユーザー評価やユーザー行動をアルゴリズムにフィードバックするものの割合が増えれば増えるほど、よりこの部分が重要になってくるものと思われます。

MUM導入の拡大

まあ、これは既定路線でしょう。

ただ、私自身MUMがよく分かりません。

言語に依存しないのにUSだけに展開とか・・・。

言語依存しないということは、ユーザー行動や評価に依存するのかなあと思う部分ではありますが、そのあたりはちゃんと今後論文を読んでみたいと思います。

いずれにしても、検索のコンシェルジュ化、アシスタントと検索の融合という部分をGoogleは目指していると思うのですが、Google Homeを持っている人もそんなに多くはなさそうですし、日本ではどうなんでしょう。

私はNest Audio をペア、Hub2台、Mini1台、元祖型を1台(IOでもらった)持っていますけども・・・。

たしかに特にHubでいろいろできるようになると便利かなとは思いますね。。

ホスト貸し・サブディレクトリ型が終焉を迎える

希望を込めています。

前記事にも書きましたが、YMYLをクリアするためであったり、EAT系のスコアを獲得するため(?)に大手メディアのホストを貸し借りするようなことが横行しています。

先に記したユーザー評価とユーザー行動をフィードバックする度合いが増えれば勝手に淘汰されそうですが、Googleが極東の島国の問題と思わず、過去のあの事件のような対応をしてくれれば確実につぶされると思います。

そして、フリー状態になったあの人がきっと大暴れして炎上させてネガティブサイテーションによって・・・という結末がまっていると思いますので、身に覚えがある方は覚悟されたほうがいいんじゃないかなと思います。

はきっと無双です。今。(笑)

(本人確認とってないのでやめろ!ってことであればご連絡をば.すぐ消します.)

結局サイトや製品のブラッシュアップを中長期で行うしかなくなる

Googleという世界の叡智の集まりに我々SEO屋がかなうわけはないと私はいつも思っています。

最終的に本当に良いものが残る検索エンジンになってくるでしょう。

じゃあ、SEOはなくなるのか?と言ったらそんなことはなく、クローラーに対してどうフィットさせるかという問題は残り続けるので特に大規模なサイトにおいては重要性は下がらないと思います。

また、検索してくる人の意図にフィットするコンテンツとトップページから見にくる人にフィットコンテンツが異なるようなケースもあるでしょう。そういう際には検索者にフィットするコンテンツを用意するということもSEOの役割ではあると思います。

ただ、対象はあくまで検索者になり、検索アルゴリズムではなくなるのしょう。

個人的に2022年はホンモノじゃないと生き残れない1年になる気がしています。

来年もこうやって偉そうにブログが書けるよう私自身も精進して参ります。

 

またセミナー等やると思いますし、ブログはそこそこですがTwitterでは情報発信して参りますので本年も皆様よろしくお願いいたします。

2022年が皆様にとって良い年になりますよう。

 

追伸:記事を書いている間にチューハイが3缶開きました

 

株式会社サイバーエージェント SEOラボ 木村 賢

個人的に2021年のSEOを振り返る

3 years 11ヶ月 ago

2021年もまもなく終了です。

コロナ禍が継続される中で公式なコアアップデートも2回(1回目を2回ととらえると3回?)しかなくあまりトピックもない一年だったとは思いますが備忘録的にも2021年を振り返ってみたいと思います。

 

例年通り鈴木謙一さんウェブ担で振り返りしていただいているので、こちらはどちらかというと私に起こったトピックとなります。

2回のコアアップデート

例年通り6月と11月にコアアップデートがありました。

通常と異なる点として6月のアップデートは6月に1回、7月に1回行われました。

本当は6月にすべてのアップデートをロールアウトする予定が、間に合わずに2回に分けたというのは本音のようです。

11月のアップデートはこれまでの公表されているアップデートの中では最も小さな動きだったと思います。

その代わりコアアップデートの発表がなかった12月に11月よりもむしろ大きな変動があったことは興味深いものでした。

それぞれの内容についてはもはや覚えていないものもあるので弊社運営のメディア(私がSEOに関わっているかどうかは別です)がどうだったかで皆さんで再度推理でもしていただければと思います。

まあ、AhrefsとかSEM RUSHで見られるデータなので社内の人は怒らないでください。被リンク獲得できてラッキーと思っていただければ・・・。(子会社・孫会社とかでやめてくれという場合はご連絡ください。無視するかもですが。)

YMYL系がほとんどないのでなんとも言えないところがありますが、6,7月はYMYL系の怪しいサイトがしっかり落とされていった印象はあります。

「クレジットカード」などは動きが激しくいわゆるホスト貸し、サブディレクトリ貸しがランクダウンしたのも印象的でした。

11月のアップデートはこれまでGoogleが行わなかったホリデーシーズン前のアップデートでした。

例えば「クリスマスケーキ」などで11月にランクアップしていたら「今年はSEOが好調だから大量に仕入れをしておこう」となるでしょう。ところが、11月にアップデートが起こってランクダウンしてしまったら、その材料の在庫が焦げついてしまうことからGoogleは原則ホリデーシーズン前のアップデートを行ってこなかったのだと思います。

ところが、今回は方針変更ということで上記のようなケースが危惧されましたが、結果としてはECサイト、Transactionalなサイトにとってはポジティブな動きが多かったと思います。

逆にアメブロが微減したようにinformationalなコンテンツにはネガティブな影響があったものも多いのではないでしょうか?

欧米を中心にクリスマスを前に消費が急拡大します。それを事前に考慮したアップデートなのかもしれないなと個人的には思います。

ユーザーの行動の結果を反映するだけでなくユーザーの行動を事前予測したアップデートになってきているという側面があってもおかしくないと思います。

 

全体で見るとユーザー行動に基づいた変動が多かったのかなとも思いますが、動きとしては例年よりも小さかったように思います。

これはGoogleのアルゴリズムが完成系に近づいているのかなとも思います。

いずれにしてもコアアップデートに対してやれることというのは少ないので、

  • ユーザーのためになる良質なサイト・コンテンツを提供すること
  • 良質なサイト・コンテンツであることを確実にGoogleに伝えること

の2点に尽きると思います。

Page Experience Update のロールアウト

ページエクスペリエンスアップデートが6月から8月にかけてにロールアウトしました。

引用: https://developers.google.com/search/blog/2020/11/timing-for-page-experience?hl=ja

 

そこまでランキングに影響を与えるようなアップデートではないと思いますが、

CoreWebVitals,Mobile Frienfly,HTTPS,インターステイシャルがないことがランキングに影響するようになりました。

特に、CoreWebVitals(CWV)についてはSearch Consoleにスコアが出るようになったことから気にされる方も多かったと思います。

ただ、これらはそもそもランキングのためにやることではなく、本来はユーザー体験のために行うことではあると思いますので、これを機にやれたというサイトは良かったとは思うものの、反省すべき点でもあるのだろうと思います。

 

titleの大量書き換えの発生

9月にGoogleが表示タイトルの生成のアルゴリズムをアップデートしました。

その結果が「改悪」であるとして騒ぎになりました。

逆の意味としてとらえられるような変更になったり、装飾的表現と誤認されてカッコ内の言葉が除外されてしまったりというユーザーにとっても利便性が下がるような表示になってしまうものもありました。

上記のように現在では概ね修正がなされたものと思いますが、

一時期はハラハラした方も多かったのではないでしょうか?

 

スパムアップデートの実施

6月にはGoogleはスパムアップデートという名前のアップデートを実施しました。

これまでもスパム対策については厳格に対応してきたと思いますが、あえてスパムアップデートと名がつくものを行ったことは一定の抑止力を考えてなのかもしれません。

私のまわりでこのアップデートで大きくランクを落としたようなものはなかったので、いわゆる誤爆のないように配慮されたものだったように思います。

そのため、スパムをしていないサイトに関しては特に不安に思う必要はなかったものとなりました。

 

リンクスパムアップデートの実施

7月にはリンクスパムアップデートがロールアウトされました。

スパムアップデートはどちらかというとサイトの内側の問題であり、リンクスパムは外的なものとなります。

当然、人工的に被リンクを構築していたりリンク購入をしていたりするものが対象になったと思います。

こちらもいわゆる誤爆的なものはなく安全性を考慮したアップデートとなった、抑止力を狙ったもののように思いました。

実際にリンク購入しているところを落とすことができていなかったケースがあり、少し残念だった感は否めません。

ただし、私が知っているリンク購入しているサイトは12月に見事にランクダウンさせられていましたので、

今後もリンク購入にはリスクがあると思っていただいたほうが良いと思います。

詳細は、こちらの「それでもやっぱり今は有料リンクスパムをおすすめできない理由」に記載していますので、よかったらお読みください。

 

トップニュースカルーセルからAMP要件がなくなる

Core Web Vitalsをランキング要因にしたのとほぼ時を同じくして、

トップニュースカルーセルからAMP要件がなくなりました。

先日当ブログでもお知らせした通り、アメブロも新規記事のAMPページ生成を停止しました。

これまでAMPの大きなメリットであったトップニュースカルーセルに出る条件というものがなくなったためです。

AMPは現在でもAMPキャッシュによって表示することによってLCPの改善等に役立つため、

Core Web Vitalsの改善という課題を解決するひとつの手段として効果的であったり、単純にAMPキャッシュで返す分のサーバコストの節約になるという側面もあると思います。

一方でスタンドアロンAMPでない場合は管理コストがかかるということがあるためアメブロでは上記のような決断をしました。

「AMPやめてどうなったか?」という質問をよくいただきますが、コアアップデートと重なってしまったため正確にわからない部分はあるものの、AMP停止による検索流入の減少は起こっていないと思います。

Non AMP SXGやBentoなどもあり、GoogleとしてもAMPそのものを使ってほしいというよりAMPコンポーネントを使ってほしいという方向に変わってきているように思います。

なお、弊社としてもアメブロはじめすべてのサービスにおいてAMPをつかわなくても快適なユーザー体験が提供できるようにしたいと思っています。

ホスト貸し・サブディレクトリ貸しの横行

ホスト貸し・サブディレクトリ貸しによってYMYLをクリアしようとしたり、サイトの力を利用して簡単にランクをあげようとする施策が横行しています。

明確なガイドライン違反ではないため、Googleもそこまで大々的に対処しているようには見えないため、その数は増え続けていると思います。

新聞社や保険会社などさまざまな業界のサイトでこの状態が起こっています。裏で手を引いているアフィリエイトASPの存在もわかっています。

ひょっとしたら弊社でもこの動きに乗っかっているところがあるかもしれないので、その際は全力で止めたいと思っているのですが(止まるかは知りませんが)3つの点でおすすめできません。

1.ブランドが棄損する

大企業でサブディレクトリをアフィリエイトの場として貸しているサイトが多く見られますが、正直格好悪いと思います。

また今後は炎上リスクもあると思います。

炎上すれば、"ネガティブサイテーション"によってサイト全体のランクが落ちることが予想されます。

 

2.ランクダウンリスクがある

現状でもサブディレクトリ貸しされているURL配下にランクダウンが起こるケースがあります。

金融系キーワードなどいくつかのサイトでアフィリエイトコンテンツの大幅なランクダウンが確認されています。

アルゴリズムによるものなのか手動なのかは定かではありませんが、不安定であることに間違いはありません。

また、ガイドラインで明確に禁止されれば本体サイトも落とされる可能性は否定できません。

 

3.検索が使われなくなる

かつて若い人を中心に「Googleの上位の情報は信頼できないからTwitterやInstagramで情報を探す」ということが言われていました。

Googleの努力とウェブマスターの倫理観の向上によって(?)この状態からは脱却しつつあり、だからこそよりSEOの重要性が高まったとSEO屋のはしくれとしては嬉しく思っていました。

ところが、最近このサブディレクトリ貸しによって同じような状態が発生していると思います。

検索結果が"汚れた"状態になればユーザーが検索を使わなくなります。

最終的にそれによって損をするのは自分たちです。

自分たちで自分たちの勝負の場を汚すことはかならず自分たちにしっぺ返しが来ることは認識しておくべきだと思います。

 

どこまでがドメイン貸し、サブディレクトリ貸しなのか?は難しいところです。

情報メディアがやるのは良いけどメーカーがやるのはダメというのは違うという意見もあろうと思います。

Amebaでもサブドメインでいろいろなサイトを展開しており、見方によってはドメイン貸しとも言えるでしょう。

一方で、サブディレクトリに別ブランドを作っても自社で良質なコンテンツを出していれば良いという考えもあるでしょう。

実際にそこに貸し借りは発生していないわけですから。

線引きは非常に難しい問題であるので、ぜひGoogleにはガイドラインを作っていただきたいと思います。

ただ、ユーザー評価テストの結果などがフィードバックされていけばいつかは自然淘汰される問題ではあるかなとは思いますが。

 

以上長文におつきあいいただきありがとうございました。

(*長い記事を書くときのアメブロのエディタの使いにくさに気づいてしまったのでフィードバックしておこうと思います・・・)

2021年も2020年に引き続きコロナ禍という特殊な状況が継続しており、さまざまな難題に向き合わざるを得なかった方も多いと思います。

SEOにおいてもうまくいったりいかなかったりという状況は続くと思いますが、最終的には

プロダクトやサイトを徹底的に良いものにして、その良さをGoogleにきちんと伝えられるように記述に気を配ったり、クロール&インデックスに気をつけたりということをしていく

ということにかわりはないと思います。

2022年がみなさまにとって良い年となることをお祈りし、振り返りとさせていただきたいと思います。

どうぞみなさま、良いお年をおむかえください。

 

株式会社サイバーエージェント SEOラボ研究室長 / Ameba SEO戦略室長 木村 賢 (@kimuyan)

 

追伸:今年中にTwitterフォロワーを1万超えさせると宣言していたのですが、現在(2021/12/24 16:00)9975という微妙なラインまできております。よかったらみなさま、Twitterもフォローしてやってください。よろしくお願いいたします。

https://twitter.com/kimuyan

 

アメブロのAMPを終了します

4 years ago

アメーバスタッフブログでも記載させていただいた通り、11/15より順次アメブロのAMP対応を終了させることになりました。

なぜAMPをやめるのか?

2016年の3月にアメブロはAMP対応をスタートさせていました。

当時のブログ記事はこちら

そこから5年以上AMPを採用し、モバイルの検索結果からはAMPキャッシュに飛ぶようになっていました。

Googleの検索結果からはGoogleのキャッシュに移動するわけで、当然体感速度としては良好なものであったと思います。

「それなのになぜやめるのか?」

ですが、基本的にはビジネス的な問題となります。

ウェブ界の状況、社会状況等々によっての総合的な判断ということになります。

検索結果がクリックされた際にGoogleのキャッシュが表示されるという点では、CDNのコスト削減等はあるのですが、それでもやはりトータルで考えたときに今回はAMPを終了させるという結論になったと考えています。

(もちろん細かい理由は知ってはいますが、どこまで書いて良いのかわからないのでこのくらいでご勘弁ください)

 

あとなによりも大きかったのは、トップニュースカルーセルにおいてAMPが条件から外れたことです。

これによって、よりAMPを継続するメリットがビジネス上なくなったのは確かです。

アメブロはスタンドアロンAMPではなかったので、通常版とAMP版両方があるという管理コストのことも考えると、メリットが減るのは正直とても痛かったです。

 

そして、Googleからページエクスペリエンスやその一部である、Core Web Vitals という概念が出てきて、それが検索ランキングに影響するということになったことによって、これまで以上に通常版のパフォーマンスを改善していかなければいけなくなったということも大きかったと思います。

そして、通常版のパフォーマンスが改善されればされるほど、AMPをやっているメリットがUX上でもなくなっていくという形になりました。

もちろんまだAMPと体感的に同じだとは言い切れないと思いますが、今後AMPと同様の体感になるべく開発を進めております。

AMP終了に対するリスク管理

トップニュースカルーセルにおける"AMP優遇"がなくなったとはいえ、これだけの大規模サービスでクロールやindexに関わる部分を変更するというのはリスクがまったくないとは言い切れませんが、基本的には今回のAMP採用の停止によって大きな問題が起こる可能性は極めて低いと思っています。

理由1:AMPブーストはカルーセル以外なかった

AMPを採用したときに特段全体のトラフィックが増えたということもなかったですし、クロール量やクロールの偏り等に変化が起こったこともなかったので、今回逆に減ることはないと考えています。

理由2:一部ブログでAMPを停止したが影響は見られなかった

一部の特にトラフィックが多いブロガー様にご協力いただき、AMP停止のテストを行いましたが特別トラフィックが減るということはありませんでした。

Discoverに表示されにくくなることも懸念していましたが、こちらもテストを行った結果特に変化は見られませんでした。

 

もちろん大規模サイトにおいて、rel=amphtmlという記述が大量になくなる、すなわちHTMLのソース上には変更が出ることによってクローラーがどういう動きをするのかなど想定ができない部分はあります。ひょっとするとGoogleでも想定ができないことがあるかもしれません。ただ、HTMLソースの変更というのは実は頻繁に行われるものではありますので、そこまでリスクはないのではないかと思っています。(アノテーションなので通常の変更と違うとは思いますが)

なお、今回は段階的にAMPを終了させていきますので、極端にネガティブな影響が出た場合はAMPを復活させられるようにもしております。

AMP終了に際してのブロガー様の対応について

AMP終了に際してブロガーのみなさまに何かご対応をいただく必要はありません。

Search Consoleの 拡張 > AMP のところの数値に変化が出てくるとは思いますが特に気になさる必要はありません。

また、検索パフォーマンスの数値においては、大半は、https://ameblo.jp/ID/ 側の数値として換算されているはずですので大きな変化はないと思います。

もし何かご不安なことがあれば、私のTwitterアカウントにご連絡いただければと思います。 

(あまりにお問い合わせが多い場合は個別返信ではなくスタッフブログまたは当ブログにてご回答させていただきます)

 

いずれにしてもAMPが終了することで多少なりとも表示等に変化が出ることはご容赦いただければと思います。

AMP終了後のパフォーマンスへの対応について

「アメブロってAMPやめて遅くなったよね」と言われないように努力して参ります。

当初は体感的に遅く感じる可能性はありまうが、AMP導入当初からAMPページから非AMPページへの遷移での速度差によって離脱が増えていると思われるケースも見られたため、パフォーマンス改善はエンジニアのチーム中心に日々取り組んでおります。

また今後さらにパフォーマンスが改善される予定ですのでご期待いただければと思います。

(ブロガー様が個々で入れられているプラグイン等によって個々のブログによってパフォーマンスが変わることはあり得ますのでご了承ください)

AMPについてのどうでも良い思い出とブロガー様への感謝

AMP導入した際には当時、ブログサービスとして日本では(世界でも?)初めてのAMP採用だったこともり、世界最多となるAMPページをindexさせるということになりました。(ニュースサイトは過去ページまでAMP化しなかったためです)ある意味Google(だけではないけど)の負荷テストの実験台になれて皆で興奮した記憶があります。

当初はいろいろなトラブルがあり、当時まだ存在していたAMPカルーセルに表示されるものとリンク先のURLページが一致しないというとんでもないバグを発見してGoogleと一緒にてんやわんやしたのを覚えています。

(ちなみにそれが直ったお祝いをしよう!ということで飲んでいたら、またバグが発生して某Googlerがめちゃくちゃ焦っていたのは良い思い出です。すぐに直って二軒目に見たことがない大きさのジョッキでハイボールを飲まされて、その先の記憶がありません)

2018年くらいには、AMP+PWAも検討し当時このブログにPWAをテスト採用して、それをまだ回線が遅かったインドネシアのジャカルタで出張のときに体感速度を試したこともありました。PWA自体には可能性を感じたのですが・・・

結局当時はSafariのSearviceWorker非対応問題等でPWAの採用は見送りました。。

 

AMPというものを通して、UXをより意識できるようになったりGoogleなどのプラットフォーマーの考え方がより理解できたりして、当初AMPをまっさきに採用したのは本当に良い経験・選択だったと思います。

ブロガーの皆様には検索からジャンプするページのデザインが少しではありますがいきなり変わってしまったり、(当時は)表示URLがameblo.jpではなくなったりしてご心配やご迷惑おかけしたかもしれませんが、皆様のご理解があって5年以上AMPを採用し続けることができました。

この場を借りて、あらためてブロガーの皆様に御礼申し上げます。

そして、AMPではなくなっても、皆様のブログをこれまで通り、これまで以上のUXがご提供できるよう努力して参ります。

今後ともよろしくお願いいたします。

 

SEO戦略室 木村賢 ( https://twitter.com/kimuyan )

 

 

 

インハウスSEOで意識していること

4 years 2ヶ月 ago

久々の更新は珍しく、インハウスSEOについて書いてみたいと思います。

個人的にはアメブロやABEMAをはじめ本当に数多くのインハウスSEOを経験させてもらえました。

そのどれもが決して褒められた成果を出せず、SEOの成果が出せなかったからクローズさせてしまったサービスは10や20ではおさまらないと思います。

SEOという領域に全責任を持ち、サービス全体にも一定以上の責任を負う状態でクローズさせてしまった数としては間違いなく弊社で一番多いと思いますし、下手したら日本でも一番多いかもしれません。

 

そんな失敗だらけの私がインハウスにおいて大切だと思うことをいくつか記してみたいと思います。

これは、これから私と一緒にインハウスのSEOチームで活躍してくれる後輩たちへのメッセージでもありますので対象者は必ず読んでください笑

 

インハウスのSEOでは、SEOの知識や技術以上にプロデューサーやディレクターやエンジニアやデザイナーなどいろんな職種の人を巻き込んで、施策をすすめていく必要があります。

リソースを割いてもらうという意味では事業責任者とか役員とかの協力が必要なケースも多々あると思います。

特に弊社のメディアのインハウスSEOチームは多くても3名程度で動き、その先は各事業のリソースを使って進めていくので人を巻き込むということができないとただ座っているだけの人になります。

人を巻き込んでSEOを遂行していくには何よりもその事業やサービスの人との信頼関係を構築していかなければなりません。

私自身はとにかくここが苦手でして、それを先輩風と恐怖政治と酒で進めた過去があることは当時の被害者の方にここで謝罪させていただきます。。その節は誠に申し訳ありませんでした。

もちろんそんな無理矢理なやり方では、とんでもない効果でも出ない限りどこかで限界がきます。

 

そんな失敗を何度もして、インハウスSEOをやるうえで、特にインハウスSEOをしていくうえで信頼を得てチームを巻き込むために意識したほうが良いと思うことが自分の中で定まってきたので、いくつかご紹介します。

 

1.情報の発信をする

これは社内外に情報の発信をしていく必要があると思います。

よく現場で言われたのは「このブログにこう書いてあるからあなたの言うことは違うのではないか?」ということです。

私はあまり言われたことはないですが、メンバーはよく言われていました。

海外SEO情報ブログウェブ担SEO JapanJADEさんのブログならまだしも、私が一度も見たことがないようなブログやいつの時代かわからない記事のURLが提示されたことが多々ありました。

インハウスをやって思ったことは「代理店事業でSEOサービス提供してたときは、なぜお客さんは改善提案を聞い入れてくれていたのだろう・・・」でした。

それは、“外の意見”というのは中の意見よりも権威性を感じやすいからではないか?と思うようになりました。

身近な専門家よりも遠くの専門家のほうが権威を感じやすいのではないかと思います。

そのため、社内だけでなく社外にも情報発信をし続けて最低限の権威性をつけておくとスムーズに施策を進められるように思います。

個人的には"他のブログにこう書いてある”と言われた、このブログに"提示している施策をやるべきだ!"って書いてやろうと何回かは思いました(笑

ちなみに最近はTwitterに「これはやったほうがいいかな」みたいなつぶやきをして、社内に話すと「Twitterに書いてあったやつですね」って言ってくれるようになっていて楽です。

2.施策の背景と展望を説明し見える化する

結構やりがちなのが、「このリンクをこうしてください」とか「このHTMLはこう変えてください」みたいにミクロな指示だけをお願いしてしまうことです。

当然エンジニアさんもデザイナーさんもみなさん作業屋さんではありません。その道もプロです。

プロのリソースは理由もなく借りられません。

全体的なSEOという絵の中のどの部分なのか?そして、なぜこの施策が必要なのか?なぜ効果が出そうなのか?を必ず説明する必要があると思います。

例えば、

「サイト内リンクを増やすと、クローラーがURLを発見する可能性が高まるので、こういう上位表示される可能性が高いページにはサイト内リンクを増やしたいのです。だから、こことこことここにリンク追加してほしいです」

みたいな感じです。

「こことこことここにリンク追加してほしいです」

とは天と地の差があると思います。

そして、その施策をやるとどのくらい最大で効果が見えるか数値化できると良いと思います。

コンテンツ追加なら、このコンテンツで半年後にどのくらい検索流入確保できる”可能性”があるか?それを示すだけでも変わってくると思います。

リソースをもらうというのはそういうことだと思います。SEOに限らずどんなアクションでも100%成果出ると保証できるなんてものがないことはみんなわかっているので、可能性で良いと思います。

自分は最小効果と最大効果予測を出していました。

最小 -1,000トラフィック/day 最大 +10,000トラフィック/day とか、時には"マイナスになるかもしれないけど賭けをしたい”みたいなお願いも結構やってきました。まあ、これはそういうのを受け入れてくれる文化が弊社にあったことがありがたかったですが。。

3.根拠を示す

この根拠とは「このブログがこう言っている」ではなく、

・データ的にこうなっている

・SEOが強い競合サイトがこれをやっている

・Googleが発言や発表をしている

です。

海外のカンファレンスもバンバン行かせて頂いていたので、三番目があるのはありがたかったです。

一番目は、セミナーで出すようなデータを出してお願いするような形をとっています。

 

(2019年のPUBCONでのGoogle、Gary Illyes氏のセッション。セッション中に突然「Kimura-san」って名前呼ばれたのは良い思い出です)

(文字数が多いほうが上位になる傾向が強いので、クロール優先度を高めるアルゴリズムを作るときに、"文字数という要素"を入れたいという話をするときなどに使う)

4.相手の手数を減らす

関係性が構築されるまでは相手の工数がなるべく少なくなるようなことを心がけると良いと思います。

よく弊社はSEOの施策を導入するときに小規模なテストを行うのですが、その際にはなるべく”開発”が伴わないように心がけています。

さすがにアメブロなどは小規模テストでも1-2人日の開発が伴ってしまうことが多いですが、それ以外のサービスでは、例えば構造化データを入れて欲しい場合には、実際にJSON-LDを書いて渡す、クローラーをブロックしたいときは、「/hogehoge/以下をdisallowしてください」ではなくて、robots.txtに「Disallow: /hogehoge/*」を追加してください。とか、robots.txtファイルを渡してアップロードしてもらうほうが、スムーズなことが多いと思います。

もちろんその際も背景、理由・効果の予測は伝える必要があります。

関係性がちゃんとできたら、むしろ専門家におまかせにシフトしたほうが安全だと思います。

ちなみに、アメブロの依頼は現在では「このへんのURLブロックしといてー」レベルになっています。。すいません。。

5.小さい成功を積み重ねる

施策の順番は大きな効果が出るものからやりがちですが、大きな効果が出そうなものは効果がゼロかデカイかみたいなのが多々あると思います。

はじめからこれをやって成果が出ないと、そのあと施策を進めづらくなる可能性があります。

はじめてSEOを行うサービスは確実に成果が出そうなところから手をつけるほうがその後がやりやすくなることは言うまでもありません。

人が良いだけでは信頼されません。成果が出なければ組織で信頼を得ることは難しいのはなんでも同じだと思います。

6.成功の手柄は協力者

インハウスに異動して、とにかくここはすごく意識していました。

異動したてのときは、とにかくSEOが全然されていないサービスだらけだったのでダメダメなところを修正するだけで成果は出ていきました。

そのときは上司や事業責任者に「この人、このチームの動きが素晴らしかったから成果が出た」ということをとにかく伝えつづけました。

飲みの場でもいろんな人に、「この人のおかげで数字上がったわー。すごいわー。」と話していました。とある飲み会では、記憶が飛んだあとも、某チームを褒めまくっていてうざかったようですが、そのくらいに自分に染み付いていました。(もちろん心の底から感謝していましたし)

なお、自分のチームのメンバー褒められないという致命的な欠点が自分にはありまして、そこは本当にいままでのメンバーの皆さんには申し訳なく思うとともに、これから修正していきたいと思います。(単純に照れ臭いんです・・・)

あと、もちろん本人へのお礼の言葉は必須です。

7.検証と報告

やりっぱなしにならないこともインハウスSEOとして信頼を得るには非常に重要だと思います。

この施策をした結果こうなりました。というのは報告すべきです。

良い報告はもちろんですが、悪い報告もです。

施策を一緒にやってくれた人は多かれ少なかれその結果を気にしています。

仮に成果が出なくても、なぜ出なかったのかの仮説と、これを無駄にしない次のステップや展望を提示する必要はあると思います。

ちなみに弊社では、アメブロのSEOのオペレーションをやってくれている沖縄チームから何度も何度も成果がどうなのか?を聞かれました。

8.相談事項には必ず答えを出す

相談してもらえるようになれば、それはある程度信頼を得た証拠です。喜んで回答すべきです。

が、もちろん分からないこともあります。SEOや検索まわりで分からないことを「分からない」で返すことは絶対にしてはいけないと思います。

調べられるだけ調べて回答を出すべきです。

もちろん「Aという可能性とBという可能性がある」みたいなことはありますが、ゼロ回答は避けるべきです。

ゼロ回答をすると、もう質問や相談をしてくれなくなることは多々あると思います。

 

 

この1-8を繰り返して信頼の年輪を増やしていくことがインハウスのSEO担当者には重要なことになると思います。

SEOは不確定なことだというのはチームでやっていればいつか理解してくれると思います。

そうなれば「一回施策がうまくいかなかったら信頼を全部失う」みたいなのはないと思います。

とにかく日々信頼貯金をしていくことが大切かなと思います。

今一緒に仕事している人からしたら「いやいや、あんたそんなことできていないよ」って言うのはあるかもしれませんが、今回は自戒をこめてということでご容赦ください。

 

番外編.人と人として仲良くなる

最後はこれですね。信頼とかではなく、ただ仲良くなる。

アメブロのSEOはいつも、アメブロのフロントのリードエンジニアの@herablogと一緒にやることが多いです。

小規模にいろいろと面白い実験をしたりしています。実は、この記事もその実験のためだったりします。

実験できる状況を2ヶ月くらい放置し続けましたが、彼がときどきしてくるTwitterのファボに無言のプレッシャーを感じてこの記事を書きました(笑

そのくらい人と人との関係ができるとスムーズにことが進むのは確かですが、その前には上記1-8を意識すると良いのかなと個人的に思っています。

なお、彼とは何度もマウンテンビューに出張に言っていますが、毎回ホテルの私の部屋で飲み明かし、翌朝「木村さん、昨夜話したこと(どうやら結構大事な組織課題っぽい話のよう・・・)覚えてます?」って言われて「うーん、なんとなく」って二日酔いの頭をかかえて答えてましたが全部嘘です。一度も覚えていません。すいません!

仕事の大事な話はシラフのときにしましょう!これも大事!

 

@kimuyan

それでもやっぱり今は有料リンクスパムをおすすめできない理由

4 years 7ヶ月 ago

2ヶ月ほど前になりますが、GogoleのJohn Mueller氏が、有料リンクへの対応について、「ほとんどの場合、スパムを自動で無効化する」と話しています。

詳細は鈴木謙一さん海外SEO情報ブログの記事をご覧いただきたいと思いますが、この問題について少し考えてみたいと思います。

 

私のことをご存知の方がいらっしゃればタイトルをご覧になった時点で「お前が言うな」だと思います。

私もそう思いますし、十数年前の私がスパムをやめようなんて記事を書くとはまったく思ってませんでしたから・・。

十数年前日本のSEOはリンクスパム大会のようになっていました。私もその渦中におりました。

日々納品されてくるテキスト(コンテンツというよりももはやテキスト)、そこから生成される大量のリンク用サイト、ちょっと関連している内容だからだとベタベタと貼り付けられるリンク・・・。

多少大袈裟ですが現場はこんな感じだったと思います。

"納品されてくるテキスト"があっただけまだマシで、その前は著作権にひっかからない公開されたデータベースや各種APIからテキスト情報を抜き出してページを自動生成していました。

ドメインは当然、オールドドメイン!.orgで良質なリンクがついたものが出てきたら喜んで飛びついていましたね。

PageRank5のやつが入荷しました!なんて電話がきたら「いくらですか?抑えておいてください。稟議出すんで!」みたいな・・・。

自分で書いていて情けなくなりますが、見苦しい言い訳をさせていただくと当時は

  • リンクスパムをみんなやっていたのでやらないとあげられないケースが多かった
  • 大手さん含め(大手さん中心に?)リンクスパムの需要が多かった
  • 周りのSEO会社も大半がリンク販売業者だったのでリンクを売らないと競争できなかった
    (リンク以外での競争力がなかったとも言う、今SEO業界でトップにおられる先輩方はリンクなしで戦って来られた方がたくさんいらっしゃいます)
  • スパムをやっても無効化されるだけでいわゆる"ペナルティ"がなかった

こんなところでしょうか?

はじめの3つは本当に不徳の致すところでして、甘い誘惑に負けたとしか言いようがありません。違法じゃないし、、とガイドラインに違反していることは分かりながら行動経済成長期の排水のごとく、インターネットの世界に有害物質を排出し続けました。今は本当に申し訳なく思っています。

そして4つ目のペナルティがなかったというのは非常に大きく、効果が出ないことはあってもマイナスになることはないということで、自分たちのスパム行為を正当化していました。

実際に明らかにリンクの効果がなくなったな・・・というのもあったと思いますが、「効果がなくなることはあってもマイナスになることはありません。効果なかったらまた作ってリンクを張ればいいんです!」くらいのことは言っていたように思います。本当にこの時の自分を思い出すと死にたくなります。

 

それが2010年過ぎたあたりから、ペナルティ、Googleが言う手動対策というのがやってきます。「あの大手サイトにペナルティが来たらしい」という情報が入ったり、実際にペナルティを受けたという人にメッセージを見せてもらったりして「いよいよこれはまずい」と思い始めました。

当然この"やばいかもしれない状況"は役員などにも報告をしていましたが、迷いながらまだなんとかいけるかもと思っていました。それがある夜、万を超える被リンク用サイトがindexを削除されました。幸いにもまだお客さんのところにはペナルティは出ていない・・そこで私がしたのは役員室に駆け込んで

「すいません。○万○千サイトのリンクサイトが飛ばされました。次はばれないように作るので○千万円の緊急の予算をください。」

今考えてもバカです。そりゃあ出世できません笑

でもこのときはスパムリンク中毒になっていて、ほかのことを考えられなくなっていました。

役員からは「ちょっと冷静になって、リンク以外のSEO考えなよ。どうせGoogleにまた見つかるし、お客さんにペナルティ出てくるよ」と(半笑いで)言ってもらい(某さん、その節はありがとうございました)、ここでやっと「そろそろリンクから足を洗わなければ・・・」と思い始めました。

そこからは苦戦しながらもだんだんとリンクスパムのSEOからコンテンツだったり(まあこのコンテンツもやり方間違えればスパミーになるので注意ですが)UX関連だったりクロール&indexの改善だったりとサービスの方向性を変え、増やし今日をむかえています。まあ、このindex削除事件の数ヶ月後に私はメディア部門のインハウスSEO立ち上げで異動したので実はこの移行期の辛さをしらないのですが・・・。ただ仕掛けて実行のときにはいないという、、申し訳なさすぎです。

 

ちなみに異動してからは因果応報、アメブロ上のスパムにどう対応していくのかという仕事ばかりをしていました。

今日もまた2件・・・・。

 

ととんでもなく前置きが長くなりましたが、話はもどって今回「リンクスパムはアルゴリズムで無効化していて、それで十分」というGoogle側から出たコメントについて個人的には「そんなこと発言しないでほしい」でした。

 

2012年くらいからSEOの業界からもリンクスパムは急激に減ってきました。リンクで稼いでいた業者の多くはリンクから撤退し、コンサルティングやコンテンツ作成のビジネスに移行していくもののなかなか難しく事業縮小したり廃業したりしているところもあります。

その中でここ最近、「そろそろ熱りは覚めた」と思ったのか一周回ってまたリンクを大々的に販売しているSEO会社が増えてきている印象です。

実際にその提案書を見せてもらったり、そこからリンクを買っているという方に話を聞かせてもらったりしています。

最近は巧妙で、Googlebotにしか見えないようにリンクサイトを作っているものが普通で、相当がんばらないと第三者からはリンク用サイトは見つけられなくなっています。しかもGooglebotにしか見えないのにかなり作り込んであった・・・。(中には、これは普通に公開しても誰もスパムだと思わないけど・・・というものまで・・)

そんなリンクスパムが増えてきている状況で、今回の発言があると「ペナルティは昔はありましたが、今はありません。安全なリンクです。」というセールストークのエビデンスとして使われかねないんですよね・・・。これは非常に危険だと感じました。

実際は「ほとんどが自動的にアルゴリズムで無効化」と「ほとんど」どついているので、もちろん例外はあるわけです。

そしてほとんどがアルゴリズム、ちょっと目視だとしたら、その目視による"ペナルティ"は、より厳しいものになる可能性だってあるわけです。

 

リンクスパムは、まずアルゴリズムで無効化される。さらに手動対策で厳しいペナルティ状態になることもある。

こう周知されるべきだと思います。

 

私は2つの意味でリンクスパムは今はもう行うべきではないと思っています。

・昔と違ってペナルティになることはあり得るし、そのペナルティはかなりきつい.復活できないこともある.

・スパムが見つかったあとは焼け野原

 

前者はその通りです。実際に少数ながらペナルティ状態から脱却できずにドメインを捨てたケースも見たことがあります。

Googleは、「もうスパムをしないと判断できたら解除する」と話していますが、そう思わせるのはなかなか大変な気がします。

私が「もうスパムは一生しない」と言っても誰も信じないでしょうし。(実際に100%しないと言い切れる自信はありません。ペナルティゼロ、無効化ゼロだったら・・・損しないなら、モラルだけで正しいことができるかと言われると私は諸先輩と違って弱くて悪どい人間なので・・・)

 

そして後者。これはSEOを提供する事業者にもスパムをするサイト側、クライアントさん側にも言えることです。

クライアントさんからしたらリンクであげていました、見つかりました、ペナルティ受けました、リンク外しました、落ちました。

これでは何も残っていません。そこには良質なコンテンツもすぐれたUXも残されていません。今はリンクの力があっても一定以上のコンテンツの品質は必要だと思いますが、先述した通りリンクは中毒性があります。その中毒に汚染されていると最低ラインのコンテンツでいいやと思ってしまいがちです。ペナルティ状態から回復してもそのサイトには資産が作れていない、残されていないというケースは多いと思います。

 

そしてSEO業者。スパムに頼って短期的に稼いだとしても、それが効かなくなった、スパムサイトがすべてばれた・・・。

リンク用サイトもない、リンク以外で効果を出す技術も知識もない、そしてお客様もいなくなった・・・。

焼け野原です。スパム施策は見つかれば焼け野原です。

過去リンクをやめる決断したSEO会社さんの役員の方とお会いしたときに「売り上げは驚くほど落ちました。うちにはコンサルする能力がなかった。本当に厳しいです。」というお話をお聞きしました。

リンクスパムと他のコンサルを併用できていればいいじゃないかと思う方もいらっしゃるでしょうが、それは本当に難しいです。スパムは中毒になります。うまくいくときは楽なんです。楽して上がることを体験してしまうと、一生懸命頭を使って手を動かすことを避けるようになるのは多かれ少なかれ皆同じではないでしょうか?結局、リンクスパムに偏っていくことになると思います。

過去自分も焼け野原一歩手前だったと思います。自分は異動して逃げる形になってしまいましたが、当時の部署メンバーは焼け野原から新しいサービスを大変な思いをして"復興"させてくれたと思います。

スパムがうまくいっているときは想像していませんが、高確率で辛い未来が待っていると思ったほうが良いです。そこは更地です。

 

アフィリエイトサイトなど個人サイトでスパムをやることは私自身はそこまで否定しません。すべて自分の責任の範囲内であればやっても良いと思います。もちろんインターネットの世界全体を考えたらないほうが良いのでしょうが、"クライアントに迷惑をかける"ということは少なくともないでしょうし、個人が作ったコンテンツでも良質なものもありますから、良いものがスパムでしか上がらないなら仕方ないと思う面もあります。

幸いにも一定基準以下のコンテンツでなければGoogleでは上がりませんし、YMYL領域はさらに厳しいですし。

 

ただ、企業がスパムをやって良いかというと話は別だと思います。

ペナルティは絶対ないわけではない。受けたら本当に大変な思いをする。

スパムが見つかったらそのときは何も残らない。

売る側も買う側ももう一度考えてみていただきたいと思います。

 

以上2021年最大の「おまゆう」になるかもしれませんが自戒をこめて。

なお、私の過去のスパム前科のお話をしましたが昔からSEOをやられている方全員がスパムをしていたわけではありません。むしろ今最前線で長くご活躍されている方はスパムとは無縁だったからこそずっとトップを走られているということを尊敬の念を込めて付け加えさせていただきます。

 

木村 賢

 

*そのときのツイートをウェブ担当者フォーラムでも取り上げていただきましたのでよろしかったお読みください

 

 

スマホで表示できないサイトがindexされなくなる話

5 years 1ヶ月 ago

オンライン開催されているPUBCONにおいて、GoogleのJohn Mueller氏より、2021年3月目処にデスクトップでしか表示されずスマートフォンで表示がされないウェブページがindex対象外になることが発表されました。

"Content only visible on desktop will be ignored"

"デスクトップでのみ表示されるコンテンツは無視する"

 とのことです。

 

そして、indexさせたいすべてのコンテンツはスマートフォンでリーチ(アクセス)できて、表示できなければいけないとのことです。

 

クロール&index と 評価は別のものである

一応再確認ですが、クロール&indexと評価は別物です。

ここでの話はクロール&indexのことだと思われます。

つまり、

「今後indexの対象になるのはスマートフォンのUserAgent情報を持っている場合にアクセス&表示できるものだけ」

と言っているだけで、その後の評価の話は現時点では何も出てきていません。

 

今まではPCだけで表示されていてもindexされていた

これまでと何が変わるのか?ですが、今まではPCのみで表示されるケースでもindexされていました。

もちろんモバイルフレンドリーではないので、スマートフォンの検索で出てこないことはありえますが、

固有名詞で検索した場合などは少なくともPCでの検索結果では概ね出てきたと思います。

PCのUserAgentを持ったクローラー(以下PCクローラー)にページを認識させていれば、

SPのUserAgentを持ったクローラー(以下SPクローラー)で認識できなくても

indexそのものはされていたのです。

(しつこいようですが評価は別ものです。indexがされたという話で評価の前段階です。)

それが、PC"だけ"で表示されるものはindexされないよということにかわります。

 

今後はSPで表示できなければindexそのものがされない

今後は、"PCだけで表示されていてもindexはされていた"という一種の救済策がなくなります。

Mobile First indexに移行が進み来年には強制移行される中で、

上記の救済策は不要という判断でしょう。

indexするしないの判断が、SPベースのみになるということです。

 

どんなサイトが注意が必要か

最近作られたサイトでスマートフォンで表示されないサイトはほぼないでしょう。

そのため注意が必要なサイトはほとんどが非常に古いサイトになると思います。

例えばガラケーが出てきた時代から続いているサイトで、いまだにPC以外でアクセスすると

「このサイトにはPCからアクセスしてください」

とか、

「このサイトにはInternet Explorerからアクセスしてください」

とか出るようなものです。

このようなものはスマートフォンで本来のコンテンツを表示できないので、

少なくとも本来の中身のあるページはindexされないでしょう。

いまどきそんなサイトはないよと思われるかもしれませんが、

個人的に危険かなと思っているのは、

1,行政の管理しているサイト

2,レガシーな企業サイト

3,PCで操作することが前提となっているサイト

 

1については、頑張ってねとしかいいようがありませんし、さすがにもうないかなと信じたいところです。

 

2は、中小企業などでガラケー時代に閲覧制限をしていた時代からリニューアルしていないものには発生する可能性があると思います。

「制作会社がそう設定していた」というパターンもあるかもしれません。

自社サイトを必ず一度はスマートフォンで閲覧するべきでしょう。

そこで「PCで閲覧してください」などと出てきたら修正が必要です。

 

3はPCで投稿したり操作したりすることを前提としたサービスでのログインページなどがそれにあたります。

スマートフォンでアクセスした場合に「このサービスはPCで利用してください」

のように表示してしまう場合には、中身のないそのコンテンツがindexされるか、そのページをnoindexにしていればindexされないかもしれません。

 

いずれにしてもスマートフォンで中身あるコンテンツが表示されるか確認して、

表示できない場合は、スマートフォンに対応させるか、無理な場合でもサービスの紹介等最低限の記載をしたうえで、「より詳しい情報はPCでアクセスしてください」などの表記をしておくべきでしょう。

 

SPで表示できるならindexはされるはず

勘違いしてはいけないのは、SPに最適化していなくてもSPで表示されればindexはされるなずであるということです。

SPサイトがないから、SPはブロックしてしまっているというケースの場合、

とりあえずSPのUserAgentであってもPCサイトを見せてしまうということを行うことでindexされない状況は回避できるはずです。

(極論SPクローラーに表示できて、ユーザーのスマートフォンで表示できなくてもindexされるとは思いますが、クローキングになるかもしれないので避けるべきでしょう)

 

最後に、

「来年からPCサイトはindexされなくなるのでスマートフォンサイトを絶対作らないとダメです」

という嘘営業が出てくるような気がしなくもありません。

先に記したように、PCサイトでもSPで表示されてしまえばindexはされます。

「うちはPCでしかアクセスがないから、SPサイトはいらないし、社名で検索したときに出てくればOK」

ということであれば、PCサイトがSPでも表示できる様にしてしまえばいいだけです。

SPに最適化されたページでないとindexされないというわけではないので注意しましょう。

 

なお、まだ第一報が入ったばかりでありこれから続報が出てくると思います。

過去indexされているけれどSPで表示できないものがindex削除されるのかどうかとか、今後もPCクローラー自体は生き残るということですが、それが何に使われるのか?などは現時点では不明です。

データを見てSEOを行う際に気を付けたいこと

5 years 3ヶ月 ago

"データを見てSEOを行う"ということについて気を付けるべきことを書きたいと思います。

 

最近、

 

"そもそもSEOを行うのにアルゴリズム分析をすることが間違っている"

"無意味な分析が多くてミスリードさせる"

"SEOの本質を分かっていないのに数字を一人歩きさせている"

 

といったご意見を良くいただくので、特に後ろ2つについて確かにそうかなと思う部分もありますので(私がSEOの本質をわかっていないかどうかは別に私が決めることではないので他の方の評価にお任せします)、ちょっと思うところを書きたいと思います。

 

表示されているものの傾向を分析するというのは、

これは売れるものがどんなものか分析するとか、

あることを行うのに適した物質がいくつかったらその組成を分析するということと基本的には同じようなことだと思っています。

以前Discovderに出ているものの傾向を分析した結果を記事にしましたが、

https://ameblo.jp/ca-seo/entry-12586320316.html

https://ameblo.jp/ca-seo/entry-12586792697.html

https://ameblo.jp/ca-seo/entry-12587532301.html

https://ameblo.jp/ca-seo/entry-12588017885.html

例えば、

これをさらっと読んでしまうと、

「そうか、文字数増やせばいいんだ!」

となりがちです。

「文字数を増やせばDiscoverに出るんだろうからとりあえずなんでもかんでもまわりくどく書いてトラフィック稼ごう!」

と思う人が出てきても不思議はありません。

私も反省すべき点として事実しか書いておらず、「まわりくどく長く書けば良いことではない」と記述すべきだったと思います。

 

Discoverと同じで、検索エンジンで上位に表示されているデータを見て、

すぐにそれに飛びついて、そのデータの通りのことをやってしまうとSEOというかウェブサイトとして失敗してしまうことが多いと思います。

 

こちらはDiscoverと同様に文字数とランキングの関係性です。

これだけを見てしまうと、

「上位にするために最低4000文字は書こう」

とか

「上位にするために4000文字以上6000文字以下くらいにしよう」

とかなりがちです。

例えば「電気二重層に適した電極の素材と処理方法」(あ、私の大学時代の卒業研究のテーマなんでなんでも構いませんのでテーマは置き換えてください)とかを4000-6000文字で書くと言ったら無理でしょう。

一方で、「おはようを英語で言うと」というテーマでは4000文字を書くのはなかなか大変ですし、例文をたくさん書く、語源を書くなどの多くの検索者が必要としない情報を含んだコンテンツにしないと4000文字はいかないかもしれません。

結局テーマ・トピックによって必要とされる文字数はまったく変わりますし、検索結果の上位が〇〇文字が多いからその文字数にしようというのは間違いです。

仮にSEOであがっても、来訪者が満足しないコンテンツとなり"ウェブサイトとして失敗""ウェブマーケティングとして失敗"するでしょう。SEOは手段であって目的ではないということを忘れている典型パターンに陥ります。

 

じゃあ、これらデータは無意味なのか?ということになりますが、

"見方と使い方による"と思います。

ウェブページにはTwitterであったり、ブログであったり様々なものが存在します。

それらは文字数が様々です。ブログでは数文字のものも存在しますし、情報コンテンツでは1万文字を超えるものも存在します。

その中で例えば

 

情報コンテンツ全体だと文字数が多い方が上がっている傾向にあるね
 ↓

なぜ文字数が多いほうが上がっている傾向にあるのか?

 ↓

 充実した情報をユーザーが欲しているから、情報量が多いほうが上がる傾向にあるのかな?

 ↓

 ただ、極端に多いものは少ないっぽいな

 ↓

 余計な情報があるとダメなんじゃないの?

 ↓

 ユーザーが必要としている情報をもれなく入れた情報コンテンツを作るべきだね

 

とその数字から背景を推測して仮説を立てて実行するためには有用だと考えています。

「そんなのなくたって仮説立てられるでしょ」

と言う方も多いのですが、実際に多忙な現場ではユーザーの需要を推測して仮説を立てるということがおろそかになることもあると思います。ユーザー需要の仮説を立てるためのきっかけとして使うこともできると思います。

 

また余談ですが、インハウスSEOの現場ではよく

「このブログ記事にAと書いてあるから、あなたがBと言っていることは間違っている」

みたいに、担当者よりもエヴィデンスが強い現象は良く起こることです。

データはそのときの説得材料には非常に有効です。

 

まとめると、

大切なのは、良く言う「データの裏を読む」ことでしょう。

 

表面上このデータが出てきたのは、

ユーザーがこういうものを欲しているからである

だからGoogleはこういう傾向のウェブサイトを好むのかもしれない

 

というように、データを額面どおり受け取らず、それがなぜそうなっているかの背景を必ず推測するようにすると、よりSEOの成果につながりやすいのではないかと思います。

 

こちらはPageSpeed Insightsのスコアとランキングの関係性ですが、(×100でPSIのスコアとなります)

データ通りにするということであれば、

じゃあ、あえてレンダリングブロックしたり、サーバの応答速度を下げたりして、

PageSpeed Insightsのスコアを下げますか?ということになります。

 

データには必ず背景があります。

2020年9月18日(金)にウェビナーを開催しますが、聞いていただける方はこちらに書いたことを頭に置いて聞いていただけたらうれしいです。

https://www.cyberagent-adagency.com/event/551/

 

 

今こそチェックしておきたいSEOのポイント

5 years 7ヶ月 ago

緊急事態宣言が出て、先もなかなか見えない中ではありますが、暗くなってばかりいても仕方ありません。止まない雨はないと信じて、雨が止んだときに楽しめるようにこういうときだからこそできるSEOの施策をいくつかやっておこうと個人的に考えています。

リモートワークになり出張や外出が減り、ミーティングも減っていつもよりも考える時間があるという方もいらっしゃると思います。普段は忙殺されていてなかなか整理したいことやじっくり考えたいことが後回しになっている人も、今時間が空いているようであれば自サイトのSEOについて再度整理してみるのはいかがでしょうか?

 

いざ整理してみるとしてもサイトの規模や運営体制、いまおかれている状況によってそのポイントはさまざまだと思います。

そのため、今回はあくまで私の場合です。

私が見ているサイトの多くは大規模サイトなので中小規模のウェブサイトには不要なこともたくさんありますし、逆に中小規模サイトのSEOに必要なところが抜けることもあるかもしれませんがご了承ください。

1,サイトのコンテンツの見直し

1-1,不要なコンテンツの削除や統合

特に大規模サイトにおいては不要なコンテンツや内容に乏しい品質の低いコンテンツを削除することによってSEOの効果が高まることがあります。

これは大規模なサイトにつきもののクロールバジェットの問題が軽減されることによって、重要なコンテンツによりクロールがなされるようになることが原因のこともあれば、ユーザー行動が改善されることが原因のこともあれば、サイト全体としてのコンテンツ品質が低いと見られているものが解消されることが原因のこともあるでしょう。

今までの私のたいして多くない経験の中でも、

  • スパムコンテンツの大量削除
  • システムによる自動生成コンテンツの削除
  • 重複コンテンツの大量削除またはcanonicalによる正規化

等によって検索流入がサイト全体として増加したケースがあります。

一点注意が必要で、検索流入がないページがすべて不要なわけではなくユーザーにとって必要なページは残しておくべきです。

その中で検索者には役立たなそうなものはクローラーをブロックしたりnoindexしたりということが考えられます。

検索流入はないけれど、検索流入したひとが回遊して役立ちそうなものは残しておくべきだと思います。

例えばECサイトで「商品ページが検索上位に上がってくるからオウンドメディアでその商品の上手な使い方を作っていたけど削除したもいいや」というのは間違いです。

商品ページから回遊して役立つページになると思いますので、そういったページは削除しないようにしましょう。

 

個人的には、Search Consoleのカバレッジ>除外のSearchConsole除外画面

クロール済みインデックス未登録のリストを見て、どんなものがGoogleから「indexしても意味がない」と思われているかを確認して、基準作りの参考にするようにしています。

1-2,必要なコンテンツの作成

別にこういうときでなくても必要なコンテンツは作らないといけないのですが、やれ無駄なミーティングだ、やれ上司に無駄な報告だ、やれ無駄なレポート作成だ、やれ有用な飲み会だと何かと忙しくて、わかっちゃいるけど作れないという方もいらっしゃると思います。

 

これは何も狙うべきキーワードのコンテンツが作れていない!という情報メディアによくありがちな話だけではありません。

意外とあるのが、メーカーさん等で商品の魅力を伝えきれていないものです。

画像等でビジュアルではその商品の魅力が伝わるものの、どういう人に合っているのか、どういうシチュエーションで使うと良いのか?使い勝手は?使い方は?などユーザーが知りたいことに応えられていないケースがときどき見られます。

Webサービスでもよくあります。特に競合の商品がある場合にはそこと差別化できる「強み」を伝えられているかチェックする必要があると思います。

また、商品について細かく伝えたいときはFAQコンテンツを作るのも良いでしょう。

QuestionとAnswerで1ページずつコンテンツを作れるくらいボリュームができると質問に関するロングテールのクエリで検索流入が得られることもあると思います。

(薄っぺらいコンテツになるなら1ページずつ独立しないほうが良いと思います)

2,ページやサイトの作りについて見直す

2-1,構造化データが正しく使えているか見直す

構造化データがしっかり使われているサイトはかなり増えてきていますが、古くから運用されているサイトではまだ導入されていないサイトもあるでしょう。

このタイミングでもしリソースが空いているようであれば、構造化データをしっかりセットしておくのも良いと思います。

構造化データがSEOにどう寄与するのか、リッチスニペットに反映されること以外はあまりはっきりしたことは言えませんが、今構造化データをなんらかのヒントにしている可能性はありますし、今使っていなくても今後ヒントに使うかもしれないと思います。

リソースに余裕があるときでないと、SEOに保険をかけることはなかなかできないと思いますので、リソースに余裕があれば保険をかけておくと良いのではないでしょうか?

Googleのドキュメントとしては「構造化データの仕組みについて」、正しく使えているかどうは、Search Consoleや「構造化データテスト」を活用しましょう。

 

2-2,<title>,<h1>等がコンテンツ内容を正しく伝えられているか確認する

titleもh1もSEOには不要という人もたまにいらっしゃいますが、、、、やはり検索エンジンにはヒントになるものだと思っていいと思います。

そしてユーザーが見出しを見たときに、そこに何がかかれているのかを一目でわかるようにすることは重要だと思います。

titleキーワードとSEO

上位50位に入っているもののほとんどはしっかりキーワードが入っています。

(5位ずつの箱ひげ、縦軸はキーワードの出現回数、複合ワードの場合に例えば2語の複合で片方しかtitleに入っていない場合は0.5として算出する)

2-3,パフォーマンス(表示速度)改善をする

これは普段から取り組んでいる方が多いと思いますが、たまたまエンジニアの方の手が空いている!なんてことがある方はトライすると良いと思います。

コロナウイルスが流行してから検索結果がおかしな方向に変わることを避けるためか、Googleには大きな順位変動はありません。コアアルゴリズムアップデートも発表されていません。

それでもいつかコアアルゴリズムアップデートがあったときに、どのサイトであっても大きく検索流入を下落させる可能性があり得ます。

そしてコアアルゴリズムアップデートによる検索流入低下時には、運営者のなんらかの努力でその流入数を元に戻すことは現時的ではありません。

となると、訪問してくれるユーザーさん一人一人をより大切にしなければいけないわけです。

パフォーマンス改善はこのような有事の際の保険にもなりますので、ぜひ取り組んでおきたいものです。

実際の表示速度とは必ずしも一致しないかもしれませんが、"検索から来た人のUXを改善する"という意味ではPageSpeed Insightsは外せないと思います。

PageSpees Insihgts

私も頑張ります(汗

2-4,MFI対応に問題がないか確認する

先日、9月以降にMFIへの強制移行がはじまるとの告知(英語)がありました。

まだMFI移行されていないサイトは、このタミングでMFIが来ても問題がないかチェックする必要があるでしょう。

詳細は先日投稿した記事をご覧ください。

もう一度モバイルファーストインデックス(MFI)について振り返ってみた

3,クロールの最適化について見直す

大規模サイトにしか必要ではないと思いますが、大規模サイトのSEOだと取り組まなければいけない課題になることが多いと思います。

3-1,ページの重要度において傾斜をつける

SEOにおいて重要なページとそうでもないページがあると思います。

  1. Landing Pageになり得るページ
  2. Landing Pageをあげることをアシストするページ
  3. SEOには役立たそうなページ

があったときに、1 > 2 > 3の順にクローラーに積極的にプッシュしていきます。

1はsitemapに掲載する、2は何もしない、3はクローラーを回さないなど、ここはサイトそれぞれにカスタマイズする必要がありますが、大事なものはクローラーが見つけやすいようにし、不要なものはクローラーに見つからないようにするという意識が必要だと思います。

(ここは中途半端に書くと誤った方法で大失敗してしまうケースがあると思いますので、敢えてざっくりした表現に留めます。

慣れていない方は専門家に相談されることをおすすめします。)

3-2,不要なページへのクロールを回避する

先ほど記述したようにSEOに役立たない、むしろクロールバジェットなどの観点からマイナスになり得るようなものはクローラーを回さないようにすることが有効なケースが大規模サイトの場合あります。

noindexにしてもindexが回避されるだけでクローラーは回ってきますので注意してください。

(クロールの頻度は下がるように思いますが)

クロールの回避には、サイト内リンクでそのページへのリンクに rel="nofollow" を設定するというのがありますが、それよりもクロールさせたくないURLを特定のURLパターンにして、robots.txtにてdisllowするというのが確実性が高いと思います。

本当は品質の低いコンテンツは作らないのが一番ですが、どうしてもそれが回避できない場合に、かつて特定のディレクトリに格納してクローラーをブロックするという方法をとったことがあります。ブロックしたいものや無駄なものを別のサブドメインに逃すというのでも良いでしょう。

disallowの方法

4,被リンクやサイテーションついて見直す

まずいないとは思いますが、有料リンクをまだ購入しているという人はこのタイミングできっぱりとやめましょう(笑)

4-1,被リンクが獲得できないか検討する

被リンクというのは非常に獲得し辛いものです。特にSNSからではないdofollowのリンクは獲得が難しい時代になっています。その分SEO効果が期待できるということもあり、それで有料リンクがなくならないというのはあると思いますが、当然バレれば厳しいペナルティ(手動対策)が待っていますので気をつけましょう。

被リンクでこういうときだからこそチェックしておきたい例としてもらえるはずのリンクがもらえていないケースです。

例えば

「グルメサイトAを運営しているとして居酒屋αが掲載されている。αの公式サイトからはグルメサイトB,Cに掲載されている旨は書いてあってリンクもあるが、Aにはない」

とか

「宿泊予約サイトAを運営しているとして、ある観光情報サイトに旅館αの情報が記述されている。そこからは宿泊予約サイトBとCの予約ができる詳細ページにリンクされているがAにはない」

こういうときに「うちにもリンクしてください!」とお願いをしてみるのはありだと思います。

特に後者で公共性の高い機関(観光協会のようなところ)がやっている場合はそういう機関だからこそ中立性担保のためにリンクしてくれることが多いです。

最近でも一社スタートアップの会社がそれでリンクを獲得していました。

 

海外では、「SEMrushとかAhrefsとかMajesticなどを使って競合の被リンクを調べてギャップを埋めましょう」なのが多い気がしますが、基本的には上記と同じようなことになるかなと思います。

 

メディアだと"被リンクが集まるコンテンツを作ろう"的考え方になると思いますが、どうやったら被リンクがもらえるコンテンツになるのかは私には分かりませんし、被リンクを目的にコンテンツを作るのもなんだかなあと思いますので、まずは被リンクする価値があるようなそこにしかない情報が含まれて高品質なコンテンツを作るということになると思います。

4-2,サイテーションが獲得できないか検討する

ここで言うサイテーションは、被リンクがあろうがなかろうが、そのサイトや会社や製品についてオンライン上で言及されるとか、指名検索されると考えてください。 

先の被リンクの話がそのままサイテーション獲得に結び付くと思いますが、サイテーションだとSNSに対しての意識をより強めたほうが良いと思います。

このタイミングでSNS運用に力を入れてみるというのもできるのであればアリだと思います。

個人的にSNS運用がうまい(強い)ところはSEOが成功する可能性はかなり高まると思います。

強力なSNSアカウントでシェアされたコンテンツは自社コンテンツであっても伝播する可能性が高まるでしょう。

そのようなものが直接的にオーガニック検索で上位になるかどうかは別として、多くの人に見てもらうことによってリンクしてくれる人がいるかもしれませんし、様々なシグナルがGoogleに送られる可能性が出てくると思います。

とは言え、SNS運用には組織の理解が必要なので組織によってはこの時期だからこそやりにくいというのはあると思いますし、このような時期は炎上リスクが高まる時期とも言えるので慎重に運用する必要はあると思います。

5,ユーザー行動におけるボトルネックを見直す

5-1,まずは理想的なユーザー行動について考える

理想的なユーザー行動はそのサイトやコンテンツによって変わります。

この理想的なユーザーはサイト運営者都合で考えすぎないことです。特に日本ではPVが重要視される傾向にあります。

そのため、情報コンテンツだと頭の部分だけ少し見せてから「もっと見る」「この記事をもっと読む」「全文を表示する」などで1ページ目を初めて表示するなどのUXが多くなっています。

また、情報コンテンツではそのコンテンツからいかに回遊するかで頭を悩ませる人も多いと思います。

これは、広告収益で運営しているサイトにとっては生命線なので理解できることではありますが、ユーザー側の視点に立つと情報コンテンツはそのページで課題解決できることが理想なわけです。

「換気扇掃除」のコンテンツがあり、

"そのページを読んだけど、いまいちしっくりこなくて別のページも探してやっと自分にあいそうな方法を見つける"

よりも

"そのページに自分にぴったりのものがあってそこから掃除をはじめる"

ほうが理想的なわけです。

一方で先に記した通りPVを稼がないといけない事情もあるでしょうから、ここはバランスをとる必要があると思います。

5-2,理想的なユーザー行動のためのボトルネックを見つけて修正する

理想的なユーザー行動が定義できたら、理想的なユーザー行動を阻害するものを仮説だったりツールを使った検証で発見して修正する必要があります。

表示が遅くて即離脱ばかりとか、(クリックされず収益にもならない)広告が多すぎるとか色々見えてくると思いますので、ひとつひとつ改善していく必要があるでしょう。

SEOの担当者だけでできないこともあるかもしれませんが、協力を仰ぐためにも可能な限り仮説と検証を行なっておきたいところです。

6,Googleの品質評価ガイドラインを読み直す

一番現実的なのがこれかもしれません(笑)

時間がある方かつ今までちゃんと読んだことがない方は本当に読んだほうがいいと思います。

読んだのが2年前だみたいな方も読み直したほうが良いと思います。

複数回読んだことがある人は個人的には評価例を見ると面白いと思います。

"Googleはこういうものを良いコンテンツだと考えているのか!"

というのが具体的に分かると思います。

長期戦になりそうですし、仮にかなりの長期戦になった場合で一時的にSEOがストップされるみたいなことがあったとしても、長期戦が明けたあとのSEOに必ず役立つと思います。

個人的には品質評価ガイドラインを読むと、そのたびにSEOレベルが1上がるような感覚があります。英語で読むのは大変ですが、読後の満足感も高いので悶々としやすいこの時期に読み切れると精神的にも良いのではないでしょうか?(謎)

 

Google品質評価ガイドライン

Google 品質評価ガイドライン (General Guidelines) [PDF]

7,サイトやサービス、製品そのものの見直し

JADE長山さんが、昨年のWebmaster Conferenceで言われていたことと同じです。

今のSEOはウェブサイト上だけで完結しないことが多くなっています。

SEOで成功するには、そのプロダクトそのものが評判になったり、好意的に受け止められたり、人が紹介してくれることが必要なことが多くなっています。

また、コンテンツだけとってみても、既視感のあるものは上がりにくくなっています。

どれだけ人を惹きつけられる魅力的な、ユニークな、オリジナルな要素があるかというのがこれまでになく重要になっているはずです。

そして、ユーザーが使いやすいこと、良いユーザー体験を提供することもSEOには直接的か間接的かは別として重要になっているはずです。

既存のSEOという概念に囚われず、このタイミングで一度、より広い視点で考えてみると良いと思います。

おわりに

個人的にはセミナーができないとかミーティングが一部なくなったりとかで普段よりは時間がありますので、これらのことを考えてみたいと思っています。

皆さんはいかがでしょうか?ここに出ているものは私がここで考えてみようと思っていることです。

皆さんの置かれた環境、いまの状況によって考えるべきことは異なると思いますが、少しでも"考えるきっかけ"になったら嬉しいです。

先が見えない時代ですが、そもそもSEOなんて先が見えないことが多いので(笑)この状況でもやれることをやっていきたいものです。

 

@kimuyan

 

Google Discoverに出ているものの特徴(4)

5 years 8ヶ月 ago

さてSEOにおいても最近非常に重要性を増しているという、Google Disocoverについてここまで3回ほど書いてきました。

Google Disocverについて書いたのに、2回目・3回目は表示すらされていません(汗

原因はここかなと思うところはあるのですが、そこは検証してからこのブログかTwitterで公開したいと思っています。

 

さて、今回はGoogle Discoverに出ているものの特徴第4回。

ページの特徴について書きたいと思います。連載としては今回が最後です。

(まとめ記事は作るかもしれませんが)

 

繰り返しですが、グラフの見方は詳しくは1回目の記事をご覧いただきたいと思いますが、一番右がGoogle Discoverの特徴、それ以外はInformationalクエリにおける通常検索結果の左から5位刻みの箱ひげ図となっています。

ページのトピックワード出現数とGoogle Discover

キーワード出現回数とDiscover

通常検索ではキーワードが直接的に多く表記されているものが上位になる傾向がずっと高いのですが、Google Disocoverにおいてはそうでもなくなっています.

むしろ通常検索では50位のレンジよりも少なくなっています.

 

ページのトピックワード出現率とGoogle Discover

キーワード出現回数とDiscover

出現回数と同じように、出現率についても通常検索に比べて非常に低くなっています。

 

まず前提として勘違いしていただきたくないのは、キーワードをたくさん詰め込めば通常検索、オーガニック検索で上位になるとは限らないということです。

キーワードの数とは"相関"してはいますが、因果関係は不明です。

個人的にはキーワードがたくさん入っているということが大事なのではなく、キーワードが濃くなることで、ぱっと見でも、読み込んでみてもそのコンテンツがキーワードのトピックに対してのものであるということ、そのトピックに対して詳しくて役に立つことが伝わりやすいのではないかと思っています。

どうにもならない低質な、例えばオリジナル性がないとか同じことを繰り返し言っているだけとかのコンテンツにキーワードをたくさん入れたところで上がることはないでしょう。

さて、話がそれたのでGoogle Discoverに戻します。

ここでトピックキーワードの出現数、出現率が通常検索より少なくてもGoogle Discoverに出てきている件ですが、これは今回の分析手法に依るところでもあります。

トピックキーワードは正式名称で記載されていることが多く、例えば「大韓民国」とか「国際オリンピック委員会」と記述されています。「韓国」とか「IOC」とかの記述になりません。

今回はそのワードの揺れを含められていないのでこのような結果になっています。

Google Disocverはユーザーの興味があることに対してGoogleがプッシュしてくれる仕組みですので、当然ですがどんなコンテンツか?何について書いてあるコンテンツなのか?は重視しているはずです。

キーワードの直接表記回数みたいな単純な話よりも、個々のユーザーが興味を持っているトピックに対して詳しいか、品質が高いかもっと高度な自然言語処理等によってで判断をしていると思います。

そのためキーワードが直接表記されているされていないに関わらず、そのトピックに対して良質なものが出てくるようになっていると考えればよいと思います。

 

ページの文字数とGoogle Discover

文字数とGoogleDiscover

ページの単語数とGoogle Discover

文字数・単語数ともに通常検索の1-5位レベルと同等に多めのものが表示される傾向にありました。

もちろん通常検索もDiscoverもただ文字が多いものが出てくるわけではありませんが、情報量が豊富なものがある程度優位であることはありえそうです。

 

ページの物理的な長さとGoogle Discover

ページの長さとDiscover

文字数が多いものが出やすいので当たり前と言えば当たり前ですが、ページの長さが長いものが出やすい傾向にありました。

メインコンテンツ画像数とGoogle Discover

画像数とGoogleDiscover

Discoverは画像が重要であると言われていますが、画像数が多いものが出やすい傾向にありました。良質は画像をある程度の数配置することは重要だと思われます。

全画像ダウンロード時間とGoogle Discover

画像読み込み時間とDiscover

画像のダウンロード時間が長いものがDiscoverに表示されている傾向にありました。

Google Search ConsoleヘルプのGoogle Discoverの項目にも、「コンテンツに高画質の画像を使用することをおすすめします。」とあります。

高画質にすればダウンロード時間はかかります。もちろん表示のパフォーマンスに極端にしない程度という前提はありますが、やはりGoogle Discoverには一定の画像品質が必要だと思われます。

また、多くの画像をパフォーマンス向上のためRazy Loadを使って表示しているということもあるかもしれません。

Above the foldの画像表示時間とGoogle Discover

ATFの画像表示時間とDiscover

ページの画像全体のロード時間が長いものが多く表示されている傾向がある一方で、Above the fold (ファーストビュー)の画像の表示時間は遅くないほうが良いようです。

離脱を防ぐため高品質な画像をAbove the foldは速く表示できるようにしたほうが良さそうです。

h1の物理的な幅とGoogle Discover

因果関係はまったく分かりませんが、h1の物理的な幅が小さいものが多く表示される傾向にありました。
シンプルにトピックを伝えるものが優位なのか?とも考えましたがもっと多く出ているYahoo!ニュースのロゴが<h1>なのでその影響が大きそうです・・・。

サイト内発リンク数とGoogle Discover

サイト内発リンクとDiscover

通常検索同様にサイト内の発リンクが多いものが優位になっているようです。

通常のinformationalクエリと異なり、同じ情報コンテンツでもDiscoverは平均PV数が多かったり滞在時間が長いものが多く掲載されている傾向にあったので、サイト内リンクを積極的に張って回遊を促すことでDisocoverに出やすくなるという可能性もなくはないと思います。

いずれにしても通常のSEOと同様にコンテンツを読んだあとに、もっと読みたくなるようなコンテンツにリンクしてあげると良いと思います。

 

サイト外発リンク数とGoogle Discover

サイト外発リンクとDiscover

サイト外への発リンクはDiscoverに出ているものは通常の検索結果のものに比べて非常に多いという結果になりました。
ニュースサイトは本来別のニュースサイトで配信されており、そこへリンクバックしているものが多いということもありますし、Discoverに表示される記事を起点にしてインターネット上のコンテンツにアクセスしてほしいというエコシステム的な考え方がGoogleにあるのかもしれませんし、コンセンサスを示すような発リンクが評価されているのかもしれません。
いずれにしてもユーザーの付加価値になるような発リンクは積極的に行うべきだと思います。
オーガニックでも若干ポジティブですし、ページランクスカルプティングなんてものはもうないので。

広告占有面積とGoogle Discover

YMYLの領域など広告が目立つものが表示されなくなる傾向にある場合もあります。

Google Discoverに関しては問題視されないようです。

もちろんメインコンテンツを読むのに邪魔になるレベルでの広告はダメでしょうが、広告があるから出ないというのは現時点ではないと言えます。

ニュースメディア等は広告収入によって運営費が捻出されていますしね。

 

非同期(Client-side Rendering)率とGoogle Discover

非同期率とDiscover

偶然かもしれません、因果関係はないかもしれませんが、SSR率が高いもののほうが出やすい傾向にありました。

JavaScriptを使ってコンテンツを表示するとクロールとレンダリングという2回の処理がされてindexされる性質があることから(詳しくはJADE長山さんの記事をお読みください)、indexがスムーズにされるSSRが有利なのかも・・・と思いましたが、今はSSRとCSRのindex速度の差はほとんどないと言われいますので、やはり単純に相関しているだけかもしれません。

ただ、通常Discoverに出てくる、また出したいサイトはニュースサイトなどの巨大なサイトが多いと思いますので、SSRにしてクロールバジェットの消費を抑えるというのはありだと思います。(自分ならたぶんそうします)

 

コンテンツ公開日とGoogle Discover

コンテンツ公開日とDiscover

データ取得日が少しずれるので上端がDiscoverのほうが上になっていますので相対的に見ていただく必要がありますが、特徴的なのはDiscoverのほうが圧倒的に新しいものばかりが表示されるということです。

ニュース性のあるトピックでニュースコンテンツが表示されることがほとんどなので当たり前と言えば当たり前ですね。

Discoverから多くの流入を得たいのであれば、とにかく新しいコンテンツを作り続ける必要があると言えます。

ページの表示時間/情報量(byte数) と Google Discover

ページの表示時間/情報量(byte数) と Google Discover

上記のinformationalクエリにおける通常検索では相関がない"ページ表示時間/情報量"ですが、実はECサイトなどが対象となるtransactionalクエリでは強い相関があります。

ただ表示が速い遅いではなく、豊富な情報を速く見せているものがtransactionalクエリでは優位性があります。

それと同じように、"ページ表示時間/情報量"つまり豊富な情報を速く表示できているものがDiscoverでは多く表示されていました。

Googleがサジェストしてきたものの表示が遅かったらユーザーとしてはGoogleへの怒りが湧くでしょうから、この傾向は納得できます。

ただし、SEOとかGoogle Discoverとか言う前にユーザー体験のために行っておくべきことではありますが。

 

まとめ

今回はページ内部についてGoogle Discoverとの関係性を検証してみました。

まとめると

  • トピックワードの直接表記ではなくトピックそのものについて詳しいコンテンツに
  • テキスト、画像ともに豊富な詳しいコンテンツに
  • 高品質は画像を使う
  • 高品質な画像でもAbove the foldは素早く表示させたい
  • サイト内外とわずユーザーに役立つ発リンクは積極的に行う
  • SSR(Server-side Rendering)のほうが安全
  • 原則新しいコンテンツが出るので日々更新や追加を
  • 単に表示時間を短くすることではなく豊富な情報をいかに速く表示させるか

というところになるでしょう。

 

以上で4回に渡ってお送りした"Google Discoverに出ているものの特徴"は終了です。

特徴から見て、何をすべきなのかのまとめ記事は書くかもしれませんが、まずはこの4回分の記事をお読みいただき、Discoverが狙いたい方は工夫してみていただけると嬉しいです。

@kimuyan

 

なお、サイバーエージェント広告事業本部のSEOコンサルティングに興味がおありの方は、

こちらからお問い合わせください。

Google Discoverに出ているものの特徴(3)

5 years 8ヶ月 ago

さて、Google Discoverに出ているものの特徴の第3回です。

GoogleDiscoverに出ているものの特徴(1)

GoogleDiscoverに出ているものの特徴(2)

 

ちなみに第2回の記事のDiscover表示回数およびクリック数は、まさかの「0」です!笑

なんとなく心がああたり(仮説)が2つあるのですが、それは今回のものが出るか出ないかによってでして、その話はまた後日。

 

さてGoogleDiscoverに出ているものの特徴3回目は、"サイト"について関わる部分について見ていきたいと思います。

ここで言う"サイト"はGoogleがよく"ホスト"と呼ぶ「サブドメイン」だと考えて頂いて構いません。

 

グラフの見方は詳しくは1回目の記事をご覧いただきたいと思いますが、一番右がGoogle Discoverの特徴、それ以外はInformationalクエリにおける通常検索結果の左から5位刻みの箱ひげ図となっています。

 

サイト全体のindex数とGoogle Discover

index数とDiscoverの関係

サイト全体のindex数≒サイトの規模と言っても良いと思いますが、通常の検索結果に比べてDiscoverは大きなサイトが出ていることが分かります。

Yahoo!ニュースはじめ大きなニュースサイトやニュースポータルが出ていることが大きいとは思いますが、大規模サイトのほうが信頼性が高いと見ている可能性もあると思います。

 

サイト内のキーワードを含むページ数とGoogle Discover

サイト内キーワード含有ページ数とDiscover

サイト内のキーワードをtitleに含むページ数とGoogle Discover

サイト内キーワードtitle含有ページ数とDisocover

さて同じようなグラフが2つ並びました。

これは、サイト内におけるそのトピックの厚みを表すような指標になると思います。

「渋谷スクランブルスクエア」がトピックワードであれば、前者が「渋谷スクランブルスクエア」が含まれているページが何ページあるか?で、後者が「渋谷スクランブルスクエア」を<title>タグに含むものが何ページあるか?を見ています。

ページ全体に含まれているものを見ているのと<title>に含まれているものを見ていることからY軸の数値が異なります。

通常検索でもある程度これらの数値が大きいほうが優位になっている傾向がありますが、Discoverの場合はそれよりも大きい数値になっている、つまりそのトピックに対してサイトとして厚みがあるものがよく出ている傾向になります。

「渋谷スクランブルスクエア」のコンテンツが1ページだけのものよりも100ページ持っているもののほうが多く出ている傾向にあるということです。

もちろん、大規模なサイトが出やすいということから相関しただけと考えられなくもありませんが。

 

サイト内のキーワードをtitleに含むページの比率とGoogle Discover

titileへのキーワード含有率とDisocover

先の"サイト内にキーワードをtitleに含むページ"がサイト全体に対してどのくらいの割合あるかというものを出してみました。

そのトピックの濃度みたいな話でしょうか?

サイト全体が「渋谷スクランブルスクエア」の話題なのか?それとも数多ある「渋谷」の話題の中のひとつとして「渋谷スクランブルスクエア」があるのか?ということになります。

通常検索でも若干濃度が濃いほうが上位になりやすい傾向にありますが、Disocoverは中央値が上がっていることを見ると若干ですが濃度が濃いほうが出ているものが多くなる傾向にはあります。

ただし、数値的には1%にも見たいない差のため気にするレベルではないかもしれません。

率を考えるよりも先にあったような数で考えるほうが良いでしょう。

これはオーガニック検索においても同じことですが、そのトピックに対してどれだけ網羅的で詳しく役立つコンテンツが提供できているかということに尽きると思います。

 

ドメインエイジとGoogle Discover

ドメインエイジとDiscover

【朗報】な人もいるかもしれないですが、ドメインエイジとは相関がありませんでした。

通常検索でも「ドメインエイジが長いほうが優位に働く」というふうに言う人もいますがこれらはGoogleが否定しています。ドメインエイジが長いサイトのほうがリンクやサイテーションが集まっていて、もしくは集まりやすくてということはあると思うのでまったく間接的にも関係しないとは言えないと思いますが。

Discoverにおいては若いドメインも出てきているようです。

サイト規模が大きい方が有利とかサイテーションが多い方が良いとか被リンクがサイト全体に多い方が良いとか(第2回の記事参照)、そういう部分では若いドメインよりも歴史あるドメインのほうが蓄積されやすいと思いますが、新しいサイトだからと言って出すことが不可能なわけではないようです。

 

httpsとGoogle Discover

httpsとDisocover

よくわからないグラフになりましたが、線がY軸「1.0」のところに集中しています。

httpsなら1、httpなら0になるようにしています。

見ての通り全部「1.0」です。

通常検索でも5位以内は現在ほとんどがhttpsになっています。

当然のようにDiscoverについても「1.0」です。

データ上ではDiscoverはhttps率100%でしたし、私のスマートフォンで見ても現時点ではhttps率100%でした。

いまのご時世、httpに好んでするケースはないと思いますが、まだ粘っている方は早めに変えたほうが良いとは思います。(某大学はいつhttpsにするのだろうか・・・・)

 

まとめ

ということで今回はサイト全体の作りのような部分とGoogleDiscoverの関係を見てみました。

前回の外部要因のところでInformationalクエリではなくてTransactionalクエリの特徴に近いことをお伝えしたと思いますが、実は今回のものもその傾向が強くなっています。

サイト規模が大きいもの、トピックに厚みがあるもの(そのカテゴリの商品が多いECサイトが有利という理論)などはまさにそれです。

とは言え、Transactionalクエリどうこう意識するよりも、そのトピックにおいて1ページでなんとかしようとするのではなく、サイトとして詳しい役立つ状態になることを目指すべきではないかと思います。

次回たぶん最終回ですが、ページの作りとDiscoverの関係性をお伝えしたいと思います。

 

@kimuyan

 

なお、サイバーエージェント広告事業本部のSEOコンサルティングに興味がおありの方は、

こちらからお問い合わせください。

Google Discoverに出ているものの特徴(2)

5 years 8ヶ月 ago

前回は、Google Discoverに出てくるものの特徴のうち、ユーザーの行動に関わる部分をご紹介しました。

前回の投稿は、856クリックされているというデータになっています。

普段まったく更新をしないブログからすると非常に大きい数値です。

いかにGoogleDisocoverに"可能性"があるかお分かりいただけるかと思います。

(社内に向けても言っています)

さて、今回はGoogleDisocoverに出てくるものの特徴の第二弾です。

今回は通常検索のSEOでも気にする部分である被リンクなど外部要因の部分に触れていきたいと思います。

前回ご説明した通り、一番右がGoogle Discoverの特徴、それ以外はInformationalクエリにおける通常検索結果の左から5位刻みの箱ひげ図となっています。

 

ページへの被リンクとGoogle Discover

Doiscoverに出てくるページは被リンクが多いことが分かります。その比は通常検索の比ではありません。

Discoverに出たから被リンクが増えている可能性もなくはないですが、Discoverで見たからと言ってサイトやブログにそれを引用してリンクするという人はそこまで多くはないと思いますので、多少因果はあるのではないかと思っています。(個人的見解です)

 

サイト全体への被リンク数とGoogle Discover

通常検索においては、Informationalクエリでは一般的に(YMYL領域を除いて)サイト全体への被リンク数が多かろうと少なかろうとページ単位での評価が強く、サイト全体への被リンクは相関がほとんどないのですが、Discoverの場合、「これでもか!」というくらいに強く相関します。これは因果かどうか(Googleがそのサイト全体への被リンクを見てDisocoverに出すものを選んでいるか)は不明です。私のDisocoverではYahoo!ニュースがもっとも多く出てきますし、そのほかも大手の新聞社などが多いです。今回の元データでもそうなっていたため、直接的な因果関係はないけれど出てしまったということもあり得ます。
個人的には、サイトそのものの信頼度を評価するために使っていそうには思いますが。
なお、通常検索でのTransactionalクエリではDisocoverのようにサイト全体に被リンクが多いものが上位に表示される傾向にあります。
 

ページのFacebookシェア数とGoogleDisocover

そのページがFacebookでシェアされている数も相関関係がありそうです。
ただし、こちらはリンクよりはDiscoverに出ていたからシェアしたというのはありそうですね。
 

サイテーションとGoogle Discover

ここでは「サイテーション」という言葉を使っていますが、実際は「メンション」のほうが正しいかもしれません。この数値は、そのサイトや運営者の名前がどれだけオンラインコンテンツで記述されているか?を取得しています。オンライン上での知名度、有名度を表すひとつの指標になると思います。
通常検索においてTransactionalクエリではこの数字がガッツリ相関するのですが、Informationalクエリでは相関が見られない項目です。これは被リンクと同じですね。
Discoverではこれも被リンクと同様に、サイテーションが多いものが極端に優位になっていました。
ごく稀に知らないサイトが出てきますが、ほとんどは先述した通りYahoo!ニュースなどよく見るニュースサイトだと思います。
 

まとめ

通常検索結果のInformationalクエリにおいて上位になっているものは外部要因の部分では、
  • そのページに被リンクが多い
  • そのページのSNSでのシェアが多い

という特徴あるのですが、Discoverに出てくるものには、

  • そのページに被リンクが多い
  • そのページのSNSでのシェアが多い
  • そのサイト全体の被リンクが多い
  • そのサイトや運営者の名前がオンライン上で多く語られている(≒知名度が高い)

という特徴がありました。

これは通常検索結果でのTransactionalクエリでの特徴に似ています。

Transactionalクエリにおいてはお金のやりとりが発生することが多いため、信頼性が高いサイトが上位に表示される(というよりも信頼性が引くサイトが上位に表示されない)という特徴があると思います。

GoogleDiscoverについては、ユーザーからするとGoogleが推薦しているものと見えると思います。

そうなると信頼性に乏しい情報を出すのはリスクが高いでしょうから、このようなTransactionalクエリで出てくるような傾向と同じになるのは納得いくところではあります。

ただ、「○○市」や「検索エンジン最適化」などのトピックでは個人運営のサイトやブログなども出てくるので、すべてがすべてそうではないので領域によっては誰もにチャンスがあるものだと思います。(本当に領域によりますが)

 

次回からはサイトやページの作りの部分の特徴をご紹介します。

 

@kimuyan

Google Discoverに出ているものの特徴(1)

5 years 8ヶ月 ago

Google砲とかいう呼び方もされているGoogle Discoverですが、情報発信しているサイトにとっては非常の大事なものですよね。

ほとんど更新しない&SEOのことについて書いているのにSEOを意識して書いていないこのブログでも更新するとありがたいことにGoogle Discoverに多少なりとも出してもらえているらしいです。(最新分は表示とクリックの線が重なっています)

Search Console Google Disocver

ニュースサイトやブログのように情報発信しているサイトを運営されている方からGoogle Discoverに出したいんだけど!という声はよく聞きます。

(コンテンツの属性によってはまったく出ないもしくはほとんど出ないので、どんなコンテンツでも出るわけではないのでご注意ください。)

基本的なところは、まずはGoogle Search Consoleヘルプをお読みいただくと良いと思います。

Discoverは画像が重要であり、1200px以上の大きい画像を用意しましょうということなどが書かれていますが実際は1200px以上の幅がある画像を使っていないケースでもDiscoverには出ていますので、これらどこまでが必須条件か?という問題はありますし、簡素すぎるオプトインプログラムの申し込みについては、もはややばいサイトに来ているんじゃないか?とすら思ってしまいますが・・・。

さて、Googleが用意してくれているヘルプページはあるもののその通りやってもなかなかGoogle Discoverに出てこないよといったケースがあるかと思うので、実際にどういうものが出ているのか?というのを調べてみましたので、今回から数回にわけでその結果をご紹介したいと思います。

なお、こちらの情報は昨年末にサイバーエージェント主催で行なったSEOセミナーやGoogleのWebmaster Conference Osakaで話したものとほぼ同じです。

データについては昨年12月初旬のものとなりますので今は多少違う部分もあるかと思いますがご了承ください。

 

まずはDiscoverに出ているコンテンツのURLを収集します。

Discoverにアクセスして、出てきた記事の右下部分をタップします。

そして、そこに出てくる単語、ここで言えば「浜松市」(ちなみに私の故郷)を抽出していきます。この単語を"トピックワード"とします。

そうすると、Discoverに出ているURLとトピックワードの組み合わせが出てきます。

Google Discover 画面

そのあとは、通常のGoogle検索の分析で行うような、サイト/ページ内外の数値の状況を取得して傾向をグラフ化しました。

なお、今回はDiscoverの特徴を比較しやすいように、そのトピックワードでのGoogleでの通常の検索結果における各順位にあるURLの傾向とグラフを並べてみました。

ここでご紹介するものはほんの一部です。実際は150以上の項目をとっていますが、まあほとんど特徴が見られないので・・・。

あと、論文ではないので取得方法等の細かいところはここでは割愛させていただきます。

 

では特徴的だったものをいくつか見てみましょう。

図が見辛くて恐縮ですが、一番右がGoogle Discoverの特徴、それ以外は左から5位刻みの箱ひげ図となっています。

 

1回目はユーザー行動関連とGoogle Discoverの関係です。

直帰率 と Google Disocver

Disocverに出ているものは直帰率が低い傾向にあることが分かりました。
通常検索の場合、情報コンテンツは全体的に上位はむしろ1ページしか読まれない、計測上直帰率が高いとして出てしまうものが上位になる傾向にあるのですが(1ページしっかり読んで満足できるものは良いコンテンツだから?)、Discoverに出ているものはそこから回遊しているものが多いという結果になりました。

平均PV数/訪問 と Google Disocver

平均PV数とDiscover
直帰率が低いとサイトは訪問あたりの平均PV数が高まりやすくなるわけですね。
Disocoverには1ページ読んで終わりではなく回遊されているサイトのほうが優位になっていました。

平均滞在時間とGoogle Discover

GoogleDiscoverと平均滞在時間
当然ですが、そうなると滞在時間も多い傾向に。
 

1ページあたりの平均滞在時間 と Google Discover

Google Discoverと1ページあたりの平均滞在時間
サイト内の滞在時間だけでなく、1ページあたりもしっかり読み込まれているものがDiscoverいは多く出ている傾向がありました。
 
ユーザー行動関連の数値データとGoogle Disocoverに出ているものの傾向を見てました。
先述した通り通常検索では、1ページ読んで満足するようなものが多く上位に行く傾向にあります。一方でDiscoverは回遊しているもののほうが多く出ている傾向がありました。
また、1ページをしっかり読み込まれているものがDiscoverには出ている傾向がありました。通常検索結果であっても、1ページあたりの滞在時間が長いもののほうが上位になっている傾向はありますが、Discoverはより顕著に1ページあたりの滞在時間が長いものが出ている傾向にありました。
・ちゃんと読了されるような魅力的な記事コンテンツを作る
・1記事読んでももっと読みたくなるような魅力的なサイトになる
・複数ページ読みたくなるような快適なUXを提供する
というところでしょうか?
 
ある意味で通常検索、オーガニックサーチよりも「良いコンテンツ」「良いサイト」が重要なのかもしれませんね。
 
次回以降は被リンクやサイテーションなどの外部要因であったり、ページやサイトの作りの部分について触れてみたいと思います。
 

もう一度モバイルファーストインデックス(MFI)について振り返ってみた

5 years 8ヶ月 ago

先日Googleから

"2020年9月以降に順次すべてのウェブサイトをモバイルファーストインデックス(mobile-first index,MFI)に移行していく"

と発表がありました。 

https://webmasters.googleblog.com/2020/03/announcing-mobile-first-indexing-for.html (英語)

 

モバイルファーストインデックスとは、過去Googleはデスクトップ(PC)でアクセスしたページをインデックスしてランクづけをするのに使っていたものを、モバイル(スマートフォン)でアクセスしたときに表示されるページをインデックスしてランクづけしますよというものです。

もはや過半数のインターネットへのアクセスがモバイルである昨今当然といえば当然の流れです。(BtoBサイトではいまでもPCのほうがアクセスが多いよという話はときどき聞きますが)

 

さて、モバイルファーストインデックスという構想が発表されてから、かれこれ3年以上が経過しているわけですが、

当時私もモバイルファーストインデックスの発表に焦りまして、こんなことを急いでやったわけです。

アメブロで行ったモバイルファーストインデックスへの準備について

https://ameblo.jp/ca-seo/entry-12235557765.html

当時はなつかしきセパレートURLでして、モバイルファーストインデックスが発表になってくれたおかげで(?)現在のように、ameblo.jp一本に統一することができました。

昔のことすぎてあまり覚えていないですが、各種調整から実際移行したときにクローラーがこの膨大なページをどうクロールするのだろうと胃に穴があきそうになりながら進めていたような気がしなくもありません。

後にも先にもアメブロのSEOやっていてこんな大きな変更はしたことがありませんし、できればもうしたくありません笑

当時「いつMFIがくるかわからないからとりあえず急ごう」と社内リソースを一気に投下してもらったものの、

アメブロのブロガー様の中にはご存知の方もいらっしゃると思いますが、アメブロには待てど暮らせどMFIはやってきませんでした。

(大騒ぎして社内リソースを投下してもらったあとの私への社内の視線がどのようなものだったかはご想像にお任せします)

そんな中、ついに強制移行の発表がありました。

 

これまでは原則モバイルファーストインデックスに移行しても大きく下落しないものが移行していったと思うのですが、ここにきて強制移行です。ここまで移行していないということは、リスクがあるのかもしれないと考えてしまいます。というかあると思っています。

先述したように、モバイルファーストインデックス移行はリスクが小さいものが順次移行されていたと思われますが、私が知る範囲では某サイトでは、モバイル側とデスクトップ側の記述差異が大きく数十パーセントの下落を招いたケースもあったようです。(弊社ではありません。そのケースでは特に<h1>というか見出しの違いや有無などソースレベルでbotが読み込む内容が大きく違っていたとのこと。)

決して侮ることのできないモバイルファーストインデックス。

特に大規模サイトの場合は小さなロスの積み重ねで極端にトラフィックを減らすことがあるため、現在このリリースから再度モバイルファーストインデックスについておさらいをするということを行なっています。

ということでせっかくなので確認しておきたいと思っている点をまとめておきます。

あくまで私が見ているサイトにおいてなので、皆さんのものとは過不足あると思いますがその点はご理解いただければと思います。

(細かいことはもっと当然たくさんあると思いますし)

 

モバイルファーストインデックスで確認しておきたいこと

 

・モバイルとデスクトップでメインコンテンツに差異がないか

 - 特にモバイルのほうがコンテンツが薄いケースは心配

 

・モバイルとデスクトップでサブコンテンツに差異がないか(導線など含む)

 - 例えば関連リンクとかがなくて導線が減るケースは心配

 - 情報の信頼性を強化するような信頼ある情報への発リンクがないとかも・・・

 

・UXに差異がないか

 - デスクトップだとそのまま機能が使えるけどモバイルだとアプリダウンロードを要求とか・・・

 - モバイルでコンテンツ隠しすぎてユーザーがしっかり読まないとか・・・

 

・クロール&indexまわりの制御に違いはないか

 - canonicalとかnoindexとかnofollowとかrel=nofollowとかhreflangとかalternateとか・・・

 

・HTMLソースに大きな差がないか

 - title,metaが違うのはさすがに危険

 - hx(特にh1かな)、見出しがモバイルはないというサイトも時々見かける気が・・・

 - モバイルだけ余分なCSSやJSの記述が多くて激重とかもたまに・・・

 - altや構造化データとか結構ないところ多い・・・

 

・レンダリング方式に差はないか

 - CSRでもいいじゃんってのは多くのサイトでそうかもしれませんが、

   特に大きなサービスは長山さんの記事をご参照ください

 - 先にリンクの有無を書きましたが、CSRの場合はクローラーが読み込めるリンクでないとリンクなしと同じ

 

・画像や動画に差異はないか

 - デスクトップとモバイルで使用している画像や動画が異なる場合に仮にそれらの品質がモバイルのほうが劣っていたら、画像検索や動画検索で悪影響があるかもね.今なかったとしても今後ないとは言い切れないよね

 

・広告表示に大きな差異はないか

 - インターステイシャルは論外だけどモバイルのほうは表示面積が大きすぎて・・・ってのは結構ある気が・・・

 

・ユーザー行動に問題はないか

 - ユーザー行動をランキング指標に今使っている使っていないは置いておいて、もし使ってたら将来使うかもという視点で、というかそもそもユーザー行動はSEOのためでなく改善すべきもの・・・

 

・表示速度に問題はないか

 - これもSEOのためにやることではないけれど・・・

 etc..(社内共有したものを全部書くと怒られそうなのでこのへんで)

 

極論、デスクトップでは見せるけどモバイルでは表示しませんとかやってたらアウトなわけですし、そのほかいろいろそれぞれのサイトに合わせて懸念点は出てくるかと思います。

3年前にほぼ対応したと思っていても抜け漏れがあるかもしれませんし、対応していなくてもそのままいくと経営判断したものも3年経てば事情は変わります。

ということでここにきて急遽再度丁寧にモバイルファーストインデックスの懸念点の洗い出しとその対応を進めている次第です。

(懸念点の中にはモバイルファーストインデックスリスクよりもビジネスリスクのほうが大きいというものもあるので、敢えて無視するものもあると思います)

みなさんのウェブサイトでもまだモバイルファーストインデックスに移行していないところは、再度懸念点がないか洗い出してみてはいかがでしょうか?

 

なお、私個人としては、モバイルファーストインデックスを理由に「ついでだから」ともうちょっとクロール&indexで改善できそうな点がありそうだったので実装してもらっちゃおうと、モバイルファーストインデックスをダシに使うことを考えています笑(こういうのはインハウス担当者は大事だと思います)

 

ちなみに9月から強制移行がはじまると言っても、それまでに移行されるサイトがないとは言えないので(先述したケースのように"強制"じゃなくても落ちてしまったものもある・・・)早めに対応しておくに越したことはないと思います。

 

@kimuyan

 

確認済み
2 時間 22 分 ago
サイバーエージェントSEOラボです。当ブログでは、皆様がウェブサイトを運営するにあたって必要となるSEOに関する情報をご提供して参ります。
CyberAgent SEO Information フィード を購読

人気記事トップ10

人気記事ランキングをもっと見る