CyberAgent SEO Information

インハウスSEOで意識していること

4 years 6ヶ月 ago

久々の更新は珍しく、インハウスSEOについて書いてみたいと思います。

個人的にはアメブロやABEMAをはじめ本当に数多くのインハウスSEOを経験させてもらえました。

そのどれもが決して褒められた成果を出せず、SEOの成果が出せなかったからクローズさせてしまったサービスは10や20ではおさまらないと思います。

SEOという領域に全責任を持ち、サービス全体にも一定以上の責任を負う状態でクローズさせてしまった数としては間違いなく弊社で一番多いと思いますし、下手したら日本でも一番多いかもしれません。

 

そんな失敗だらけの私がインハウスにおいて大切だと思うことをいくつか記してみたいと思います。

これは、これから私と一緒にインハウスのSEOチームで活躍してくれる後輩たちへのメッセージでもありますので対象者は必ず読んでください笑

 

インハウスのSEOでは、SEOの知識や技術以上にプロデューサーやディレクターやエンジニアやデザイナーなどいろんな職種の人を巻き込んで、施策をすすめていく必要があります。

リソースを割いてもらうという意味では事業責任者とか役員とかの協力が必要なケースも多々あると思います。

特に弊社のメディアのインハウスSEOチームは多くても3名程度で動き、その先は各事業のリソースを使って進めていくので人を巻き込むということができないとただ座っているだけの人になります。

人を巻き込んでSEOを遂行していくには何よりもその事業やサービスの人との信頼関係を構築していかなければなりません。

私自身はとにかくここが苦手でして、それを先輩風と恐怖政治と酒で進めた過去があることは当時の被害者の方にここで謝罪させていただきます。。その節は誠に申し訳ありませんでした。

もちろんそんな無理矢理なやり方では、とんでもない効果でも出ない限りどこかで限界がきます。

 

そんな失敗を何度もして、インハウスSEOをやるうえで、特にインハウスSEOをしていくうえで信頼を得てチームを巻き込むために意識したほうが良いと思うことが自分の中で定まってきたので、いくつかご紹介します。

 

1.情報の発信をする

これは社内外に情報の発信をしていく必要があると思います。

よく現場で言われたのは「このブログにこう書いてあるからあなたの言うことは違うのではないか?」ということです。

私はあまり言われたことはないですが、メンバーはよく言われていました。

海外SEO情報ブログウェブ担SEO JapanJADEさんのブログならまだしも、私が一度も見たことがないようなブログやいつの時代かわからない記事のURLが提示されたことが多々ありました。

インハウスをやって思ったことは「代理店事業でSEOサービス提供してたときは、なぜお客さんは改善提案を聞い入れてくれていたのだろう・・・」でした。

それは、“外の意見”というのは中の意見よりも権威性を感じやすいからではないか?と思うようになりました。

身近な専門家よりも遠くの専門家のほうが権威を感じやすいのではないかと思います。

そのため、社内だけでなく社外にも情報発信をし続けて最低限の権威性をつけておくとスムーズに施策を進められるように思います。

個人的には"他のブログにこう書いてある”と言われた、このブログに"提示している施策をやるべきだ!"って書いてやろうと何回かは思いました(笑

ちなみに最近はTwitterに「これはやったほうがいいかな」みたいなつぶやきをして、社内に話すと「Twitterに書いてあったやつですね」って言ってくれるようになっていて楽です。

2.施策の背景と展望を説明し見える化する

結構やりがちなのが、「このリンクをこうしてください」とか「このHTMLはこう変えてください」みたいにミクロな指示だけをお願いしてしまうことです。

当然エンジニアさんもデザイナーさんもみなさん作業屋さんではありません。その道もプロです。

プロのリソースは理由もなく借りられません。

全体的なSEOという絵の中のどの部分なのか?そして、なぜこの施策が必要なのか?なぜ効果が出そうなのか?を必ず説明する必要があると思います。

例えば、

「サイト内リンクを増やすと、クローラーがURLを発見する可能性が高まるので、こういう上位表示される可能性が高いページにはサイト内リンクを増やしたいのです。だから、こことこことここにリンク追加してほしいです」

みたいな感じです。

「こことこことここにリンク追加してほしいです」

とは天と地の差があると思います。

そして、その施策をやるとどのくらい最大で効果が見えるか数値化できると良いと思います。

コンテンツ追加なら、このコンテンツで半年後にどのくらい検索流入確保できる”可能性”があるか?それを示すだけでも変わってくると思います。

リソースをもらうというのはそういうことだと思います。SEOに限らずどんなアクションでも100%成果出ると保証できるなんてものがないことはみんなわかっているので、可能性で良いと思います。

自分は最小効果と最大効果予測を出していました。

最小 -1,000トラフィック/day 最大 +10,000トラフィック/day とか、時には"マイナスになるかもしれないけど賭けをしたい”みたいなお願いも結構やってきました。まあ、これはそういうのを受け入れてくれる文化が弊社にあったことがありがたかったですが。。

3.根拠を示す

この根拠とは「このブログがこう言っている」ではなく、

・データ的にこうなっている

・SEOが強い競合サイトがこれをやっている

・Googleが発言や発表をしている

です。

海外のカンファレンスもバンバン行かせて頂いていたので、三番目があるのはありがたかったです。

一番目は、セミナーで出すようなデータを出してお願いするような形をとっています。

 

(2019年のPUBCONでのGoogle、Gary Illyes氏のセッション。セッション中に突然「Kimura-san」って名前呼ばれたのは良い思い出です)

(文字数が多いほうが上位になる傾向が強いので、クロール優先度を高めるアルゴリズムを作るときに、"文字数という要素"を入れたいという話をするときなどに使う)

4.相手の手数を減らす

関係性が構築されるまでは相手の工数がなるべく少なくなるようなことを心がけると良いと思います。

よく弊社はSEOの施策を導入するときに小規模なテストを行うのですが、その際にはなるべく”開発”が伴わないように心がけています。

さすがにアメブロなどは小規模テストでも1-2人日の開発が伴ってしまうことが多いですが、それ以外のサービスでは、例えば構造化データを入れて欲しい場合には、実際にJSON-LDを書いて渡す、クローラーをブロックしたいときは、「/hogehoge/以下をdisallowしてください」ではなくて、robots.txtに「Disallow: /hogehoge/*」を追加してください。とか、robots.txtファイルを渡してアップロードしてもらうほうが、スムーズなことが多いと思います。

もちろんその際も背景、理由・効果の予測は伝える必要があります。

関係性がちゃんとできたら、むしろ専門家におまかせにシフトしたほうが安全だと思います。

ちなみに、アメブロの依頼は現在では「このへんのURLブロックしといてー」レベルになっています。。すいません。。

5.小さい成功を積み重ねる

施策の順番は大きな効果が出るものからやりがちですが、大きな効果が出そうなものは効果がゼロかデカイかみたいなのが多々あると思います。

はじめからこれをやって成果が出ないと、そのあと施策を進めづらくなる可能性があります。

はじめてSEOを行うサービスは確実に成果が出そうなところから手をつけるほうがその後がやりやすくなることは言うまでもありません。

人が良いだけでは信頼されません。成果が出なければ組織で信頼を得ることは難しいのはなんでも同じだと思います。

6.成功の手柄は協力者

インハウスに異動して、とにかくここはすごく意識していました。

異動したてのときは、とにかくSEOが全然されていないサービスだらけだったのでダメダメなところを修正するだけで成果は出ていきました。

そのときは上司や事業責任者に「この人、このチームの動きが素晴らしかったから成果が出た」ということをとにかく伝えつづけました。

飲みの場でもいろんな人に、「この人のおかげで数字上がったわー。すごいわー。」と話していました。とある飲み会では、記憶が飛んだあとも、某チームを褒めまくっていてうざかったようですが、そのくらいに自分に染み付いていました。(もちろん心の底から感謝していましたし)

なお、自分のチームのメンバー褒められないという致命的な欠点が自分にはありまして、そこは本当にいままでのメンバーの皆さんには申し訳なく思うとともに、これから修正していきたいと思います。(単純に照れ臭いんです・・・)

あと、もちろん本人へのお礼の言葉は必須です。

7.検証と報告

やりっぱなしにならないこともインハウスSEOとして信頼を得るには非常に重要だと思います。

この施策をした結果こうなりました。というのは報告すべきです。

良い報告はもちろんですが、悪い報告もです。

施策を一緒にやってくれた人は多かれ少なかれその結果を気にしています。

仮に成果が出なくても、なぜ出なかったのかの仮説と、これを無駄にしない次のステップや展望を提示する必要はあると思います。

ちなみに弊社では、アメブロのSEOのオペレーションをやってくれている沖縄チームから何度も何度も成果がどうなのか?を聞かれました。

8.相談事項には必ず答えを出す

相談してもらえるようになれば、それはある程度信頼を得た証拠です。喜んで回答すべきです。

が、もちろん分からないこともあります。SEOや検索まわりで分からないことを「分からない」で返すことは絶対にしてはいけないと思います。

調べられるだけ調べて回答を出すべきです。

もちろん「Aという可能性とBという可能性がある」みたいなことはありますが、ゼロ回答は避けるべきです。

ゼロ回答をすると、もう質問や相談をしてくれなくなることは多々あると思います。

 

 

この1-8を繰り返して信頼の年輪を増やしていくことがインハウスのSEO担当者には重要なことになると思います。

SEOは不確定なことだというのはチームでやっていればいつか理解してくれると思います。

そうなれば「一回施策がうまくいかなかったら信頼を全部失う」みたいなのはないと思います。

とにかく日々信頼貯金をしていくことが大切かなと思います。

今一緒に仕事している人からしたら「いやいや、あんたそんなことできていないよ」って言うのはあるかもしれませんが、今回は自戒をこめてということでご容赦ください。

 

番外編.人と人として仲良くなる

最後はこれですね。信頼とかではなく、ただ仲良くなる。

アメブロのSEOはいつも、アメブロのフロントのリードエンジニアの@herablogと一緒にやることが多いです。

小規模にいろいろと面白い実験をしたりしています。実は、この記事もその実験のためだったりします。

実験できる状況を2ヶ月くらい放置し続けましたが、彼がときどきしてくるTwitterのファボに無言のプレッシャーを感じてこの記事を書きました(笑

そのくらい人と人との関係ができるとスムーズにことが進むのは確かですが、その前には上記1-8を意識すると良いのかなと個人的に思っています。

なお、彼とは何度もマウンテンビューに出張に言っていますが、毎回ホテルの私の部屋で飲み明かし、翌朝「木村さん、昨夜話したこと(どうやら結構大事な組織課題っぽい話のよう・・・)覚えてます?」って言われて「うーん、なんとなく」って二日酔いの頭をかかえて答えてましたが全部嘘です。一度も覚えていません。すいません!

仕事の大事な話はシラフのときにしましょう!これも大事!

 

@kimuyan

それでもやっぱり今は有料リンクスパムをおすすめできない理由

4 years 11ヶ月 ago

2ヶ月ほど前になりますが、GogoleのJohn Mueller氏が、有料リンクへの対応について、「ほとんどの場合、スパムを自動で無効化する」と話しています。

詳細は鈴木謙一さん海外SEO情報ブログの記事をご覧いただきたいと思いますが、この問題について少し考えてみたいと思います。

 

私のことをご存知の方がいらっしゃればタイトルをご覧になった時点で「お前が言うな」だと思います。

私もそう思いますし、十数年前の私がスパムをやめようなんて記事を書くとはまったく思ってませんでしたから・・。

十数年前日本のSEOはリンクスパム大会のようになっていました。私もその渦中におりました。

日々納品されてくるテキスト(コンテンツというよりももはやテキスト)、そこから生成される大量のリンク用サイト、ちょっと関連している内容だからだとベタベタと貼り付けられるリンク・・・。

多少大袈裟ですが現場はこんな感じだったと思います。

"納品されてくるテキスト"があっただけまだマシで、その前は著作権にひっかからない公開されたデータベースや各種APIからテキスト情報を抜き出してページを自動生成していました。

ドメインは当然、オールドドメイン!.orgで良質なリンクがついたものが出てきたら喜んで飛びついていましたね。

PageRank5のやつが入荷しました!なんて電話がきたら「いくらですか?抑えておいてください。稟議出すんで!」みたいな・・・。

自分で書いていて情けなくなりますが、見苦しい言い訳をさせていただくと当時は

  • リンクスパムをみんなやっていたのでやらないとあげられないケースが多かった
  • 大手さん含め(大手さん中心に?)リンクスパムの需要が多かった
  • 周りのSEO会社も大半がリンク販売業者だったのでリンクを売らないと競争できなかった
    (リンク以外での競争力がなかったとも言う、今SEO業界でトップにおられる先輩方はリンクなしで戦って来られた方がたくさんいらっしゃいます)
  • スパムをやっても無効化されるだけでいわゆる"ペナルティ"がなかった

こんなところでしょうか?

はじめの3つは本当に不徳の致すところでして、甘い誘惑に負けたとしか言いようがありません。違法じゃないし、、とガイドラインに違反していることは分かりながら行動経済成長期の排水のごとく、インターネットの世界に有害物質を排出し続けました。今は本当に申し訳なく思っています。

そして4つ目のペナルティがなかったというのは非常に大きく、効果が出ないことはあってもマイナスになることはないということで、自分たちのスパム行為を正当化していました。

実際に明らかにリンクの効果がなくなったな・・・というのもあったと思いますが、「効果がなくなることはあってもマイナスになることはありません。効果なかったらまた作ってリンクを張ればいいんです!」くらいのことは言っていたように思います。本当にこの時の自分を思い出すと死にたくなります。

 

それが2010年過ぎたあたりから、ペナルティ、Googleが言う手動対策というのがやってきます。「あの大手サイトにペナルティが来たらしい」という情報が入ったり、実際にペナルティを受けたという人にメッセージを見せてもらったりして「いよいよこれはまずい」と思い始めました。

当然この"やばいかもしれない状況"は役員などにも報告をしていましたが、迷いながらまだなんとかいけるかもと思っていました。それがある夜、万を超える被リンク用サイトがindexを削除されました。幸いにもまだお客さんのところにはペナルティは出ていない・・そこで私がしたのは役員室に駆け込んで

「すいません。○万○千サイトのリンクサイトが飛ばされました。次はばれないように作るので○千万円の緊急の予算をください。」

今考えてもバカです。そりゃあ出世できません笑

でもこのときはスパムリンク中毒になっていて、ほかのことを考えられなくなっていました。

役員からは「ちょっと冷静になって、リンク以外のSEO考えなよ。どうせGoogleにまた見つかるし、お客さんにペナルティ出てくるよ」と(半笑いで)言ってもらい(某さん、その節はありがとうございました)、ここでやっと「そろそろリンクから足を洗わなければ・・・」と思い始めました。

そこからは苦戦しながらもだんだんとリンクスパムのSEOからコンテンツだったり(まあこのコンテンツもやり方間違えればスパミーになるので注意ですが)UX関連だったりクロール&indexの改善だったりとサービスの方向性を変え、増やし今日をむかえています。まあ、このindex削除事件の数ヶ月後に私はメディア部門のインハウスSEO立ち上げで異動したので実はこの移行期の辛さをしらないのですが・・・。ただ仕掛けて実行のときにはいないという、、申し訳なさすぎです。

 

ちなみに異動してからは因果応報、アメブロ上のスパムにどう対応していくのかという仕事ばかりをしていました。

今日もまた2件・・・・。

 

ととんでもなく前置きが長くなりましたが、話はもどって今回「リンクスパムはアルゴリズムで無効化していて、それで十分」というGoogle側から出たコメントについて個人的には「そんなこと発言しないでほしい」でした。

 

2012年くらいからSEOの業界からもリンクスパムは急激に減ってきました。リンクで稼いでいた業者の多くはリンクから撤退し、コンサルティングやコンテンツ作成のビジネスに移行していくもののなかなか難しく事業縮小したり廃業したりしているところもあります。

その中でここ最近、「そろそろ熱りは覚めた」と思ったのか一周回ってまたリンクを大々的に販売しているSEO会社が増えてきている印象です。

実際にその提案書を見せてもらったり、そこからリンクを買っているという方に話を聞かせてもらったりしています。

最近は巧妙で、Googlebotにしか見えないようにリンクサイトを作っているものが普通で、相当がんばらないと第三者からはリンク用サイトは見つけられなくなっています。しかもGooglebotにしか見えないのにかなり作り込んであった・・・。(中には、これは普通に公開しても誰もスパムだと思わないけど・・・というものまで・・)

そんなリンクスパムが増えてきている状況で、今回の発言があると「ペナルティは昔はありましたが、今はありません。安全なリンクです。」というセールストークのエビデンスとして使われかねないんですよね・・・。これは非常に危険だと感じました。

実際は「ほとんどが自動的にアルゴリズムで無効化」と「ほとんど」どついているので、もちろん例外はあるわけです。

そしてほとんどがアルゴリズム、ちょっと目視だとしたら、その目視による"ペナルティ"は、より厳しいものになる可能性だってあるわけです。

 

リンクスパムは、まずアルゴリズムで無効化される。さらに手動対策で厳しいペナルティ状態になることもある。

こう周知されるべきだと思います。

 

私は2つの意味でリンクスパムは今はもう行うべきではないと思っています。

・昔と違ってペナルティになることはあり得るし、そのペナルティはかなりきつい.復活できないこともある.

・スパムが見つかったあとは焼け野原

 

前者はその通りです。実際に少数ながらペナルティ状態から脱却できずにドメインを捨てたケースも見たことがあります。

Googleは、「もうスパムをしないと判断できたら解除する」と話していますが、そう思わせるのはなかなか大変な気がします。

私が「もうスパムは一生しない」と言っても誰も信じないでしょうし。(実際に100%しないと言い切れる自信はありません。ペナルティゼロ、無効化ゼロだったら・・・損しないなら、モラルだけで正しいことができるかと言われると私は諸先輩と違って弱くて悪どい人間なので・・・)

 

そして後者。これはSEOを提供する事業者にもスパムをするサイト側、クライアントさん側にも言えることです。

クライアントさんからしたらリンクであげていました、見つかりました、ペナルティ受けました、リンク外しました、落ちました。

これでは何も残っていません。そこには良質なコンテンツもすぐれたUXも残されていません。今はリンクの力があっても一定以上のコンテンツの品質は必要だと思いますが、先述した通りリンクは中毒性があります。その中毒に汚染されていると最低ラインのコンテンツでいいやと思ってしまいがちです。ペナルティ状態から回復してもそのサイトには資産が作れていない、残されていないというケースは多いと思います。

 

そしてSEO業者。スパムに頼って短期的に稼いだとしても、それが効かなくなった、スパムサイトがすべてばれた・・・。

リンク用サイトもない、リンク以外で効果を出す技術も知識もない、そしてお客様もいなくなった・・・。

焼け野原です。スパム施策は見つかれば焼け野原です。

過去リンクをやめる決断したSEO会社さんの役員の方とお会いしたときに「売り上げは驚くほど落ちました。うちにはコンサルする能力がなかった。本当に厳しいです。」というお話をお聞きしました。

リンクスパムと他のコンサルを併用できていればいいじゃないかと思う方もいらっしゃるでしょうが、それは本当に難しいです。スパムは中毒になります。うまくいくときは楽なんです。楽して上がることを体験してしまうと、一生懸命頭を使って手を動かすことを避けるようになるのは多かれ少なかれ皆同じではないでしょうか?結局、リンクスパムに偏っていくことになると思います。

過去自分も焼け野原一歩手前だったと思います。自分は異動して逃げる形になってしまいましたが、当時の部署メンバーは焼け野原から新しいサービスを大変な思いをして"復興"させてくれたと思います。

スパムがうまくいっているときは想像していませんが、高確率で辛い未来が待っていると思ったほうが良いです。そこは更地です。

 

アフィリエイトサイトなど個人サイトでスパムをやることは私自身はそこまで否定しません。すべて自分の責任の範囲内であればやっても良いと思います。もちろんインターネットの世界全体を考えたらないほうが良いのでしょうが、"クライアントに迷惑をかける"ということは少なくともないでしょうし、個人が作ったコンテンツでも良質なものもありますから、良いものがスパムでしか上がらないなら仕方ないと思う面もあります。

幸いにも一定基準以下のコンテンツでなければGoogleでは上がりませんし、YMYL領域はさらに厳しいですし。

 

ただ、企業がスパムをやって良いかというと話は別だと思います。

ペナルティは絶対ないわけではない。受けたら本当に大変な思いをする。

スパムが見つかったらそのときは何も残らない。

売る側も買う側ももう一度考えてみていただきたいと思います。

 

以上2021年最大の「おまゆう」になるかもしれませんが自戒をこめて。

なお、私の過去のスパム前科のお話をしましたが昔からSEOをやられている方全員がスパムをしていたわけではありません。むしろ今最前線で長くご活躍されている方はスパムとは無縁だったからこそずっとトップを走られているということを尊敬の念を込めて付け加えさせていただきます。

 

木村 賢

 

*そのときのツイートをウェブ担当者フォーラムでも取り上げていただきましたのでよろしかったお読みください

 

 

スマホで表示できないサイトがindexされなくなる話

5 years 5ヶ月 ago

オンライン開催されているPUBCONにおいて、GoogleのJohn Mueller氏より、2021年3月目処にデスクトップでしか表示されずスマートフォンで表示がされないウェブページがindex対象外になることが発表されました。

"Content only visible on desktop will be ignored"

"デスクトップでのみ表示されるコンテンツは無視する"

 とのことです。

 

そして、indexさせたいすべてのコンテンツはスマートフォンでリーチ(アクセス)できて、表示できなければいけないとのことです。

 

クロール&index と 評価は別のものである

一応再確認ですが、クロール&indexと評価は別物です。

ここでの話はクロール&indexのことだと思われます。

つまり、

「今後indexの対象になるのはスマートフォンのUserAgent情報を持っている場合にアクセス&表示できるものだけ」

と言っているだけで、その後の評価の話は現時点では何も出てきていません。

 

今まではPCだけで表示されていてもindexされていた

これまでと何が変わるのか?ですが、今まではPCのみで表示されるケースでもindexされていました。

もちろんモバイルフレンドリーではないので、スマートフォンの検索で出てこないことはありえますが、

固有名詞で検索した場合などは少なくともPCでの検索結果では概ね出てきたと思います。

PCのUserAgentを持ったクローラー(以下PCクローラー)にページを認識させていれば、

SPのUserAgentを持ったクローラー(以下SPクローラー)で認識できなくても

indexそのものはされていたのです。

(しつこいようですが評価は別ものです。indexがされたという話で評価の前段階です。)

それが、PC"だけ"で表示されるものはindexされないよということにかわります。

 

今後はSPで表示できなければindexそのものがされない

今後は、"PCだけで表示されていてもindexはされていた"という一種の救済策がなくなります。

Mobile First indexに移行が進み来年には強制移行される中で、

上記の救済策は不要という判断でしょう。

indexするしないの判断が、SPベースのみになるということです。

 

どんなサイトが注意が必要か

最近作られたサイトでスマートフォンで表示されないサイトはほぼないでしょう。

そのため注意が必要なサイトはほとんどが非常に古いサイトになると思います。

例えばガラケーが出てきた時代から続いているサイトで、いまだにPC以外でアクセスすると

「このサイトにはPCからアクセスしてください」

とか、

「このサイトにはInternet Explorerからアクセスしてください」

とか出るようなものです。

このようなものはスマートフォンで本来のコンテンツを表示できないので、

少なくとも本来の中身のあるページはindexされないでしょう。

いまどきそんなサイトはないよと思われるかもしれませんが、

個人的に危険かなと思っているのは、

1,行政の管理しているサイト

2,レガシーな企業サイト

3,PCで操作することが前提となっているサイト

 

1については、頑張ってねとしかいいようがありませんし、さすがにもうないかなと信じたいところです。

 

2は、中小企業などでガラケー時代に閲覧制限をしていた時代からリニューアルしていないものには発生する可能性があると思います。

「制作会社がそう設定していた」というパターンもあるかもしれません。

自社サイトを必ず一度はスマートフォンで閲覧するべきでしょう。

そこで「PCで閲覧してください」などと出てきたら修正が必要です。

 

3はPCで投稿したり操作したりすることを前提としたサービスでのログインページなどがそれにあたります。

スマートフォンでアクセスした場合に「このサービスはPCで利用してください」

のように表示してしまう場合には、中身のないそのコンテンツがindexされるか、そのページをnoindexにしていればindexされないかもしれません。

 

いずれにしてもスマートフォンで中身あるコンテンツが表示されるか確認して、

表示できない場合は、スマートフォンに対応させるか、無理な場合でもサービスの紹介等最低限の記載をしたうえで、「より詳しい情報はPCでアクセスしてください」などの表記をしておくべきでしょう。

 

SPで表示できるならindexはされるはず

勘違いしてはいけないのは、SPに最適化していなくてもSPで表示されればindexはされるなずであるということです。

SPサイトがないから、SPはブロックしてしまっているというケースの場合、

とりあえずSPのUserAgentであってもPCサイトを見せてしまうということを行うことでindexされない状況は回避できるはずです。

(極論SPクローラーに表示できて、ユーザーのスマートフォンで表示できなくてもindexされるとは思いますが、クローキングになるかもしれないので避けるべきでしょう)

 

最後に、

「来年からPCサイトはindexされなくなるのでスマートフォンサイトを絶対作らないとダメです」

という嘘営業が出てくるような気がしなくもありません。

先に記したように、PCサイトでもSPで表示されてしまえばindexはされます。

「うちはPCでしかアクセスがないから、SPサイトはいらないし、社名で検索したときに出てくればOK」

ということであれば、PCサイトがSPでも表示できる様にしてしまえばいいだけです。

SPに最適化されたページでないとindexされないというわけではないので注意しましょう。

 

なお、まだ第一報が入ったばかりでありこれから続報が出てくると思います。

過去indexされているけれどSPで表示できないものがindex削除されるのかどうかとか、今後もPCクローラー自体は生き残るということですが、それが何に使われるのか?などは現時点では不明です。

データを見てSEOを行う際に気を付けたいこと

5 years 6ヶ月 ago

"データを見てSEOを行う"ということについて気を付けるべきことを書きたいと思います。

 

最近、

 

"そもそもSEOを行うのにアルゴリズム分析をすることが間違っている"

"無意味な分析が多くてミスリードさせる"

"SEOの本質を分かっていないのに数字を一人歩きさせている"

 

といったご意見を良くいただくので、特に後ろ2つについて確かにそうかなと思う部分もありますので(私がSEOの本質をわかっていないかどうかは別に私が決めることではないので他の方の評価にお任せします)、ちょっと思うところを書きたいと思います。

 

表示されているものの傾向を分析するというのは、

これは売れるものがどんなものか分析するとか、

あることを行うのに適した物質がいくつかったらその組成を分析するということと基本的には同じようなことだと思っています。

以前Discovderに出ているものの傾向を分析した結果を記事にしましたが、

https://ameblo.jp/ca-seo/entry-12586320316.html

https://ameblo.jp/ca-seo/entry-12586792697.html

https://ameblo.jp/ca-seo/entry-12587532301.html

https://ameblo.jp/ca-seo/entry-12588017885.html

例えば、

これをさらっと読んでしまうと、

「そうか、文字数増やせばいいんだ!」

となりがちです。

「文字数を増やせばDiscoverに出るんだろうからとりあえずなんでもかんでもまわりくどく書いてトラフィック稼ごう!」

と思う人が出てきても不思議はありません。

私も反省すべき点として事実しか書いておらず、「まわりくどく長く書けば良いことではない」と記述すべきだったと思います。

 

Discoverと同じで、検索エンジンで上位に表示されているデータを見て、

すぐにそれに飛びついて、そのデータの通りのことをやってしまうとSEOというかウェブサイトとして失敗してしまうことが多いと思います。

 

こちらはDiscoverと同様に文字数とランキングの関係性です。

これだけを見てしまうと、

「上位にするために最低4000文字は書こう」

とか

「上位にするために4000文字以上6000文字以下くらいにしよう」

とかなりがちです。

例えば「電気二重層に適した電極の素材と処理方法」(あ、私の大学時代の卒業研究のテーマなんでなんでも構いませんのでテーマは置き換えてください)とかを4000-6000文字で書くと言ったら無理でしょう。

一方で、「おはようを英語で言うと」というテーマでは4000文字を書くのはなかなか大変ですし、例文をたくさん書く、語源を書くなどの多くの検索者が必要としない情報を含んだコンテンツにしないと4000文字はいかないかもしれません。

結局テーマ・トピックによって必要とされる文字数はまったく変わりますし、検索結果の上位が〇〇文字が多いからその文字数にしようというのは間違いです。

仮にSEOであがっても、来訪者が満足しないコンテンツとなり"ウェブサイトとして失敗""ウェブマーケティングとして失敗"するでしょう。SEOは手段であって目的ではないということを忘れている典型パターンに陥ります。

 

じゃあ、これらデータは無意味なのか?ということになりますが、

"見方と使い方による"と思います。

ウェブページにはTwitterであったり、ブログであったり様々なものが存在します。

それらは文字数が様々です。ブログでは数文字のものも存在しますし、情報コンテンツでは1万文字を超えるものも存在します。

その中で例えば

 

情報コンテンツ全体だと文字数が多い方が上がっている傾向にあるね
 ↓

なぜ文字数が多いほうが上がっている傾向にあるのか?

 ↓

 充実した情報をユーザーが欲しているから、情報量が多いほうが上がる傾向にあるのかな?

 ↓

 ただ、極端に多いものは少ないっぽいな

 ↓

 余計な情報があるとダメなんじゃないの?

 ↓

 ユーザーが必要としている情報をもれなく入れた情報コンテンツを作るべきだね

 

とその数字から背景を推測して仮説を立てて実行するためには有用だと考えています。

「そんなのなくたって仮説立てられるでしょ」

と言う方も多いのですが、実際に多忙な現場ではユーザーの需要を推測して仮説を立てるということがおろそかになることもあると思います。ユーザー需要の仮説を立てるためのきっかけとして使うこともできると思います。

 

また余談ですが、インハウスSEOの現場ではよく

「このブログ記事にAと書いてあるから、あなたがBと言っていることは間違っている」

みたいに、担当者よりもエヴィデンスが強い現象は良く起こることです。

データはそのときの説得材料には非常に有効です。

 

まとめると、

大切なのは、良く言う「データの裏を読む」ことでしょう。

 

表面上このデータが出てきたのは、

ユーザーがこういうものを欲しているからである

だからGoogleはこういう傾向のウェブサイトを好むのかもしれない

 

というように、データを額面どおり受け取らず、それがなぜそうなっているかの背景を必ず推測するようにすると、よりSEOの成果につながりやすいのではないかと思います。

 

こちらはPageSpeed Insightsのスコアとランキングの関係性ですが、(×100でPSIのスコアとなります)

データ通りにするということであれば、

じゃあ、あえてレンダリングブロックしたり、サーバの応答速度を下げたりして、

PageSpeed Insightsのスコアを下げますか?ということになります。

 

データには必ず背景があります。

2020年9月18日(金)にウェビナーを開催しますが、聞いていただける方はこちらに書いたことを頭に置いて聞いていただけたらうれしいです。

https://www.cyberagent-adagency.com/event/551/

 

 

今こそチェックしておきたいSEOのポイント

5 years 11ヶ月 ago

緊急事態宣言が出て、先もなかなか見えない中ではありますが、暗くなってばかりいても仕方ありません。止まない雨はないと信じて、雨が止んだときに楽しめるようにこういうときだからこそできるSEOの施策をいくつかやっておこうと個人的に考えています。

リモートワークになり出張や外出が減り、ミーティングも減っていつもよりも考える時間があるという方もいらっしゃると思います。普段は忙殺されていてなかなか整理したいことやじっくり考えたいことが後回しになっている人も、今時間が空いているようであれば自サイトのSEOについて再度整理してみるのはいかがでしょうか?

 

いざ整理してみるとしてもサイトの規模や運営体制、いまおかれている状況によってそのポイントはさまざまだと思います。

そのため、今回はあくまで私の場合です。

私が見ているサイトの多くは大規模サイトなので中小規模のウェブサイトには不要なこともたくさんありますし、逆に中小規模サイトのSEOに必要なところが抜けることもあるかもしれませんがご了承ください。

1,サイトのコンテンツの見直し

1-1,不要なコンテンツの削除や統合

特に大規模サイトにおいては不要なコンテンツや内容に乏しい品質の低いコンテンツを削除することによってSEOの効果が高まることがあります。

これは大規模なサイトにつきもののクロールバジェットの問題が軽減されることによって、重要なコンテンツによりクロールがなされるようになることが原因のこともあれば、ユーザー行動が改善されることが原因のこともあれば、サイト全体としてのコンテンツ品質が低いと見られているものが解消されることが原因のこともあるでしょう。

今までの私のたいして多くない経験の中でも、

  • スパムコンテンツの大量削除
  • システムによる自動生成コンテンツの削除
  • 重複コンテンツの大量削除またはcanonicalによる正規化

等によって検索流入がサイト全体として増加したケースがあります。

一点注意が必要で、検索流入がないページがすべて不要なわけではなくユーザーにとって必要なページは残しておくべきです。

その中で検索者には役立たなそうなものはクローラーをブロックしたりnoindexしたりということが考えられます。

検索流入はないけれど、検索流入したひとが回遊して役立ちそうなものは残しておくべきだと思います。

例えばECサイトで「商品ページが検索上位に上がってくるからオウンドメディアでその商品の上手な使い方を作っていたけど削除したもいいや」というのは間違いです。

商品ページから回遊して役立つページになると思いますので、そういったページは削除しないようにしましょう。

 

個人的には、Search Consoleのカバレッジ>除外のSearchConsole除外画面

クロール済みインデックス未登録のリストを見て、どんなものがGoogleから「indexしても意味がない」と思われているかを確認して、基準作りの参考にするようにしています。

1-2,必要なコンテンツの作成

別にこういうときでなくても必要なコンテンツは作らないといけないのですが、やれ無駄なミーティングだ、やれ上司に無駄な報告だ、やれ無駄なレポート作成だ、やれ有用な飲み会だと何かと忙しくて、わかっちゃいるけど作れないという方もいらっしゃると思います。

 

これは何も狙うべきキーワードのコンテンツが作れていない!という情報メディアによくありがちな話だけではありません。

意外とあるのが、メーカーさん等で商品の魅力を伝えきれていないものです。

画像等でビジュアルではその商品の魅力が伝わるものの、どういう人に合っているのか、どういうシチュエーションで使うと良いのか?使い勝手は?使い方は?などユーザーが知りたいことに応えられていないケースがときどき見られます。

Webサービスでもよくあります。特に競合の商品がある場合にはそこと差別化できる「強み」を伝えられているかチェックする必要があると思います。

また、商品について細かく伝えたいときはFAQコンテンツを作るのも良いでしょう。

QuestionとAnswerで1ページずつコンテンツを作れるくらいボリュームができると質問に関するロングテールのクエリで検索流入が得られることもあると思います。

(薄っぺらいコンテツになるなら1ページずつ独立しないほうが良いと思います)

2,ページやサイトの作りについて見直す

2-1,構造化データが正しく使えているか見直す

構造化データがしっかり使われているサイトはかなり増えてきていますが、古くから運用されているサイトではまだ導入されていないサイトもあるでしょう。

このタイミングでもしリソースが空いているようであれば、構造化データをしっかりセットしておくのも良いと思います。

構造化データがSEOにどう寄与するのか、リッチスニペットに反映されること以外はあまりはっきりしたことは言えませんが、今構造化データをなんらかのヒントにしている可能性はありますし、今使っていなくても今後ヒントに使うかもしれないと思います。

リソースに余裕があるときでないと、SEOに保険をかけることはなかなかできないと思いますので、リソースに余裕があれば保険をかけておくと良いのではないでしょうか?

Googleのドキュメントとしては「構造化データの仕組みについて」、正しく使えているかどうは、Search Consoleや「構造化データテスト」を活用しましょう。

 

2-2,<title>,<h1>等がコンテンツ内容を正しく伝えられているか確認する

titleもh1もSEOには不要という人もたまにいらっしゃいますが、、、、やはり検索エンジンにはヒントになるものだと思っていいと思います。

そしてユーザーが見出しを見たときに、そこに何がかかれているのかを一目でわかるようにすることは重要だと思います。

titleキーワードとSEO

上位50位に入っているもののほとんどはしっかりキーワードが入っています。

(5位ずつの箱ひげ、縦軸はキーワードの出現回数、複合ワードの場合に例えば2語の複合で片方しかtitleに入っていない場合は0.5として算出する)

2-3,パフォーマンス(表示速度)改善をする

これは普段から取り組んでいる方が多いと思いますが、たまたまエンジニアの方の手が空いている!なんてことがある方はトライすると良いと思います。

コロナウイルスが流行してから検索結果がおかしな方向に変わることを避けるためか、Googleには大きな順位変動はありません。コアアルゴリズムアップデートも発表されていません。

それでもいつかコアアルゴリズムアップデートがあったときに、どのサイトであっても大きく検索流入を下落させる可能性があり得ます。

そしてコアアルゴリズムアップデートによる検索流入低下時には、運営者のなんらかの努力でその流入数を元に戻すことは現時的ではありません。

となると、訪問してくれるユーザーさん一人一人をより大切にしなければいけないわけです。

パフォーマンス改善はこのような有事の際の保険にもなりますので、ぜひ取り組んでおきたいものです。

実際の表示速度とは必ずしも一致しないかもしれませんが、"検索から来た人のUXを改善する"という意味ではPageSpeed Insightsは外せないと思います。

PageSpees Insihgts

私も頑張ります(汗

2-4,MFI対応に問題がないか確認する

先日、9月以降にMFIへの強制移行がはじまるとの告知(英語)がありました。

まだMFI移行されていないサイトは、このタミングでMFIが来ても問題がないかチェックする必要があるでしょう。

詳細は先日投稿した記事をご覧ください。

もう一度モバイルファーストインデックス(MFI)について振り返ってみた

3,クロールの最適化について見直す

大規模サイトにしか必要ではないと思いますが、大規模サイトのSEOだと取り組まなければいけない課題になることが多いと思います。

3-1,ページの重要度において傾斜をつける

SEOにおいて重要なページとそうでもないページがあると思います。

  1. Landing Pageになり得るページ
  2. Landing Pageをあげることをアシストするページ
  3. SEOには役立たそうなページ

があったときに、1 > 2 > 3の順にクローラーに積極的にプッシュしていきます。

1はsitemapに掲載する、2は何もしない、3はクローラーを回さないなど、ここはサイトそれぞれにカスタマイズする必要がありますが、大事なものはクローラーが見つけやすいようにし、不要なものはクローラーに見つからないようにするという意識が必要だと思います。

(ここは中途半端に書くと誤った方法で大失敗してしまうケースがあると思いますので、敢えてざっくりした表現に留めます。

慣れていない方は専門家に相談されることをおすすめします。)

3-2,不要なページへのクロールを回避する

先ほど記述したようにSEOに役立たない、むしろクロールバジェットなどの観点からマイナスになり得るようなものはクローラーを回さないようにすることが有効なケースが大規模サイトの場合あります。

noindexにしてもindexが回避されるだけでクローラーは回ってきますので注意してください。

(クロールの頻度は下がるように思いますが)

クロールの回避には、サイト内リンクでそのページへのリンクに rel="nofollow" を設定するというのがありますが、それよりもクロールさせたくないURLを特定のURLパターンにして、robots.txtにてdisllowするというのが確実性が高いと思います。

本当は品質の低いコンテンツは作らないのが一番ですが、どうしてもそれが回避できない場合に、かつて特定のディレクトリに格納してクローラーをブロックするという方法をとったことがあります。ブロックしたいものや無駄なものを別のサブドメインに逃すというのでも良いでしょう。

disallowの方法

4,被リンクやサイテーションついて見直す

まずいないとは思いますが、有料リンクをまだ購入しているという人はこのタイミングできっぱりとやめましょう(笑)

4-1,被リンクが獲得できないか検討する

被リンクというのは非常に獲得し辛いものです。特にSNSからではないdofollowのリンクは獲得が難しい時代になっています。その分SEO効果が期待できるということもあり、それで有料リンクがなくならないというのはあると思いますが、当然バレれば厳しいペナルティ(手動対策)が待っていますので気をつけましょう。

被リンクでこういうときだからこそチェックしておきたい例としてもらえるはずのリンクがもらえていないケースです。

例えば

「グルメサイトAを運営しているとして居酒屋αが掲載されている。αの公式サイトからはグルメサイトB,Cに掲載されている旨は書いてあってリンクもあるが、Aにはない」

とか

「宿泊予約サイトAを運営しているとして、ある観光情報サイトに旅館αの情報が記述されている。そこからは宿泊予約サイトBとCの予約ができる詳細ページにリンクされているがAにはない」

こういうときに「うちにもリンクしてください!」とお願いをしてみるのはありだと思います。

特に後者で公共性の高い機関(観光協会のようなところ)がやっている場合はそういう機関だからこそ中立性担保のためにリンクしてくれることが多いです。

最近でも一社スタートアップの会社がそれでリンクを獲得していました。

 

海外では、「SEMrushとかAhrefsとかMajesticなどを使って競合の被リンクを調べてギャップを埋めましょう」なのが多い気がしますが、基本的には上記と同じようなことになるかなと思います。

 

メディアだと"被リンクが集まるコンテンツを作ろう"的考え方になると思いますが、どうやったら被リンクがもらえるコンテンツになるのかは私には分かりませんし、被リンクを目的にコンテンツを作るのもなんだかなあと思いますので、まずは被リンクする価値があるようなそこにしかない情報が含まれて高品質なコンテンツを作るということになると思います。

4-2,サイテーションが獲得できないか検討する

ここで言うサイテーションは、被リンクがあろうがなかろうが、そのサイトや会社や製品についてオンライン上で言及されるとか、指名検索されると考えてください。 

先の被リンクの話がそのままサイテーション獲得に結び付くと思いますが、サイテーションだとSNSに対しての意識をより強めたほうが良いと思います。

このタイミングでSNS運用に力を入れてみるというのもできるのであればアリだと思います。

個人的にSNS運用がうまい(強い)ところはSEOが成功する可能性はかなり高まると思います。

強力なSNSアカウントでシェアされたコンテンツは自社コンテンツであっても伝播する可能性が高まるでしょう。

そのようなものが直接的にオーガニック検索で上位になるかどうかは別として、多くの人に見てもらうことによってリンクしてくれる人がいるかもしれませんし、様々なシグナルがGoogleに送られる可能性が出てくると思います。

とは言え、SNS運用には組織の理解が必要なので組織によってはこの時期だからこそやりにくいというのはあると思いますし、このような時期は炎上リスクが高まる時期とも言えるので慎重に運用する必要はあると思います。

5,ユーザー行動におけるボトルネックを見直す

5-1,まずは理想的なユーザー行動について考える

理想的なユーザー行動はそのサイトやコンテンツによって変わります。

この理想的なユーザーはサイト運営者都合で考えすぎないことです。特に日本ではPVが重要視される傾向にあります。

そのため、情報コンテンツだと頭の部分だけ少し見せてから「もっと見る」「この記事をもっと読む」「全文を表示する」などで1ページ目を初めて表示するなどのUXが多くなっています。

また、情報コンテンツではそのコンテンツからいかに回遊するかで頭を悩ませる人も多いと思います。

これは、広告収益で運営しているサイトにとっては生命線なので理解できることではありますが、ユーザー側の視点に立つと情報コンテンツはそのページで課題解決できることが理想なわけです。

「換気扇掃除」のコンテンツがあり、

"そのページを読んだけど、いまいちしっくりこなくて別のページも探してやっと自分にあいそうな方法を見つける"

よりも

"そのページに自分にぴったりのものがあってそこから掃除をはじめる"

ほうが理想的なわけです。

一方で先に記した通りPVを稼がないといけない事情もあるでしょうから、ここはバランスをとる必要があると思います。

5-2,理想的なユーザー行動のためのボトルネックを見つけて修正する

理想的なユーザー行動が定義できたら、理想的なユーザー行動を阻害するものを仮説だったりツールを使った検証で発見して修正する必要があります。

表示が遅くて即離脱ばかりとか、(クリックされず収益にもならない)広告が多すぎるとか色々見えてくると思いますので、ひとつひとつ改善していく必要があるでしょう。

SEOの担当者だけでできないこともあるかもしれませんが、協力を仰ぐためにも可能な限り仮説と検証を行なっておきたいところです。

6,Googleの品質評価ガイドラインを読み直す

一番現実的なのがこれかもしれません(笑)

時間がある方かつ今までちゃんと読んだことがない方は本当に読んだほうがいいと思います。

読んだのが2年前だみたいな方も読み直したほうが良いと思います。

複数回読んだことがある人は個人的には評価例を見ると面白いと思います。

"Googleはこういうものを良いコンテンツだと考えているのか!"

というのが具体的に分かると思います。

長期戦になりそうですし、仮にかなりの長期戦になった場合で一時的にSEOがストップされるみたいなことがあったとしても、長期戦が明けたあとのSEOに必ず役立つと思います。

個人的には品質評価ガイドラインを読むと、そのたびにSEOレベルが1上がるような感覚があります。英語で読むのは大変ですが、読後の満足感も高いので悶々としやすいこの時期に読み切れると精神的にも良いのではないでしょうか?(謎)

 

Google品質評価ガイドライン

Google 品質評価ガイドライン (General Guidelines) [PDF]

7,サイトやサービス、製品そのものの見直し

JADE長山さんが、昨年のWebmaster Conferenceで言われていたことと同じです。

今のSEOはウェブサイト上だけで完結しないことが多くなっています。

SEOで成功するには、そのプロダクトそのものが評判になったり、好意的に受け止められたり、人が紹介してくれることが必要なことが多くなっています。

また、コンテンツだけとってみても、既視感のあるものは上がりにくくなっています。

どれだけ人を惹きつけられる魅力的な、ユニークな、オリジナルな要素があるかというのがこれまでになく重要になっているはずです。

そして、ユーザーが使いやすいこと、良いユーザー体験を提供することもSEOには直接的か間接的かは別として重要になっているはずです。

既存のSEOという概念に囚われず、このタイミングで一度、より広い視点で考えてみると良いと思います。

おわりに

個人的にはセミナーができないとかミーティングが一部なくなったりとかで普段よりは時間がありますので、これらのことを考えてみたいと思っています。

皆さんはいかがでしょうか?ここに出ているものは私がここで考えてみようと思っていることです。

皆さんの置かれた環境、いまの状況によって考えるべきことは異なると思いますが、少しでも"考えるきっかけ"になったら嬉しいです。

先が見えない時代ですが、そもそもSEOなんて先が見えないことが多いので(笑)この状況でもやれることをやっていきたいものです。

 

@kimuyan

 

Google Discoverに出ているものの特徴(4)

5 years 11ヶ月 ago

さてSEOにおいても最近非常に重要性を増しているという、Google Disocoverについてここまで3回ほど書いてきました。

Google Disocverについて書いたのに、2回目・3回目は表示すらされていません(汗

原因はここかなと思うところはあるのですが、そこは検証してからこのブログかTwitterで公開したいと思っています。

 

さて、今回はGoogle Discoverに出ているものの特徴第4回。

ページの特徴について書きたいと思います。連載としては今回が最後です。

(まとめ記事は作るかもしれませんが)

 

繰り返しですが、グラフの見方は詳しくは1回目の記事をご覧いただきたいと思いますが、一番右がGoogle Discoverの特徴、それ以外はInformationalクエリにおける通常検索結果の左から5位刻みの箱ひげ図となっています。

ページのトピックワード出現数とGoogle Discover

キーワード出現回数とDiscover

通常検索ではキーワードが直接的に多く表記されているものが上位になる傾向がずっと高いのですが、Google Disocoverにおいてはそうでもなくなっています.

むしろ通常検索では50位のレンジよりも少なくなっています.

 

ページのトピックワード出現率とGoogle Discover

キーワード出現回数とDiscover

出現回数と同じように、出現率についても通常検索に比べて非常に低くなっています。

 

まず前提として勘違いしていただきたくないのは、キーワードをたくさん詰め込めば通常検索、オーガニック検索で上位になるとは限らないということです。

キーワードの数とは"相関"してはいますが、因果関係は不明です。

個人的にはキーワードがたくさん入っているということが大事なのではなく、キーワードが濃くなることで、ぱっと見でも、読み込んでみてもそのコンテンツがキーワードのトピックに対してのものであるということ、そのトピックに対して詳しくて役に立つことが伝わりやすいのではないかと思っています。

どうにもならない低質な、例えばオリジナル性がないとか同じことを繰り返し言っているだけとかのコンテンツにキーワードをたくさん入れたところで上がることはないでしょう。

さて、話がそれたのでGoogle Discoverに戻します。

ここでトピックキーワードの出現数、出現率が通常検索より少なくてもGoogle Discoverに出てきている件ですが、これは今回の分析手法に依るところでもあります。

トピックキーワードは正式名称で記載されていることが多く、例えば「大韓民国」とか「国際オリンピック委員会」と記述されています。「韓国」とか「IOC」とかの記述になりません。

今回はそのワードの揺れを含められていないのでこのような結果になっています。

Google Disocverはユーザーの興味があることに対してGoogleがプッシュしてくれる仕組みですので、当然ですがどんなコンテンツか?何について書いてあるコンテンツなのか?は重視しているはずです。

キーワードの直接表記回数みたいな単純な話よりも、個々のユーザーが興味を持っているトピックに対して詳しいか、品質が高いかもっと高度な自然言語処理等によってで判断をしていると思います。

そのためキーワードが直接表記されているされていないに関わらず、そのトピックに対して良質なものが出てくるようになっていると考えればよいと思います。

 

ページの文字数とGoogle Discover

文字数とGoogleDiscover

ページの単語数とGoogle Discover

文字数・単語数ともに通常検索の1-5位レベルと同等に多めのものが表示される傾向にありました。

もちろん通常検索もDiscoverもただ文字が多いものが出てくるわけではありませんが、情報量が豊富なものがある程度優位であることはありえそうです。

 

ページの物理的な長さとGoogle Discover

ページの長さとDiscover

文字数が多いものが出やすいので当たり前と言えば当たり前ですが、ページの長さが長いものが出やすい傾向にありました。

メインコンテンツ画像数とGoogle Discover

画像数とGoogleDiscover

Discoverは画像が重要であると言われていますが、画像数が多いものが出やすい傾向にありました。良質は画像をある程度の数配置することは重要だと思われます。

全画像ダウンロード時間とGoogle Discover

画像読み込み時間とDiscover

画像のダウンロード時間が長いものがDiscoverに表示されている傾向にありました。

Google Search ConsoleヘルプのGoogle Discoverの項目にも、「コンテンツに高画質の画像を使用することをおすすめします。」とあります。

高画質にすればダウンロード時間はかかります。もちろん表示のパフォーマンスに極端にしない程度という前提はありますが、やはりGoogle Discoverには一定の画像品質が必要だと思われます。

また、多くの画像をパフォーマンス向上のためRazy Loadを使って表示しているということもあるかもしれません。

Above the foldの画像表示時間とGoogle Discover

ATFの画像表示時間とDiscover

ページの画像全体のロード時間が長いものが多く表示されている傾向がある一方で、Above the fold (ファーストビュー)の画像の表示時間は遅くないほうが良いようです。

離脱を防ぐため高品質な画像をAbove the foldは速く表示できるようにしたほうが良さそうです。

h1の物理的な幅とGoogle Discover

因果関係はまったく分かりませんが、h1の物理的な幅が小さいものが多く表示される傾向にありました。
シンプルにトピックを伝えるものが優位なのか?とも考えましたがもっと多く出ているYahoo!ニュースのロゴが<h1>なのでその影響が大きそうです・・・。

サイト内発リンク数とGoogle Discover

サイト内発リンクとDiscover

通常検索同様にサイト内の発リンクが多いものが優位になっているようです。

通常のinformationalクエリと異なり、同じ情報コンテンツでもDiscoverは平均PV数が多かったり滞在時間が長いものが多く掲載されている傾向にあったので、サイト内リンクを積極的に張って回遊を促すことでDisocoverに出やすくなるという可能性もなくはないと思います。

いずれにしても通常のSEOと同様にコンテンツを読んだあとに、もっと読みたくなるようなコンテンツにリンクしてあげると良いと思います。

 

サイト外発リンク数とGoogle Discover

サイト外発リンクとDiscover

サイト外への発リンクはDiscoverに出ているものは通常の検索結果のものに比べて非常に多いという結果になりました。
ニュースサイトは本来別のニュースサイトで配信されており、そこへリンクバックしているものが多いということもありますし、Discoverに表示される記事を起点にしてインターネット上のコンテンツにアクセスしてほしいというエコシステム的な考え方がGoogleにあるのかもしれませんし、コンセンサスを示すような発リンクが評価されているのかもしれません。
いずれにしてもユーザーの付加価値になるような発リンクは積極的に行うべきだと思います。
オーガニックでも若干ポジティブですし、ページランクスカルプティングなんてものはもうないので。

広告占有面積とGoogle Discover

YMYLの領域など広告が目立つものが表示されなくなる傾向にある場合もあります。

Google Discoverに関しては問題視されないようです。

もちろんメインコンテンツを読むのに邪魔になるレベルでの広告はダメでしょうが、広告があるから出ないというのは現時点ではないと言えます。

ニュースメディア等は広告収入によって運営費が捻出されていますしね。

 

非同期(Client-side Rendering)率とGoogle Discover

非同期率とDiscover

偶然かもしれません、因果関係はないかもしれませんが、SSR率が高いもののほうが出やすい傾向にありました。

JavaScriptを使ってコンテンツを表示するとクロールとレンダリングという2回の処理がされてindexされる性質があることから(詳しくはJADE長山さんの記事をお読みください)、indexがスムーズにされるSSRが有利なのかも・・・と思いましたが、今はSSRとCSRのindex速度の差はほとんどないと言われいますので、やはり単純に相関しているだけかもしれません。

ただ、通常Discoverに出てくる、また出したいサイトはニュースサイトなどの巨大なサイトが多いと思いますので、SSRにしてクロールバジェットの消費を抑えるというのはありだと思います。(自分ならたぶんそうします)

 

コンテンツ公開日とGoogle Discover

コンテンツ公開日とDiscover

データ取得日が少しずれるので上端がDiscoverのほうが上になっていますので相対的に見ていただく必要がありますが、特徴的なのはDiscoverのほうが圧倒的に新しいものばかりが表示されるということです。

ニュース性のあるトピックでニュースコンテンツが表示されることがほとんどなので当たり前と言えば当たり前ですね。

Discoverから多くの流入を得たいのであれば、とにかく新しいコンテンツを作り続ける必要があると言えます。

ページの表示時間/情報量(byte数) と Google Discover

ページの表示時間/情報量(byte数) と Google Discover

上記のinformationalクエリにおける通常検索では相関がない"ページ表示時間/情報量"ですが、実はECサイトなどが対象となるtransactionalクエリでは強い相関があります。

ただ表示が速い遅いではなく、豊富な情報を速く見せているものがtransactionalクエリでは優位性があります。

それと同じように、"ページ表示時間/情報量"つまり豊富な情報を速く表示できているものがDiscoverでは多く表示されていました。

Googleがサジェストしてきたものの表示が遅かったらユーザーとしてはGoogleへの怒りが湧くでしょうから、この傾向は納得できます。

ただし、SEOとかGoogle Discoverとか言う前にユーザー体験のために行っておくべきことではありますが。

 

まとめ

今回はページ内部についてGoogle Discoverとの関係性を検証してみました。

まとめると

  • トピックワードの直接表記ではなくトピックそのものについて詳しいコンテンツに
  • テキスト、画像ともに豊富な詳しいコンテンツに
  • 高品質は画像を使う
  • 高品質な画像でもAbove the foldは素早く表示させたい
  • サイト内外とわずユーザーに役立つ発リンクは積極的に行う
  • SSR(Server-side Rendering)のほうが安全
  • 原則新しいコンテンツが出るので日々更新や追加を
  • 単に表示時間を短くすることではなく豊富な情報をいかに速く表示させるか

というところになるでしょう。

 

以上で4回に渡ってお送りした"Google Discoverに出ているものの特徴"は終了です。

特徴から見て、何をすべきなのかのまとめ記事は書くかもしれませんが、まずはこの4回分の記事をお読みいただき、Discoverが狙いたい方は工夫してみていただけると嬉しいです。

@kimuyan

 

なお、サイバーエージェント広告事業本部のSEOコンサルティングに興味がおありの方は、

こちらからお問い合わせください。

Google Discoverに出ているものの特徴(3)

5 years 11ヶ月 ago

さて、Google Discoverに出ているものの特徴の第3回です。

GoogleDiscoverに出ているものの特徴(1)

GoogleDiscoverに出ているものの特徴(2)

 

ちなみに第2回の記事のDiscover表示回数およびクリック数は、まさかの「0」です!笑

なんとなく心がああたり(仮説)が2つあるのですが、それは今回のものが出るか出ないかによってでして、その話はまた後日。

 

さてGoogleDiscoverに出ているものの特徴3回目は、"サイト"について関わる部分について見ていきたいと思います。

ここで言う"サイト"はGoogleがよく"ホスト"と呼ぶ「サブドメイン」だと考えて頂いて構いません。

 

グラフの見方は詳しくは1回目の記事をご覧いただきたいと思いますが、一番右がGoogle Discoverの特徴、それ以外はInformationalクエリにおける通常検索結果の左から5位刻みの箱ひげ図となっています。

 

サイト全体のindex数とGoogle Discover

index数とDiscoverの関係

サイト全体のindex数≒サイトの規模と言っても良いと思いますが、通常の検索結果に比べてDiscoverは大きなサイトが出ていることが分かります。

Yahoo!ニュースはじめ大きなニュースサイトやニュースポータルが出ていることが大きいとは思いますが、大規模サイトのほうが信頼性が高いと見ている可能性もあると思います。

 

サイト内のキーワードを含むページ数とGoogle Discover

サイト内キーワード含有ページ数とDiscover

サイト内のキーワードをtitleに含むページ数とGoogle Discover

サイト内キーワードtitle含有ページ数とDisocover

さて同じようなグラフが2つ並びました。

これは、サイト内におけるそのトピックの厚みを表すような指標になると思います。

「渋谷スクランブルスクエア」がトピックワードであれば、前者が「渋谷スクランブルスクエア」が含まれているページが何ページあるか?で、後者が「渋谷スクランブルスクエア」を<title>タグに含むものが何ページあるか?を見ています。

ページ全体に含まれているものを見ているのと<title>に含まれているものを見ていることからY軸の数値が異なります。

通常検索でもある程度これらの数値が大きいほうが優位になっている傾向がありますが、Discoverの場合はそれよりも大きい数値になっている、つまりそのトピックに対してサイトとして厚みがあるものがよく出ている傾向になります。

「渋谷スクランブルスクエア」のコンテンツが1ページだけのものよりも100ページ持っているもののほうが多く出ている傾向にあるということです。

もちろん、大規模なサイトが出やすいということから相関しただけと考えられなくもありませんが。

 

サイト内のキーワードをtitleに含むページの比率とGoogle Discover

titileへのキーワード含有率とDisocover

先の"サイト内にキーワードをtitleに含むページ"がサイト全体に対してどのくらいの割合あるかというものを出してみました。

そのトピックの濃度みたいな話でしょうか?

サイト全体が「渋谷スクランブルスクエア」の話題なのか?それとも数多ある「渋谷」の話題の中のひとつとして「渋谷スクランブルスクエア」があるのか?ということになります。

通常検索でも若干濃度が濃いほうが上位になりやすい傾向にありますが、Disocoverは中央値が上がっていることを見ると若干ですが濃度が濃いほうが出ているものが多くなる傾向にはあります。

ただし、数値的には1%にも見たいない差のため気にするレベルではないかもしれません。

率を考えるよりも先にあったような数で考えるほうが良いでしょう。

これはオーガニック検索においても同じことですが、そのトピックに対してどれだけ網羅的で詳しく役立つコンテンツが提供できているかということに尽きると思います。

 

ドメインエイジとGoogle Discover

ドメインエイジとDiscover

【朗報】な人もいるかもしれないですが、ドメインエイジとは相関がありませんでした。

通常検索でも「ドメインエイジが長いほうが優位に働く」というふうに言う人もいますがこれらはGoogleが否定しています。ドメインエイジが長いサイトのほうがリンクやサイテーションが集まっていて、もしくは集まりやすくてということはあると思うのでまったく間接的にも関係しないとは言えないと思いますが。

Discoverにおいては若いドメインも出てきているようです。

サイト規模が大きい方が有利とかサイテーションが多い方が良いとか被リンクがサイト全体に多い方が良いとか(第2回の記事参照)、そういう部分では若いドメインよりも歴史あるドメインのほうが蓄積されやすいと思いますが、新しいサイトだからと言って出すことが不可能なわけではないようです。

 

httpsとGoogle Discover

httpsとDisocover

よくわからないグラフになりましたが、線がY軸「1.0」のところに集中しています。

httpsなら1、httpなら0になるようにしています。

見ての通り全部「1.0」です。

通常検索でも5位以内は現在ほとんどがhttpsになっています。

当然のようにDiscoverについても「1.0」です。

データ上ではDiscoverはhttps率100%でしたし、私のスマートフォンで見ても現時点ではhttps率100%でした。

いまのご時世、httpに好んでするケースはないと思いますが、まだ粘っている方は早めに変えたほうが良いとは思います。(某大学はいつhttpsにするのだろうか・・・・)

 

まとめ

ということで今回はサイト全体の作りのような部分とGoogleDiscoverの関係を見てみました。

前回の外部要因のところでInformationalクエリではなくてTransactionalクエリの特徴に近いことをお伝えしたと思いますが、実は今回のものもその傾向が強くなっています。

サイト規模が大きいもの、トピックに厚みがあるもの(そのカテゴリの商品が多いECサイトが有利という理論)などはまさにそれです。

とは言え、Transactionalクエリどうこう意識するよりも、そのトピックにおいて1ページでなんとかしようとするのではなく、サイトとして詳しい役立つ状態になることを目指すべきではないかと思います。

次回たぶん最終回ですが、ページの作りとDiscoverの関係性をお伝えしたいと思います。

 

@kimuyan

 

なお、サイバーエージェント広告事業本部のSEOコンサルティングに興味がおありの方は、

こちらからお問い合わせください。

Google Discoverに出ているものの特徴(2)

5 years 11ヶ月 ago

前回は、Google Discoverに出てくるものの特徴のうち、ユーザーの行動に関わる部分をご紹介しました。

前回の投稿は、856クリックされているというデータになっています。

普段まったく更新をしないブログからすると非常に大きい数値です。

いかにGoogleDisocoverに"可能性"があるかお分かりいただけるかと思います。

(社内に向けても言っています)

さて、今回はGoogleDisocoverに出てくるものの特徴の第二弾です。

今回は通常検索のSEOでも気にする部分である被リンクなど外部要因の部分に触れていきたいと思います。

前回ご説明した通り、一番右がGoogle Discoverの特徴、それ以外はInformationalクエリにおける通常検索結果の左から5位刻みの箱ひげ図となっています。

 

ページへの被リンクとGoogle Discover

Doiscoverに出てくるページは被リンクが多いことが分かります。その比は通常検索の比ではありません。

Discoverに出たから被リンクが増えている可能性もなくはないですが、Discoverで見たからと言ってサイトやブログにそれを引用してリンクするという人はそこまで多くはないと思いますので、多少因果はあるのではないかと思っています。(個人的見解です)

 

サイト全体への被リンク数とGoogle Discover

通常検索においては、Informationalクエリでは一般的に(YMYL領域を除いて)サイト全体への被リンク数が多かろうと少なかろうとページ単位での評価が強く、サイト全体への被リンクは相関がほとんどないのですが、Discoverの場合、「これでもか!」というくらいに強く相関します。これは因果かどうか(Googleがそのサイト全体への被リンクを見てDisocoverに出すものを選んでいるか)は不明です。私のDisocoverではYahoo!ニュースがもっとも多く出てきますし、そのほかも大手の新聞社などが多いです。今回の元データでもそうなっていたため、直接的な因果関係はないけれど出てしまったということもあり得ます。
個人的には、サイトそのものの信頼度を評価するために使っていそうには思いますが。
なお、通常検索でのTransactionalクエリではDisocoverのようにサイト全体に被リンクが多いものが上位に表示される傾向にあります。
 

ページのFacebookシェア数とGoogleDisocover

そのページがFacebookでシェアされている数も相関関係がありそうです。
ただし、こちらはリンクよりはDiscoverに出ていたからシェアしたというのはありそうですね。
 

サイテーションとGoogle Discover

ここでは「サイテーション」という言葉を使っていますが、実際は「メンション」のほうが正しいかもしれません。この数値は、そのサイトや運営者の名前がどれだけオンラインコンテンツで記述されているか?を取得しています。オンライン上での知名度、有名度を表すひとつの指標になると思います。
通常検索においてTransactionalクエリではこの数字がガッツリ相関するのですが、Informationalクエリでは相関が見られない項目です。これは被リンクと同じですね。
Discoverではこれも被リンクと同様に、サイテーションが多いものが極端に優位になっていました。
ごく稀に知らないサイトが出てきますが、ほとんどは先述した通りYahoo!ニュースなどよく見るニュースサイトだと思います。
 

まとめ

通常検索結果のInformationalクエリにおいて上位になっているものは外部要因の部分では、
  • そのページに被リンクが多い
  • そのページのSNSでのシェアが多い

という特徴あるのですが、Discoverに出てくるものには、

  • そのページに被リンクが多い
  • そのページのSNSでのシェアが多い
  • そのサイト全体の被リンクが多い
  • そのサイトや運営者の名前がオンライン上で多く語られている(≒知名度が高い)

という特徴がありました。

これは通常検索結果でのTransactionalクエリでの特徴に似ています。

Transactionalクエリにおいてはお金のやりとりが発生することが多いため、信頼性が高いサイトが上位に表示される(というよりも信頼性が引くサイトが上位に表示されない)という特徴があると思います。

GoogleDiscoverについては、ユーザーからするとGoogleが推薦しているものと見えると思います。

そうなると信頼性に乏しい情報を出すのはリスクが高いでしょうから、このようなTransactionalクエリで出てくるような傾向と同じになるのは納得いくところではあります。

ただ、「○○市」や「検索エンジン最適化」などのトピックでは個人運営のサイトやブログなども出てくるので、すべてがすべてそうではないので領域によっては誰もにチャンスがあるものだと思います。(本当に領域によりますが)

 

次回からはサイトやページの作りの部分の特徴をご紹介します。

 

@kimuyan

Google Discoverに出ているものの特徴(1)

5 years 11ヶ月 ago

Google砲とかいう呼び方もされているGoogle Discoverですが、情報発信しているサイトにとっては非常の大事なものですよね。

ほとんど更新しない&SEOのことについて書いているのにSEOを意識して書いていないこのブログでも更新するとありがたいことにGoogle Discoverに多少なりとも出してもらえているらしいです。(最新分は表示とクリックの線が重なっています)

Search Console Google Disocver

ニュースサイトやブログのように情報発信しているサイトを運営されている方からGoogle Discoverに出したいんだけど!という声はよく聞きます。

(コンテンツの属性によってはまったく出ないもしくはほとんど出ないので、どんなコンテンツでも出るわけではないのでご注意ください。)

基本的なところは、まずはGoogle Search Consoleヘルプをお読みいただくと良いと思います。

Discoverは画像が重要であり、1200px以上の大きい画像を用意しましょうということなどが書かれていますが実際は1200px以上の幅がある画像を使っていないケースでもDiscoverには出ていますので、これらどこまでが必須条件か?という問題はありますし、簡素すぎるオプトインプログラムの申し込みについては、もはややばいサイトに来ているんじゃないか?とすら思ってしまいますが・・・。

さて、Googleが用意してくれているヘルプページはあるもののその通りやってもなかなかGoogle Discoverに出てこないよといったケースがあるかと思うので、実際にどういうものが出ているのか?というのを調べてみましたので、今回から数回にわけでその結果をご紹介したいと思います。

なお、こちらの情報は昨年末にサイバーエージェント主催で行なったSEOセミナーやGoogleのWebmaster Conference Osakaで話したものとほぼ同じです。

データについては昨年12月初旬のものとなりますので今は多少違う部分もあるかと思いますがご了承ください。

 

まずはDiscoverに出ているコンテンツのURLを収集します。

Discoverにアクセスして、出てきた記事の右下部分をタップします。

そして、そこに出てくる単語、ここで言えば「浜松市」(ちなみに私の故郷)を抽出していきます。この単語を"トピックワード"とします。

そうすると、Discoverに出ているURLとトピックワードの組み合わせが出てきます。

Google Discover 画面

そのあとは、通常のGoogle検索の分析で行うような、サイト/ページ内外の数値の状況を取得して傾向をグラフ化しました。

なお、今回はDiscoverの特徴を比較しやすいように、そのトピックワードでのGoogleでの通常の検索結果における各順位にあるURLの傾向とグラフを並べてみました。

ここでご紹介するものはほんの一部です。実際は150以上の項目をとっていますが、まあほとんど特徴が見られないので・・・。

あと、論文ではないので取得方法等の細かいところはここでは割愛させていただきます。

 

では特徴的だったものをいくつか見てみましょう。

図が見辛くて恐縮ですが、一番右がGoogle Discoverの特徴、それ以外は左から5位刻みの箱ひげ図となっています。

 

1回目はユーザー行動関連とGoogle Discoverの関係です。

直帰率 と Google Disocver

Disocverに出ているものは直帰率が低い傾向にあることが分かりました。
通常検索の場合、情報コンテンツは全体的に上位はむしろ1ページしか読まれない、計測上直帰率が高いとして出てしまうものが上位になる傾向にあるのですが(1ページしっかり読んで満足できるものは良いコンテンツだから?)、Discoverに出ているものはそこから回遊しているものが多いという結果になりました。

平均PV数/訪問 と Google Disocver

平均PV数とDiscover
直帰率が低いとサイトは訪問あたりの平均PV数が高まりやすくなるわけですね。
Disocoverには1ページ読んで終わりではなく回遊されているサイトのほうが優位になっていました。

平均滞在時間とGoogle Discover

GoogleDiscoverと平均滞在時間
当然ですが、そうなると滞在時間も多い傾向に。
 

1ページあたりの平均滞在時間 と Google Discover

Google Discoverと1ページあたりの平均滞在時間
サイト内の滞在時間だけでなく、1ページあたりもしっかり読み込まれているものがDiscoverいは多く出ている傾向がありました。
 
ユーザー行動関連の数値データとGoogle Disocoverに出ているものの傾向を見てました。
先述した通り通常検索では、1ページ読んで満足するようなものが多く上位に行く傾向にあります。一方でDiscoverは回遊しているもののほうが多く出ている傾向がありました。
また、1ページをしっかり読み込まれているものがDiscoverには出ている傾向がありました。通常検索結果であっても、1ページあたりの滞在時間が長いもののほうが上位になっている傾向はありますが、Discoverはより顕著に1ページあたりの滞在時間が長いものが出ている傾向にありました。
・ちゃんと読了されるような魅力的な記事コンテンツを作る
・1記事読んでももっと読みたくなるような魅力的なサイトになる
・複数ページ読みたくなるような快適なUXを提供する
というところでしょうか?
 
ある意味で通常検索、オーガニックサーチよりも「良いコンテンツ」「良いサイト」が重要なのかもしれませんね。
 
次回以降は被リンクやサイテーションなどの外部要因であったり、ページやサイトの作りの部分について触れてみたいと思います。
 

もう一度モバイルファーストインデックス(MFI)について振り返ってみた

5 years 11ヶ月 ago

先日Googleから

"2020年9月以降に順次すべてのウェブサイトをモバイルファーストインデックス(mobile-first index,MFI)に移行していく"

と発表がありました。 

https://webmasters.googleblog.com/2020/03/announcing-mobile-first-indexing-for.html (英語)

 

モバイルファーストインデックスとは、過去Googleはデスクトップ(PC)でアクセスしたページをインデックスしてランクづけをするのに使っていたものを、モバイル(スマートフォン)でアクセスしたときに表示されるページをインデックスしてランクづけしますよというものです。

もはや過半数のインターネットへのアクセスがモバイルである昨今当然といえば当然の流れです。(BtoBサイトではいまでもPCのほうがアクセスが多いよという話はときどき聞きますが)

 

さて、モバイルファーストインデックスという構想が発表されてから、かれこれ3年以上が経過しているわけですが、

当時私もモバイルファーストインデックスの発表に焦りまして、こんなことを急いでやったわけです。

アメブロで行ったモバイルファーストインデックスへの準備について

https://ameblo.jp/ca-seo/entry-12235557765.html

当時はなつかしきセパレートURLでして、モバイルファーストインデックスが発表になってくれたおかげで(?)現在のように、ameblo.jp一本に統一することができました。

昔のことすぎてあまり覚えていないですが、各種調整から実際移行したときにクローラーがこの膨大なページをどうクロールするのだろうと胃に穴があきそうになりながら進めていたような気がしなくもありません。

後にも先にもアメブロのSEOやっていてこんな大きな変更はしたことがありませんし、できればもうしたくありません笑

当時「いつMFIがくるかわからないからとりあえず急ごう」と社内リソースを一気に投下してもらったものの、

アメブロのブロガー様の中にはご存知の方もいらっしゃると思いますが、アメブロには待てど暮らせどMFIはやってきませんでした。

(大騒ぎして社内リソースを投下してもらったあとの私への社内の視線がどのようなものだったかはご想像にお任せします)

そんな中、ついに強制移行の発表がありました。

 

これまでは原則モバイルファーストインデックスに移行しても大きく下落しないものが移行していったと思うのですが、ここにきて強制移行です。ここまで移行していないということは、リスクがあるのかもしれないと考えてしまいます。というかあると思っています。

先述したように、モバイルファーストインデックス移行はリスクが小さいものが順次移行されていたと思われますが、私が知る範囲では某サイトでは、モバイル側とデスクトップ側の記述差異が大きく数十パーセントの下落を招いたケースもあったようです。(弊社ではありません。そのケースでは特に<h1>というか見出しの違いや有無などソースレベルでbotが読み込む内容が大きく違っていたとのこと。)

決して侮ることのできないモバイルファーストインデックス。

特に大規模サイトの場合は小さなロスの積み重ねで極端にトラフィックを減らすことがあるため、現在このリリースから再度モバイルファーストインデックスについておさらいをするということを行なっています。

ということでせっかくなので確認しておきたいと思っている点をまとめておきます。

あくまで私が見ているサイトにおいてなので、皆さんのものとは過不足あると思いますがその点はご理解いただければと思います。

(細かいことはもっと当然たくさんあると思いますし)

 

モバイルファーストインデックスで確認しておきたいこと

 

・モバイルとデスクトップでメインコンテンツに差異がないか

 - 特にモバイルのほうがコンテンツが薄いケースは心配

 

・モバイルとデスクトップでサブコンテンツに差異がないか(導線など含む)

 - 例えば関連リンクとかがなくて導線が減るケースは心配

 - 情報の信頼性を強化するような信頼ある情報への発リンクがないとかも・・・

 

・UXに差異がないか

 - デスクトップだとそのまま機能が使えるけどモバイルだとアプリダウンロードを要求とか・・・

 - モバイルでコンテンツ隠しすぎてユーザーがしっかり読まないとか・・・

 

・クロール&indexまわりの制御に違いはないか

 - canonicalとかnoindexとかnofollowとかrel=nofollowとかhreflangとかalternateとか・・・

 

・HTMLソースに大きな差がないか

 - title,metaが違うのはさすがに危険

 - hx(特にh1かな)、見出しがモバイルはないというサイトも時々見かける気が・・・

 - モバイルだけ余分なCSSやJSの記述が多くて激重とかもたまに・・・

 - altや構造化データとか結構ないところ多い・・・

 

・レンダリング方式に差はないか

 - CSRでもいいじゃんってのは多くのサイトでそうかもしれませんが、

   特に大きなサービスは長山さんの記事をご参照ください

 - 先にリンクの有無を書きましたが、CSRの場合はクローラーが読み込めるリンクでないとリンクなしと同じ

 

・画像や動画に差異はないか

 - デスクトップとモバイルで使用している画像や動画が異なる場合に仮にそれらの品質がモバイルのほうが劣っていたら、画像検索や動画検索で悪影響があるかもね.今なかったとしても今後ないとは言い切れないよね

 

・広告表示に大きな差異はないか

 - インターステイシャルは論外だけどモバイルのほうは表示面積が大きすぎて・・・ってのは結構ある気が・・・

 

・ユーザー行動に問題はないか

 - ユーザー行動をランキング指標に今使っている使っていないは置いておいて、もし使ってたら将来使うかもという視点で、というかそもそもユーザー行動はSEOのためでなく改善すべきもの・・・

 

・表示速度に問題はないか

 - これもSEOのためにやることではないけれど・・・

 etc..(社内共有したものを全部書くと怒られそうなのでこのへんで)

 

極論、デスクトップでは見せるけどモバイルでは表示しませんとかやってたらアウトなわけですし、そのほかいろいろそれぞれのサイトに合わせて懸念点は出てくるかと思います。

3年前にほぼ対応したと思っていても抜け漏れがあるかもしれませんし、対応していなくてもそのままいくと経営判断したものも3年経てば事情は変わります。

ということでここにきて急遽再度丁寧にモバイルファーストインデックスの懸念点の洗い出しとその対応を進めている次第です。

(懸念点の中にはモバイルファーストインデックスリスクよりもビジネスリスクのほうが大きいというものもあるので、敢えて無視するものもあると思います)

みなさんのウェブサイトでもまだモバイルファーストインデックスに移行していないところは、再度懸念点がないか洗い出してみてはいかがでしょうか?

 

なお、私個人としては、モバイルファーストインデックスを理由に「ついでだから」ともうちょっとクロール&indexで改善できそうな点がありそうだったので実装してもらっちゃおうと、モバイルファーストインデックスをダシに使うことを考えています笑(こういうのはインハウス担当者は大事だと思います)

 

ちなみに9月から強制移行がはじまると言っても、それまでに移行されるサイトがないとは言えないので(先述したケースのように"強制"じゃなくても落ちてしまったものもある・・・)早めに対応しておくに越したことはないと思います。

 

@kimuyan

 

SEOに保険をかける

6 years 1ヶ月 ago

「検索者のことを考えればSEOは大丈夫」

というのはほとんどのケースで正解だと思います。

検索者に最高のユーザー体験を提供できれば、そのページやサイトのSEOはほとんど成功と言えるでしょう。

 

ただ、現時点で残念ながら、100%成功とは言えません。

順位決定はユーザーが100%評価するのではなく最終的には検索エンジンが評価しているからです。

 

先日こういうツイートをしました。

私がやるSEOはその時点で無駄になるかもしれないことを行うこともそれなりにあります。

ご存知の通り、業務上いろいろなデータをとっており、

この項目はどうも効いていなさそうだなと思うものが多々あります。

 

例えば構造化データと順位の関係性ですが、

構造化データを入れたからランクが上がっているとは言い難いものになっていました。

実際に、新たに構造化データを入れて全体的にランクがあがったなあという印象を持ったことは正直ないと思います。

 

それでも

「可能な限り構造化データは入れておきましょう」

ということをよく言います。

これはリッチスニペットの問題もありますが、

今後検索エンジンがというかGoogleがどう使うかわからないし、

今時点でもどう使っているか分からないもので、かつ入れてマイナスになることもないだろうと思われるものは、

基本的にやっておくべき

だと考えるからです。

ランクには影響出ないレベルだとしても、構造化データをコンテンツを読み取るヒントに使うというのはある程度しているのではないかと思いますし、今後結果としてSEOの結果において、構造化データを入れているほうがポジティブになるような使い方がなされる可能性はないとは言い切れないと思います。

もちろんリソースの問題があるので一概には言えませんが、そのサイトにおいて改修コストが対してかからないのであれば

やっておいたほうが将来よくなるであろうことはやれるときにやっておく

が良いと思っています。

 

構造化データだけでなく、最近ではYMYLの領域を中心にそのサイトそのものや著者や運営者の実体を見ていると思われるケースがあります。

この実体を伝えるためにも、なるべくやれることはやろうという派です。

「そんなの効果ないでしょ」とか嘲笑されること多々ですが、

コーポレートサイトでその分野の専門性示すとか、自社の研究論文に発リンクするとか、もっと言ったらDOMAINのWHO ISで運営母体状態をマスクしないようにするとか、運営元の連絡先を明記するとか、ひょっとしたらこういうところで検索エンジンは(というかGoogle)は実体を把握するかもしれないな、と思うところは無駄かもしれない場合でも工数やコストにもよりますが、なるべく対応するようにしています。

ひょっとすると実体を云々ということ自体だった間違っているかもしれませんが、

今の信頼性、専門性などを重要視する流れの中で、仮に今”実体”なんてものを考慮していなかったとしても将来的には考慮するかもしれないので、やはり対策しておいたほうが良いと思います。

 

ごく一部の人を除いて、Googleはじめとする検索エンジンの細かい仕様だったり仕組みだったり、将来的な計画など知らないわけで、それらを想像するしかないわけです。

もちろん想像するためのデータだったり経験だったりというのは必要だとは思います。

この”想像”というのは結構SEOをやるうえで重要だと思っています。

特にYMYLの領域だったり、そこにかかってくるかもしれない(これも想像になりますが)領域の場合は、どうしたら専門性が伝えられるのだろう?信頼性が伝えられるのだろう?と想像して対策を立てておくことは重要になると思います。

サイトの力を伸ばすというよりも、サイトや運営元が本来もっている力や地位を示すというややディフェンシブなことではありますが、それができないと大きな痛手を被ることは間違いないと思います。

そうならないためにも"SEOにおいて想像を巡らせて保険をかけておく"、というのは悪くないのではないかと思っています。

 

(ということで、諸事情により、これからこのような緩やかなどうせもいい感じのSEO周辺のことを書くことになりそうです)

 

@kimuyan

アメブロのSearch Console連携がVerification APIで簡単になったお話

6 years 8ヶ月 ago

久々にアメブロのSEO関連ネタです。

アメブロのブロガーさん向けというよりは、SEOの話題に興味がある方向けですが。。。

 

なお、この記事の内容について、ブロガー様は、こちらのヘルプをご覧いただいたほうが分かりやすいかと思います。

https://helps.ameba.jp/qguide/blog/webmastertools.html

 

 

今回アメブロでは、

これまで各ブログのブロガーさんがSearchConsoleを連携させる際に

google-site-verificationタグを入力して設定しなければいけなかったものを、

紐づけたいGoogleアカウントにログインしている状態であれば

ブログ管理 > 設定・管理 > ブログの各種設定 > 「外部サービス連携」ページ内の

「Search Console(旧ウェブマスターツール)と Google Analytics の設定」

内で「アカウントを設定する」ボタンを押すだけでGoogle Search Cosoleの設定が完了するようにしました。

 

SearchConsole-アメブロ連携

 

Googleにログインしていない状態で「アカウントを設定する」をクリックした場合は、Googleアカウントへのログインが求められ、ログインして、ameba.jpへの権限付与を許可していただければ連携が完了します。

 

 

これまでよりもSearchn Consoleの連携が非常に簡単になったわけですが

このSearchConsoleとアメブロの連携を簡略化するのには、

こちらのGoogle Site Verification APIを使用しました。

https://developers.google.com/site-verification/v1/getting_started?hl=ja (英語)

 

グローバルの事例としては、WixがこのVerification APIをはじめ、

Search Console APIを利用して、

Search Consoleへの連携を簡単にしたり、

検索アナリティクスのデータを管理画面で見ることができるようにしたりしていることが発表されていますが。

アメブロも今回まずはSearch Consoleの連携をAPIを使って簡単に行えるようにしました。

 

アメブロのブロガーさんのすべてがSearch Consoleを必要としているわけではないと思いますが、Search Consoleを使いたいブロガーさんがより簡単に利用できるように、Verificationで躓いてしまうユーザーさんがいないようにするためにも今回のAPI利用を決めました。

Search Consoleを連携して頂くことで、少しでも検索エンジン(というよりも検索者)を意識してもらえたら嬉しいなと思っています。

 

なお、今回このAPIをホスティングサービス(UGCプラットフォーム)で採用したのは日本初と伺っています。

今後はSearch Analytics APIなどのその他のAPIの採用も検討し、検索流入を意識されるブロガー様により便利な機能を提供できればなと思います。

また、新しいGoogleの検索まわりのプロダクト・機能に関しては今後もどんどん試していければと思います。

 

------------------------------------

[広告]

少しでも検索流入に興味を持って頂いたブロガー様には是非こちら拙著をお読みいただければと思います。

(って、はじめにブロガー様向けじゃなくてSEOに興味ある人向けって書きましたけどね。)

たくさん読まれるアメブロの書き方


https://www.amazon.co.jp/dp/4774194166/

平成の私のSEOとこ令和にSEOをする人たちへ

6 years 10ヶ月 ago

先月、Web担当者Forumでこちらの記事が出まして、

「アメブロ商業利用解禁。SEOってどうなの? 相性の良いジャンルは? 検索で上がってくるのか聞いてみた。」

https://webtan.impress.co.jp/e/2019/04/18/32358

お前もガイドライン違反をしてたじゃないか!というご意見も頂きましたので、

なぜスパムに対する考え方が自分の中で変わったのか?ということを書いてみたいと思います。

 

なお、過去を正当化するつもりはありませんし、今自分がやっていることが100%正しいと言うつもりもないです。昔も今もずっと霧の中でSEOやっている感じなのは変わりません・・。。

 

私が過去どういうSEOをやっていたのか?どんなガイドライン違反をしたことがあるか?

は今回重要な論点ではないと思いますし、下手するとガイドライン違反行為を助長するようなことになり兼ねないので割愛します。

(オンラインでご質問頂いても回答はいたしかねますので、

どこかでお会いした際に直接聞いてください。。)

まあ、世の中の多くのSEO会社が表裏で行なっていたようなことです。まあ、リンクとかリンクとか・・。。

当時は今考えると信じられないくらいに高い効果が高確率で出ていました。

(一方で、私には現在もSEO業界で重鎮と言われる方々のように「ガイドライン違反なしで安定的に上位表示させる」という技術は持っていなかったとも言えるかもしれませんね。)

 

ガイドラインを守るようになったきっかけと理由

 

明確な時期は覚えていませんが、2010年後半か2011年くらいから所謂"ペナルティ"が発動するようになってきました。

Googleは「ペナルティ」ではなく、手動対策(マニュアルアクション)と呼んでいます。

この手動対策によってスパム行為をやっているサイトがランクダウンするようになりました。

それまでは、施策が無効化されることは多かれ少なかれありましたが、

この頃から、”むしろ下落する”という兆候も見られました。

直接的なきっかけはこの”ペナルティ"です。

 

もし、施策を行なっているSEO事業者側にペナルティが課せられるような状況であれば、

施策の方向性を変えなかったかもしれません。

また、そのときにインハウスのゴリゴリSEO担当者であったりアフィリエイターだったらそのまま続けたかもしれません。

 

お客様にSEOというものを提供しているという立場のSEOベンダーは、

当然SEOを通してお客様のビジネスを成功させることがミッションなわけです。

が、その時に行なっていたSEOは、

"お客様のビジネスを成功に導くかもしれないし、奈落の底に突き落とすものになるかもしれない"

という諸刃の剣に変化してしまったのです。

お客様に大きなリスクを背負わせてサービスを提供するという選択肢はありませんでした。

 

ガイドラインを守るようになったのは、正義感ではなくて、お客様にリスクを背負わせることはできなかったという理由が大きかったです。

 

今のスパムSEOをどう思うか

 

スパムSEOを提供しているSEO業者で、リスクを明確に説明しているところ、

要は、「超ハイリスク・ハイリターンです」「最悪ランク戻ってこないこともあるかもしれません」みたいなところまで説明して提供しているところには何も言う気は無いです。

 

ただ、明確にリスク説明をしているリンクSEO提供事業者を私は知りません。

「Googleの新アルゴリズムに対応したリンクです」「リスクが少ないリンク施策です」という"消防署のほうから来ました的消火器売り"のような売り方をしているところが多いようです。

(自分がやったことを正当化するように聞こえてしまうので、この表現はあまり使いたくないですが分かりやすいので言いますが)

「スパムをしてもリスクがなかった時代とは違って、今はスパムをしたらリスクが大きい」

のです。

そのスパムのリスクを説明し、責任をどう取るか明確化していないところは、お客様としっかり向き合っているとは言えないと思います。

ドーピングを選手(お客様)にさせておいて、「新ドーピング検査対応のドーピング薬です」「リスクのないドーピングです」と言ってるのと同じです。

 

私個人としては私がGoogleの人ではないので

"自分のサイトで(を)スパムする"ということに関しては自己責任なので、とやかく言うつもりはありません。

怒られるかもしれませんがGoogleさんが頑張れば良いと思います(笑

まあ、アメブロ上でスパムをされれば抗戦しますが・・・。

 

(もちろん、みんながルールを守っているほうが素敵だとは思いますけどね。)

 

令和にSEO事業者でSEOをしていく方へ

 

最近、「サイバーエージェントでSEOをしたい!」という

熱いメッセージをいただいた方を面接しました。

某SEO会社さんでSEOをやられている若い方でした。

とにかく熱意がありました。が・・

 

「やはりリンクは重要です。リンクサイトからリンクをたくさん張ることがSEOでは最重要です。

時々Search Consoleにペナルティのメッセージが来ますが、それはサイトのコンテンツが弱いときですね。

サイトのコンテンツさえしっかりしていれば、どんなリンクでも効果ありますから!

やはりContent is kingですね。」

 

と元気に話してくれました。

「洗脳」という言葉が頭をよぎって怖くなりました。正直・・・。

(我々がリンク施策を提供していたときはガイドラインには違反しているということは伝えていたので・・・)

これからSEO事業者でSEOをやっていきたい若いみなさんは、

https://support.google.com/webmasters/answer/35769?hl=ja

ここと、ここからリンクされているページを読んでみてください。

そして、ガイドラインに反することはみなさんにではなく、

みなさんのお客様にリスクを背負わせることであるということ

お客様にリスクを背負わせるビジネスをしているということを覚えてください。

 

最後に

 

もともとガイドライン違反をしていた小物SEO屋が言うことなど信じられないかもしれませんので、

SEO業界のトップランナーの方々のTwitterやブログなど読み返して頂き、

スパムすると何が起こりそうか、改めて考えていただければ幸いです。

あと最後に、当時リンクスパムで高い効果を出していた会社ほど、

今はリンクSEOからは撤退しているということを付け加えさせていただければと思います。

 

こんな記事で禊になるとは思っていませんが、少しでもリスクを理解せずにスパムSEOで検索トラフィックを減らすサイトが減少すれば幸いです。

 

おまけ

 

写真の説明はありません。

2014年に行なった研究なのですが、

リンクスパムをしていないサイトとリンクスパムをしているサイトの周辺のリンクグラフを可視化したものです。

リンクスパムをしていると不自然なリンクネットワークの形になることが見てとれました。

当初はこういうリンクグラフを描いて、発リンクスパムをしているブログを撲滅できないか?と考えていました。

私たちでここまでできたので、Googleが本気を出せば・・・ってことですよね。

 

木村 賢 (@kimuyan)

そのコンテンツ・コンテンツの評価は誰のもの?

7 years 9ヶ月 ago

今日はこのメディアで取り組んだことについてお伝えします。SEO記事を期待された方はすいません。。

 

世の中には「記事提供」というものがあります。

分かりやすい例だと、Yahoo!ニュースには多くのニュースサイトが記事を配信・提供していますし、弊社のAmebaニュースも多くの記事提供を受けています。

記事提供の文化は、ユーザーからすると数多くのコンテンツをひとつのサイトやサービスで見ることができるという利点があります。

 

一方で記事提供者からすると、自分たちの作ったコンテンツが多くのユーザーに届くというメリットがある反面、

ユーザーがオリジナルのサイトにまではなかなか来てくれないというデメリットがあります。

 

特に、

「記事提供をしたら、提供先が検索エンジンで自分たちよりも上位に来てしまった」

という話は聞きますし、実際に時々見られることです。

現実として、提供先が検索エンジン上で正規コンテンツとして見られやすくなるテクニックも存在すると思います。

 

個人的にこの”記事提供”と検索エンジンの関係性、”記事提供”とSEOというところについては悶々とするものがありました。

 

自分たちが記事提供をしている場合に提供先が上に来てしまえば当然モヤモヤするところですが、

記事提供を受けている場合に自分たちが上に行ってしまうケースもあり、トラフィックが来てある意味美味しい思いができるものの、やはりモヤモヤしてものがありました。

 

「そのトラフィックは本来どこに行くべきなのか?」

ということを数年考えていました。

ここ最近は、提供を受けているものにnoindexを入れるようにすることを増やしていました。

(一部メディアはまだ対応できていませんでした・・)

 

noindexにすると、確かに検索トラフィックそのものは本来そのトラフィックを得るべきオリジナルサイトのほうが得ることが多いでしょう。

しかしながら、記事提供がなされた場合、提供先でその記事が話題になりソーシャルメディアでシェアされたりブックマークされたりリンクが張られるということも起こるわけで、noindexにすると極論これがなきものになるということがどうしても気になります。

リンクやシェアやブックマークはその”記事の内容”に向けられたものであり、ウェブサイト(プラットフォーム)に向けられているわけではないと考えるのが自然ではないかと思い、提供を受けている側が提供してくれている元記事にリンクを張るだけでなくcanonical属性を用いて検索エンジンに正規コンテンツを知らせ、その”記事”に集まった評判を元記事にも反映させるようにしたほうが良いのではないかと漠然と思っていました。

一言で言うと、

「そのコンテンツは誰のものなのか?そのコンテンツへの評価は誰のものなのか?元記事のものなのではないか?」

ということです。

 

そんな折、社内で提供を受けている記事が評判となり検索エンジンに対して提供を受けている記事に対してどういうシグナルを送るべきなのか?議論になりました。

サイバーエージェントのグループ会社運営の新R25です。

 

SEOをやっている人間としては正直言えば検索トラフィックは1つでも多く欲しい。

でも記事提供のcanonical文化が変わるチャンスかもしれないと思いながら社内のやりとりをぼーっと眺めておりました。

 

世の中、記事提供を受けているサイトが記事提供もとにcanonicalしているケースはレアなため、

「そこまでするべきなのか?」という意見も当然ある中で某氏の

という意見から、やはり本来の姿が何かで考えていこうという流れが進み記事提供元にcanonicalするという結論に至りました。

 

そこから約1週間を経て本日めでたく実装完了しました。

 

例えば、こちらのページ( https://r25.jp/article/540751228913636582 )

 

 

のソースを見ると、

 

 

となっており、こちらのページ( https://www.froggy.money/8557/ )にcanonicalによって正規化のシグナルを送っています。

 

 

過去の記事にも遡り、すべての記事提供元にcanonicalによって正規化のシグナルを送ることができているはずです。

 

ひょっとしたらこれによって"うっかり"上がっていたものがオリジナルに上位が入れ替わり検索トラフィックは多少落ちるかもしれません。

が、インターネット上のウェブサイトの関係性、エコシステムを考えたときにはこのやり方が正しいと思っています。

 

記事提供ができる、記事提供を求められるということは記事が良い記事だからでしょうし、提供先での評判はやはり提供元が受けるのが、そのエコシステム内では正しいと思います。

同じ考えを持っている運営者の方は実は結構いるのではないかと思っています。弊社の行った施策によって1サイトでも多くのウェブサイトが提供元に正規化シグナルを送ってくれるようになれば嬉しいです。

 

なお、AmebaNewsなどその他媒体についてはまだ対応ができていません。

長い間続けて来た習慣を変えるのは簡単ではありませんが、少しでも"ネットの世界"に貢献できれば幸いです。

もちろんアメブロ上にはcanonicalの問題が砂つぶに見えるほどに問題があるコンテンツが掲載されている状況は理解しています。

こちらもすぐとはいきませんが、一歩一歩可能な限りSEOの立場から対応してまいります。

 

[追伸]

なお、今回の新R25の英断は私がしたわけではありません。(1,2回だけ意見言ったかもですが・・・)

トラフィックが私以上に喉から手が出るほど欲しいであろう運営サイドが提供元にcanonical送ろうと決めたことに社内ながら敬意を表します。

また、本件についてご意見を伺った際に背中を押していただいた社外の有識者の皆さまありがとうございました。

 

木村 賢 ( @kimuyan )

 

[補足]

canonicalして提供先のGoogleの評価をもってくるみたいに(当ブログがSEOブログなので)読めてしまうかもしれませんが

・Googleはソーシャルシグナルを直接評価に使ってはいないと公表しています
・canonicalした場合にリンクの評価を引き継げるのかどうかも議論の余地はあると思います
以上今回はこのあたりはご容赦いただければと。。

ISM Spin-off #4 - Google Search Night レポート2

7 years 11ヶ月 ago

昨日行われた、ISM Spin-off #4 - Google Search Night。

第一回目のレポートではGary Illyes氏のKeynoteの模様をお伝えしました。

今回は第二部に行われたAMA (Ask me Anything)です。

モデレーターは海外SEO情報ブログの鈴木謙一さん

回答者にGoogleから、Gary Illyesさん金谷武明さん長山一石さん小川安奈さんという超豪華メンバーです。

私も海外のSMXやPUBCONによく行くのですが、

これだけの人数のGooglerがAMAで回答してくれるというのはちょっとありません。

 

さて、今回はAMAの中から気になったトピックについて取り上げてみたいと思います。

急いでメモしていたため誤った内容あったらご指摘いただけると助かります。

なお、前回に引き続き当日実況していたTwitter(@kimuyan)もご覧いただけたら幸いです。

 

MFIでPCサイトのみを所有する場合の対応法について「変更はありません。モバイル版とパソコン版は同じです。」ってそんなわけないのでは?

[注]

https://developers.google.com/search/mobile-sites/mobile-first-indexing

この部分のことかと思います。

[長山さん]

MFIは、クロール&indexの話。

SP/PC双方のUserAgentでクロールした場合に同じものが返ってくるならそれはレスポンシブと同じなわけで、

PCサイトしかない場合には特別何かが変わるわけではない。

モバイルフレンドリーアルゴリズムによって、モバイルでは上位表示されにくいということとMFIの話は別。

MFIはクロール&indexの話で評価(アルゴリズム)の話ではない。

 

筆者注:”MFI"という事象においては何もしなくていいけど、スマホユーザーが増えてるんだからモバイルにも最適化しましょうよって話で良いと思います。

 

MFIにおいて「レスポンシブウェブデザイン」推奨から「動的な配信(ダイナミックサービング)」「別々のURL(セパレート)」もサポートするということに方針変更になったが、結局どれでもいいの?推奨をコロコロ変えないでほしい

 

[長山さん]

(推奨の)方針は変えていない。(ですね)誤解を生んでいるのなら申し訳ない。

3つの方式はMFIの構想における当初からサポートしている。

ただし、レスポンシブはさまざまな(metaとか構造化データとか動画とかetc…)設定のミスが起こりにくからおすすめ。

 

筆者注:昨年のPUBCONではGary氏がかなり強めにレスポンシブを推奨したので、むしろ3つ等しくサポートというところからレスポンシブの推し方が強くなったように筆者は感じます。むしろ。

 

MFIはランキングに影響を与えないというが、ベストプラクティスに完全に対応していない場合にMFI導入自体によるランキングの変動は本当に起こらないのか?

 

[Garyさん]

可能性はある。Garyが今日つけ麺をたべなかったことがランキングに影響を及ぼさないとは言い切れないでしょ。どんな可能性の否定できない。

 

筆者注:ベストプラクティスに対応しなければランクが変化する可能性は当然ありますよね。アメブロ(に限らず多くのブログサービスがそうですが)はPCのトップは概ね記事がいきなり表示されますが、SPは記事一覧要はリストが表示されます。これは「重要なコンテンツが一致している」とは言い難いと思いますので、正直どうなるかわからない部分もあると思います。一応、「Intentに応えられていれば問題ないだろう」とGoogleからもアドバイスをいただいていますが果たしてどうでしょうか??

また、ベストプラクティス通りに対応したとしてもクロール&indexの部分が再度行われたり、仕様が変わっているわけですから変化が起こらないことを否定するのは難しいよなあと思います。

 

MFIに移行したサイトにはSearch Consoleに通知が届くと言うが、それはもう始まっている?また、その通知は移行後どのくらいで届く?

 

[Garyさん]

通知は始まっている。

移行とほぼ同時に通知するようにしているが、MFI移行はクロールの時点で始まりそこからSearch ConsoleにMFI移行したことを送るまでのパイプラインの処理が多少かかる。

そのため移行して最短で数時間、最長で2,3日程度かかるものと思われる。

 

MFI移行できないサイトに移行不可の通知を送らないのか?何が原因で移行できないか指摘して欲しい。また、どうやって移行可能かどうかを判断しているのか?

 

[Garyさん,長山さん]

移行できない旨のメッセージを送る予定はない。ここ数ヶ月ブログポストなどでかなり情報を出してきたのでいったん様子見。

数年たってまだMFI Readyじゃないサイトが存在しているとかだったらまた考えるが・・・

移行可能かどうかは移行によってランクやトラフィックに影響が出ないことを考慮している。Classifierは存在している。

 

筆者注:MFI移行されないからランクが落ちるということはないはずなので「移行されない!」と焦る必要は今はないのではないかなと思います。MFI移行ボーナスポイントとかがもらないえるなら別ですがないようですし・・・

 

スマホではスクリーン領域が限られているため、すべてのコンテンツを表示させるとUXが低下する。

1:初期状態でコンテンツを非表示にする(隠す)のは構わないか?

2:ABテストを行なった結果、PCで長いコンテンツが好まれるものもSPでは短いコンテンツが好まれることがわかったが、その場合ベストプラクティスと異なるがSPで短くして構わないか?

3:パンくずをJSON-LDの中だけでマークアップしていいか?

 

[Garyさん]

1:良い

2:本当に短いほうがユーザーのためになるならすれば良い

3:ガイドラインに従え

[謙一さん]

3:JSON-LDでマークアップして目立たないところに設置しておけば??

 

筆者注:コンテンツを表示しないことが本当にUX向上に役立つのかは個々のサイトでしっかり検証したほうが良いと思います。「もっと見る」を嫌うユーザーも一定数いますし、”作り手のロジック”になっていないかは注意が必要だなと。自戒の念を込めて。「2」は本当にそうなのか?というニュアンスが込められているような回答だった気もしますし。「3」についてもできることなら"使ってもらえる”パンくずを考えていきたいものですよね。難しいですが。

 

新Search Consoleの次の機能は?

 

[Garyさん]

知らない、分からない。

(ここで謙一さんから、「旧バージョンのほうにある機能が移行されるだけじゃなく、新しい機能も追加されますよね?」)

[長山さん]

うーん。どうなんですかねえ。

[謙一さん]

きっと載るはずです。

(インデックスカバレッジなどすでに載ってますね)

 

音声や画像、動画、位置情報など今後視野に入れている新たな検索手段について教えてほしい

 

[Garyさん]

テキストでも音声でも画像でもいろいろな入力方法があるが、Googleとしてはやること(目指すこと)は変わらない。

入力情報を分析し、コンピュータにわかりやすい形に変換して、いかなる入力方法であってユーザーにとって良い検索結果を返すことを目指している。

 

PCの検索結果のスニペットの文字数が増えて逆に見にくくなったが改善計画はあるか?モバイルとデスクトップのUIに差があるのではないか?

 

[Garyさん]

ユーザーの構成比を考えると今、(UIを含め)何かを改善するという場合にはモバイルエクスペリエンスを優先させている。

PCで文字数が増えているのは強調スニペットの補語になるようなことを考えて行なっているが、PCとSPでUI(UX?)が異なるということはないのではないか?

 

筆者注:ちょっとよく聞き取れませんでした。この部分しっかり聞けた方教えてください。実際に文字数は異なっていますがIntentに答えられるというユーザー体験に差はでないはずということなのかなあと思います・・。個人的にUIのテストを頻繁に行うGoogleのUI/UXへのこだわりはすごいと思います。

 

JSで隠さざるを得ないコンテンツがある場合、初期状態で隠されているコンテンツの重要度は下がるのか?

 

[長山さん]

(ソースコードに入っておらず)何かしらのアクションをした際にJSが実行されてはじめて表示されるコンテンツはそもそもないものとして扱われる

[Garyさん]

CSSで隠しているものに関して重要度は下がらない。あるかないかの問題。コードにあれば良い。

 

筆者注:一時PCは隠されているコンテンツの重要度下げてませんでしたっけ??SPだとよりCSSで隠すケースは増えると思いますが、”重要なもの”ははじめから表示させたほうが”将来的にも"安全なのではないかなあと思っています

 

JSによって生成されているコンテンツはもともとHTMLにある(プリレンダリングされている)コンテンツよりもindexに時間がかかるのか?

 

[長山さん]

かかる。プロセスが異なるので静的なものよりも時間がかかる。

 

hreflang設定でよく見られるミスは?

 

[Garyさん]

英語には日本語版への記述があるのに日本語版には英語版への記述がないなど。

hreflangは片思いではダメ、両思いにしないとダメ。

そのほか、存在しない言語コードや意図しない地域を使ってしまうなど。

 

コンテンツの信頼性が求められるようになってきた。どのドメインが発信している情報か見ているのでは?この方法の課題や改善点は?

 

[Garyさん]

基本的にはページレベルシグナルでランキングを行なっている。そのほうが細やかなランクづけができる。

ただしサイトやドメインのシグナルも存在しており、例えば出来たばかりのサイトでページが非常に少ないという場合にはドメインやサイトレベルで見ていくということもある。

信頼性の話はフェイクニュースの文脈ではグローバルレベルで出ている。(Googleはさほどフェイクニュースに問題があったわけではないが)フェイクニュース対策のプロジェクトとして、フェイクニュースをどう拡散しないようにするかという文脈で出てくる。日本だと医療系のところで出てくる。

 

[長山さん]

日本Specificでやりたかったのは医療系において、信頼性・正確性が高い情報を出すということだった。

 

筆者注:医療系キーワードは政府等の行政や公共機関、病院、製薬会社等中心の上位表示となりさらに(問題にもなりましたが)一部大手企業運営の情報コンテンツが出ているという傾向が強いことを考慮するとドメインやサイトから信頼性を判断するということは行われたのではないかと思っています

 

Wikipediaなどで実在情報は使っている?Wikipediaに情報があると上位表示されるように見られるが?

 

[長山さん]

CTRと同じで因果と相関は違うということで良いと思う。

信頼性が高いサイトの共通点としてWikipediaに情報があるということだけでないか?

 

筆者注:ここは難しいなあと思います。相関が強くなっている姿を目指しても悪くはないのではないかなと。。

 

meta keywordタグをGoogleは無視しているが公式ドキュメントとして提供しているか?ドキュメントが見つからず上司が説得できず無駄な時間がかかっている

 

(ここでGoogleの4人が揉め始めた??実際は別の話をしていたらしいが・・・)

[長山さん]

あったと思う。少なくともMatt Cuttsが動画を作っていた。

※その後、金谷さんから補足ツイートがあり

https://support.google.com/webmasters/answer/79812?hl=ja

こちらにあるということです。

 

rel=“canonical”で指定していても正規ページとしてみなされないケースがある。それはどういうとき?また正規化のシグナルとしては何を使っている?

 

[長山さん]

わかりやすい例でいうと、多くの人がcanonicalの向け先を(ガイドラインをコピペして)sample.comにしていたときは無視した(苦笑

あとは、httpsとhttp両方があってcanonicalがhttpの場合はhttpsが優先されるだろう。

基本的には検索から来るならどれが良いのか?シンプルなURLであるか?とかリダイレクトがないか?などでも判断している。

(謙一さんから正規化に使っているシグナルくらい教えて!というプッシュ)

[長山さん]

canonical,sitemap,リダイレクト,ディレクトリ階層やパラメータ階層などURLのシンプルさ,https,リンクも関係がないとは言えない

 

検索マーケッターがAMPに取り組む際のアドバイスがあれば教えてほしい。AMPを導入したくなる情報はないか?

 

[安奈さん]

アリババのEコマースや台湾のヤフーオークションがAMPページのみで作られているのでぜひ見てほしい!

AMPストーリーはワシントンポストやCNNで採用されている。

 

参考URL: https://japan.cnet.com/article/35114656/

 

Speed Updateの影響は?

 

[Garyさん]

めっちゃ遅いというページは影響を受ける。めっちゃ遅くなければ影響は受けない。

 

筆者注:そもそも速度改善はSpeed Updateのためにやるべきものではないと思います。表示に4秒程度しかからないならSpeed Updateの影響を受けないとしても50%程度の人が離脱してしまう可能性があるわけですし・・・

 

Speed Updateの評価は4G回線?3G回線?あるいはユーザーの環境や地域に応じて変化するの?

 

[長山さん]

速度改善に取り組むなら、どういうユーザーが対象かを考えていれば良い。

(日本は回線が速くてほとんど4Gだがという前提とうけて)日本は本当に早いのか?Garyは日本にきてモバイルネットワークが遅すぎると言っていつもイライラしている。

[安奈さん]

例えば地下鉄内で回線速度を測ると3Gの理論値と変わらない場合もしばしばある。

速度改善が目的なのであれば、developer tool等でCPUや回線を非力なものにしてみれば良い。

 

PageSpeed InsightsのUnavailableはなぜ出るのか?どうすれば良いか?

 

[安奈さん]

単純にデータが足りていないので待つしかない。

[金谷さん]

出てこないと言われて調べたら出ていたことがあったので、しっかりデータは溜めてきている。

 

検索結果に表示されている日付が間違っているのはどう直せば良いのか?

 

[Garyさん]

日付はページ内のどこかの数値を持ってきているはずなので、そこを消すか変えるかするのが手っ取り早い。

日付抽出のプログラムにおける問題はGoogle側も把握しており改善する予定だが簡単にfixするものではない。

 

GoogleのSEOに関する公式情報が検索で探しにくい

 

[金谷さん]

ごめんなさいとしか・・・

でもGoogleが出てこないということで検索順位を操作していない、フェアであることが分かると思う。リンクも買ってないってことが(笑

[長山さん]

次回のインハウスSEOは金谷さんはインハウスSEO担当者として、向こう側に座ってくださいね。

 

ということで、新しい情報があったというわけではないと思いますが、疑問に思っていたところ、少しあやふやに覚えていたところが随分整理しやすかったのではないでしょうか?

ここでGoogleの方が話したことは、言ってみれば現在のGoogleの事象だと思います。すべてが、by designeかどうかはわかりません。

SEOをやる身としては事象を見て対処することも必要ですが、by desingeかどうか考えてあるべき論で考えることも必要ですね。

 

なお、この後Google Dance Tokyoで発表があったとおり、改めて長山さんが日本の検索から卒業されることが発表されました。

長きにわたり日本、日本語の検索を良いものにして頂きありがとうございました。

また、Google、Googleの検索とウェブマスター、SEO屋との関係構築にもご尽力いただいたことは我々として感謝しても感謝しつくせません。

直接的には関わりはなくなってしまうかもしれませんが、これからも遠くから日本の検索、ウェブマスター、SEO屋を見守っていただければと思います。

本当にありがとうございました。

 

最後に、ISM運営の皆様、本当にお疲れ様でした、ありがとうございました。

ISM Spin-off #4 - Google Search Night レポート1

7 years 11ヶ月 ago

2018年4月6日 株式会社じげんさんにてISM Spin-off #4 - Google Search Nightが行われました。

ご存知、GoogleからGary Illyes氏をはじめとして、金谷武明さん長山一石さん小川安奈さん

海外SEO情報ブログ鈴木謙一さんが登壇されました。

 

Google検索における最新情報を聞くことができるチャンスとあって、

80人の募集定員はあっという間に満員となっていました。

 

さて、今回はそのSM Spin-off #4 - Google Search Nightより、

まず今回はGary Illyes氏によるKeynote(その名もThe つけ麺 Update)をレポートしたいと思います。

なお、本レポートは筆者のTwitter(@kimuyan)にて雑にツイートしたものですので興味ある方はそちらもご覧いただければと思います。

 

 

1,インフラストラクチャの改良

クロールしてからindexする時間を短くするというインフラの改善を行なっているそうです。

カフェインが出てきてからクロール&インデックスのスピードは格段に速くなったわけですが、さらに検索者にコンテンツが渡るのが早まるわけで、これはサイトオーナーにとっては嬉しい話です。

また、クロール&インデックスの話としてはIndex APIの話も出てきました。

現在いくつかのパートナーとテスト的な取り組みをしているということです。

特に大規模サイトにとっては”使える機能"になるかもしれませんね。まあ、そうなったらなったでプッシュするURLの選別とか行わなければならないのかな?という不安もなくはないですが・・・。

 

2,Search Consoleのリニューアルの話

新しい機能は徐々にリリースされていくということです。

2部のAMAで鈴木謙一さんが「古いSearch Consoleの機能は移りますよね?」という質問に対してはYESの回答はありませんでしたが概ね移るのかなあという印象ですね。

すべてがすべてかはわかりませんが。

新SearchConsoleについては、昨年のPUBCONでもGary氏がインフラストラクチャからすべて作り直しているのに近いという発言をされていましたが、今回もリファクタリングも行なっており、ほとんど裏側は作り直しということでした。

新しい機能が待ち遠しいところです。

Googlebotのレンダリングエンジンの変更のタイミング(こちらはSMXミュンヘンでJohn Muller氏が今年遅くか来年早い段階という発言をされていましたが今日、Gary氏に確認してもそのくらいだろうということでした)も絡んでくるのかなあと思ったり思わなかったり。Fetch as Googleを考えたら一回でこのあたりやったほうが楽なのかなあとか。

 

3,Mobile First Index(MFI)の話

基本的には今まで出てきた話と同じです。

すでにロールアウトは始まっており、MFI移行しているのはMFI移行してもランクやトラフィックが落ちないサイトということです。

MFI移行しているかどうかの確認方法は3つあり、

・Search Consoleのメッセージ

・SPクローラーが一気にくるようになる

・セパレートURLを採用している場合はキャッシュがSP側に変わる

ということです。

とは言え、3番目のセパレートのものはまだ移行していないと思いますが。。

なお、現時点でMFI移行したものに問題は発生していないということです。

世界中のすべてのサイトがいつかはMFI移行していくものの、その期限などは特にないということです。

どちらかというとサイト側がMFI対応できていくスピードに合わせる形なのかなあと思います。

 

MFIの準備として行うべきこととしては、

・デスクトップとモバイルのサイトにおいて重要なコンテンツを同じにする 

・metaデータ(title & description)は同じにする 

・構造化データをモバイル版にも記述する

・SPクローラーに制限をかけない

・hreflangをモバイル版にも正しく記述する

・rel-canonicalを正しく記述する

ここで「セパレートの場合はSPにむけてcanonicalする」という話が出たのですが、

のちに確認したところ、

“かつてのセパレートの仕様通りに、SPからPCへのcanonical(PCからSPへはalternate)で問題はない(変える必要はない)"ということです。

ただし、”PCからSPにcanonicalしているほうがベター"ということでした。(注

このあたりは今まで言ってきたことと少し異なりますが、PCとSPが同一コンテンツであることを示すことができていればどちらでも良いということのようです。(金谷さん談)

※注にありますように事実確認が必要な項目だと思っております。申し訳ございません※

なお、セパレートURLの場合はPC,SP双方にrobot.txtを正しく記述する必要があるということです。

こう考えるとセパレートは本当に面倒だしミスが発生しそうですね・・。

 

注: SPにcanonicalするほうがベターという話について、canonicalは他検索エンジンにも影響があり、Gary氏の発言通りにすると他検索エンジンで致命的な悪影響を及ぼすため聞き間違いではないかというご指摘を頂きました。

その場でのGary氏の話はこちらの通りではなかったかと思うのですが、内容を再度確認させていただくとともに、Googleの公式な発表が再度あるまでは当canonicalはご自身でご判断いただければと思います。

 

4,Speed updateの話

Speed UpdateはMFIとはまったく関係のない独立したものであるということです。

また、遅い回線で遅い分には関係ないそうです。

二部のAMAでは、「めっちゃ遅い場合にはランクに影響が出る」ということだったので神経質になる必要はなさそうです。

が、そもそも速度改善はSEOのために行うべきものではないかなと思います。

 

5,動画検索・画像検索

通常のオーガニック検索ではビッグワードは10年くらい大手企業が1位を占拠しているケースが多々あるが、画像や動画では大手企業が上位を取れていないケースがあるからチャンスがあるよという話から。

これは個人的には考えたことがあまりありませんでした。

動画検索、画像検索のTIPSとしては、

・構造化データを使う

・sitemap.xmlに記載する

また、sitemapについてはこちらの下記で定義されている構文を記述することでより良い状況が期待できるとことでした。

https://support.google.com/webmasters/answer/178636?hl=ja

https://developers.google.com/webmasters/videosearch/sitemaps (英語)

 

 

45分しかも通訳込みでしたが、そんな短時間と思えないくらいに普段の業務に役立ちそうなTIPSがたくさんあったと思います。

個人的にはMFIは概ね大丈夫かなと思うので(まだ確認したいところはありますが・・・)、動画検索や画像検索のところに工夫の余地があるなと思いました。

インフラストラクチャの改善の話も公式に聞くの初めてでしたし、Speed Updateが”SEOのランクにおいては"そこまで神経質になるものではないというのは聞いている人にとっては有益だったのではないでしょうか?

今回も日本のウェブマスター、SEO担当者に多くの情報を残していってくれたGaryさんに感謝です。

また来年も是非きていただきたいですね。

 

さて、第二部はAMA(Ask me Anything)でした。こちらも役立つ情報がたくさんありましたので次のポストで書きたいと思います。

SMXミュンヘンでのJohn Muller氏のMFI関連のセッションについて

7 years 11ヶ月 ago

3/20,21にドイツ・ミュンヘンで行われたSMXミュンヘンに参加しています。

そこでGoogle John Muller氏のmobile first indexに関するセッションがあったのでレポートしてみたいと思います。

 

まずJohn氏はかつてのGooge検索について説明しました。

1,一般的なクロール

 - すべてのページを見つけてすべてのページを見る

2,一般的なindex

 - ページ上の情報を理解する

3,等しいServing

 - 同じ検索結果を提供する

これが現在では、

1,一般的なクロール

 - すべてのページを見つけてすべてのページを見る

2,モバイルバージョンのチェック

 - モバイルバージョンのURLを特定しモバイルフレンドリーかどうか判断する

3,一般的なindex

 - ページ上の情報を理解する

4,特定されたServing

 - モバイルorデスクトップのURLをユーザーに提供する

すでにモバイルを考慮した検索結果の提供がなされています。

これがさらに進化し、モバイルファーストに変化しつつあるわけですが、その理由として、

これはいつも説明があるように、

多くのユーザーがGoogle検索をスマートフォンで使用しているのに、

Googleがデスクトップ版で判断しているのがおかしいから

ということでした。

 

改めてにはなりますが、最近のモバイルファーストのGoogle検索の仕組みとしては、

1,スマートフォンクローリング

 - スマートフォンのUAですべてのページをクロールして見る

2,デスクトップバージョンをチェックする

 - デスクトップ版のURLを見つける

3,スマートフォンindexing

 - スマートフォンで見たページの情報をindexする

4,特定されたServing

 - モバイルorデスクトップのURLをユーザーに提供する

となっているとのことでした。

Mobile First Indexに移行するのは、

1,準備ができているか?

 - モバイルファーストへの準備はできているか確認

2,準備ができているサイトへの再クロール

 - indexバージョンをモバイル版に変換

3,デスクトップバージョンと紐付けする

 - デスクトップページとモバイルページの関係性を理解する

4,検索においてモバイルバージョンをindex&serveする

 - モバイルorデスクトップのURLをユーザーに提供する

準備ができているか確認し、できていると認識したら再クロールしてMFIに移行していくようです。

この説明は今まで通りと見て良いのではないでしょうか?

 

“準備”についてですが、下記のようなことができているか確認してほしいとのことでした。

・デスクトップのモバイルで同じコンテンツを提供できているか?

・同質のout-links(サイト外への発リンク?)とする

・画像やaltが使用できるようにする

・構造化データやAMP,hreflang等のアノテーションを正しく記述する

・サーバーを強力なものにする

レスポンシブ、ダイナミックサービング、セパレートのそれぞれの状況について、

レスポンシブは何もすることはない、もう準備できているだろうとしており、

ダイナミックサービンスについては同じURLではあるが、すべての項目についてチェックが必要だとしている。

また、セパレートはモバイル・デスクトップそれぞれのURLをクロールする。そのためすべての項目のチェックが必要だとのことだった。

次のステップとしてJohn氏が明かしたのは、

・ブログポストでより多くの情報を提供する

・モバイルインデックスについてのドキュメントを提供する

・より多くのサイトを一括してスイッチする

・サーチコンソールでMFI移行する際にはメッセージ送信する

とのことでした。

最後のMFI移行時については移行する前なのか後なのかは定かではありませんが(私の英語力の問題の可能性あり;すいません)これまでモバイル版にだけ異なるテキストをいれておくなどの本末転倒なことで確認するかモバイルクローラーのアクセスのほうが多くなったときに”予測"するくらいしかなかったのに比べて、大変ありがたい機能になると思います。

かつてGoogle Dance Tokyoで、MFI ReadyになったサイトはSearch ConsoleからMFI移行許可が出せるようになることを検討しているとGary氏が語り、その後その予定がなくなりましたが、この機能はなんとしてもリリースしてほしいものです。

 

その他、AMPに関しての話など補足がありましたが新しい情報は特になかったので割愛させていただきます。

 

なお、会場で直接MFIとは関係ありませんが質問を投稿できるようになっていたので質問したら取り上げられました。

レンダリングエンジンをChrome41から変えないの?

という質問をしたところ。

変える。

ただ、ビッグプロジェクトなので今年遅くか来年早い段階になるんじゃないか。

とのことでした。

モデレーターから「Good Question」と言われたので良しとしますが、早くバージョンを引き上げてもらいたいところです。

 

全体的にはこれまでの流れを踏襲したものとなっていますが、今後の予定についても語ってくれて満足なセッションでした。

Gary氏が発言したような数週間で一気に推し進めるような雰囲気ではありませんでしたが、

今後MFIが加速していくことは間違いないと思われますので、より一層モバイルサイトのユーザー体験の向上に力を注ぎたいですね。

現場からは以上です。

 

注:筆者の英語が中学レベルのため内容についての保証はいたしかねますのでご注意ください

 

@kimuyan (:本日も参加したセッション内容は少しですがツイートします)

SEOはアルゴリズムではなく検索者に最適化するものに

8 years 5ヶ月 ago

ここ数日、また検索結果順位の変動が大きくなっているのではないかと思います。

特に、9月20日から9月21日にかけての変動が大きくウェブサイトによっては大きく流入を減らしたり、逆に増やしたりしていることと思います。

(弊社ツールでの変動状況;直近での変動が顕著)

 

我々も当然ですが、変動を検知すれば何が起こっているか?を調査しますし、そのためにすべきことはないか?を考えます。

が、そのスタンスにここ数年で変化が出てきたなあと思っているので少し書いてみたいと思います。

 

なおこれを「SEO屋の言い訳だ」とか「ポジショントークだ」とか思われる方もいるでしょうが、それならそれで構わないと思っています。

「アルゴリズムがどう変わろうと、上げ続けるのがプロでしょ?」と何度も言われたことがありますが、無理なもんは無理だし、そんな力があるならもっとビッグな人間になってます。きっと(笑)

もちろん、低下したときの責任は取りますけどね。それがアルゴリズムの影響だろうがなんだろうがSEOを担当している人とか、依頼を受けている人の責任だと思うので。

アルゴリズムが変わって流入が下がれば、インハウスなら減給でもクビでも受け入れないといけないし、SEO事業者なら契約解除されても文句言えない。(法律的には知らないですし、それでクビになった話はあまり聞きませんが)それはSEO屋である以上仕方ないと思いますんで。

という前提のもと少しアルゴリズムとSEOについて考えたいと思います。

 

過去:アルゴリズムに最適化するのがSEOだった

私が事業としてSEOを行い始めたのは2003年の末です。その前の2年くらいはインハウスと自分のサイト(アフィリエイト含む)のSEOをやっていました。SEOという言葉を使っていたかどうかは覚えていませんが。

そこから2010年くらいまででしょうか?

SEOはアルゴリズムに最適化する

もっというと、

SEOはアルゴリズムをハックする

ものだと思っていたと思います。

2004年くらいなんて、「今週はキーワード出現率は5.5%がいいらしいよ」とか「タイトルにキーワードは2回入れたほうがいいよ」とか言われていましたね。

2010年くらいまでは1位をとるためには「リンクが◯本必要だよね」とか「キーワードをアンカーにするのは30%くらいにして、サイト名とかは30%で・・・」みたいな会話ばかりをしていたのではないかと思います。

まさしくSEOは、

アルゴリズムを逆手に取る

(関連サイトからのリンクを重視するから、関連テーマのサイトをたくさん作ってそこからリンクすんぞ!)

(被リンク元の被リンクも重要だから、それが残存しているオールドドメイン買うぞ!) etc...

アルゴリズムに合わせる

(キーワード出現率は5%がいいからキーワード追加すんぞ!)

(ページ数が多いから増やすぞ!)etc...

こんなのがSEOの王道(マジョリティ)だったんじゃないかなあと思います。もちろん、このときから真っ白にSEOされていた方はいらっしゃいます。

(そしてそういう方や会社はたいてい生き残っている。この時期にホワイトだったのに近年海外で真っ黒SEOになっているところもなぜかあるのだけども・・・)

 

最近でも、コンテンツスパムと言われるような、こうやって書いたら"Googleが評価してくれるよね"的SEOが流行りましたが(まだ、流行ってるのか)、

それらもアルゴリズムに最適化するだと思いますし、上位にあるサイトに入っているトピックを全部網羅してやるぜ!みたいな半機会的なコンテンツの作り方はアルゴリズムを逆手にとるSEOだったと言って良いと思います。

 

それが、正義感の強い方が身の危険をおかしてまでこれらのサイトたちと戦った成果もあり、このようなことをすると所謂"炎上"状態になりますし、Googleも強い世論を受けてか変わってきたと思います。

そう言った事情から、我々SEOの人間もアルゴリズムの向き合い方が変わってきたと思いますし、変えていかなければいけなくなっていると思います。

 

現在:検索者に最適化するのがSEO

GoogleがAI化している

という話は良く聞くと思いますが、世界最高峰の頭脳とコーパスを持っているGoogleを我々がハックして攻略できるなんてことはまず無理でしょう。

クリックデータを使っているだの、使っていないだの。直接使ってるだの、学習データとしては使うだの、検索品質のチェックのためにしか使っていないだの。まあ、いろんな情報が流れ、話されて、話されなかったことにされる昨今ですが、一つ言えるのはGoogle自身はGoogleの検索結果をユーザーに最適化させようとしているし、してきたということです。

我々はユーザーに最適化しようとしているものに対して、最適化しようとしていたわけで、それって我々もユーザーに最適化すればいいんじゃない?という結論に達すると思います。

これまでは、Googleがユーザーに最適化するレベルがそこまで高くなかったので、ユーザーにだけ最適化しているとずれてしまって結果として検索順位上がらないじゃん的なことがあったかもしれませんが、

AI化進んだことが大きいと思いますが、Googleがユーザーへの最適化をどんどん進めており、これからもどんどん進むことを考えると、Googleのアルゴリズムを見てそれを最適化するよりもユーザーを見て、ユーザーに最適化するほうが効率的だし長生きできるんじゃないかという結論に達すると思います。少なくとも私は達しています。

もちろん、ユーザーには男性もいれば女性もいるし、女子高生もいればおじいちゃんもいます。都心に住んでいる人も居れば、地方に住んでいる人もいる。健康な人もいれば病気の人もいる。右派もいれば左派もいる。

コンテキストはバラバラです。

そのバラバラのコンテキストに最適化するにはどうすればいいのか?というのは難しい問題ではありますし、そのために例えば検索のサジェストを使ってユーザーがどんなことを考えて検索するのかを調べるというのはかまわないと思います。

要は、アルゴリズムを見てそれを行うのか?ユーザーを見てそれを行うのか?だと思います。

そこで出て来る検索サジェストは同じであっても、アルゴリズムを見ているのか、ユーザーを見ているのかによってその使い方はアウトプットとなるコンテンツは異なってくると思いますので。

SEOのためにコンテンツを作るなと言う気はまったくありませんが、SEOで長く成果を出したいならアルゴリズムにフィットさせずに、検索者にフィットされることを考えようねというお話です。

(細かいどうすべきか?みたいな話はここでは割愛します。)

 

 

なお、大規模サイトにはアルゴリズムにフィットさせないといけない要件がまだまだ存在します。

代表的なところで言えば、どうやって確実にURLを発見させるか?とか、どうやって効率的にクロールさせるか?とかです。

このあたりは、大規模サイトのSEOが得意な専門家に見てもらうのが一番ですが、ログ見てごにょごにょとか独特なノウハウがあるはずです。(と少なくとも私は思っています。)

が世の中の99%のサイトにおいては、そういう特殊な事情がないでしょうから、

SEOは、検索者に最適化するものである

と言ってしまって良いのではないでしょうか?

決して綺麗事で言うのではなく、Googleの方針に乗っかると必然的にそうなると考えています。

 

 

私のセミナーとかをお聞きの方は、

「じゃあ、なんでお前はデータたくさんとって、何が順に影響するのか?とか調べてるんだ?またダブルスタンダードか!!」と思われると思うんですが、

正直なところ上記を確認するためでして、

検索エンジンは検索者に最適化しているから、検索者に最適化することがSEOだ

検索体験が向上するにはコンテンツやウェブサイトの機能をどうするべきなのか?

を調べていると個人的には思っています。

セミナーでは何回も出しているものですが、

「このキーワードでこのページが検索して出てきたらどう思いますか?」

というアンケートを100キーワード×100位分シャッフルしてアンケートを取った結果です。

S→A→B→C

で評価が下がっていくのですが、ユーザーの評価が高いもののほうがGoogleのランクが高いという傾向が出ました。

これらも、SEOはアルゴリズムへの最適化ではなくユーザーへの最適化で良いのではないか?と思った要因です。

 

実際にランクとユーザー行動は比較的強い相関がでますし、

(と言ってもクエリによって本当に大きな差が出ることが分かってきたので、闇雲に滞在時間伸ばしたり回遊ページ増やしたり、直帰率下げてもダメですし、むしろマイナスになることもあるのでご注意ください)

(滞在時間とページスピードや見出し位置など各種要素の関係性.細かい説明がないと誤解を生みかねないのでぼかしています)

 

ということで、言い訳や逃げとかポジショントークに聞こえかねない内容ではあると思いますが、

今のSEOは、アルゴリズムが変わろうと、検索者に最適化する施策が打てていたら方針変更はしなくていいし、するべきではないと思います

「アルゴリズム変わって流入落ちた!大変だ!すぐ新しい施策考えなきゃ!」

ではなく、

「アルゴリズム変わって流入落ちた!大変だ!ちゃんと検索者のこと考えられてたかな?」

ではないといけないというわけですね。

「このコンテンツは検索者を騙す可能性があるけど、上がりそうだからいいや!」

「このサイトはそこまで力がないし品質低いけどリンクで上げて流入稼ごう!」

こんなSEOが終わってきているのは、Googleが検索者に最適化している証拠だと思いますので、我々もそれに乗っかってSEOやっていきましょうよ。無駄が少ないと思いますよ。

というお話でした。

 

木村賢(@kimuyan)

Mobile First Indexing(MFI)に関するGary氏による情報アップデート

8 years 6ヶ月 ago

2017年8月22日に行われたIn-House SEO Meetupにおいて、GoogleのGary Illyes氏の基調講演において、Mobile First Indexingについての新しい情報がありました。

 

Mobile First Indexing(以下MFI)は、昨年のラスベガスのPUBCONで発表されましたが、Gary氏はPUBCONでの発表は早すぎたと発言しました(笑

(なお、私はそのほかのPUBCONに参加した日本人とともに発表前日にGary氏から直接聞くと言う幸運に恵まれましたが、そのおかげもありアメブロでは対応を急ぎすぎたという説も。。。)

 

このMFIについては、先のSMX Advancedにおいて、Gary氏が「個人的には、今年はないんじゃないかと思っている」的な発言をし(それを私も「個人的に」というのを付けずツイートしてしまい)物議を醸したのですが、今回そのスケジュールに関しては未定であるとのことでした。

しかしながら次のような発言がありました。

  • 100%MFIという状態でスタートさせると何年もかかってしまう
  • MFIへの準備ができているところからスタートするのはほぼ間違いない
  • Search Consoleで、MFIへの対応が完了していることを通知し、モバイルサイトでの評価に移行することを了承するオプトインもしくは逆のオプトアウト型にして進めていくことも検討している

非常に興味深いのは、最後のSearch Consoleでのオプトイン、アウトの検討です。

検討段階だし、数ヶ月はリリースはないということでしたが、個人的な予想としてはPUBCONで発表があるのではないかと期待しています。(今年も参加するので発表あったら @kimuyan でツイートします)

この、オプトイン、アウト機能がリリースされた際にはその判断は非常に難しいものになるように思います。実際にデスクトップとモバイルが同じ(もしくはそれ以上)のスコアが得られると確信でしない限り、なかなかモバイルファーストの判断がしにくいようにも感じます。

Google側で、デスクトップとモバイルのそれぞれの評価を比較できるようなツールが出てくれば良いのですが。。。

もしくは、モバイルファーストにオプトインしたら◯十パーセント評価が上がりますという、AppIndexingリリース時にあったような、人参をぶら下げてもらえればチャレンジできるかもしれませんが。。

特に検索流入に頼っているサービス、検索流入が売上や利益に直結するECサイト、影響範囲が大きい大規模サービスなどはその決断に迷いそうですね。

 

そのほかにMFI関連で言うと、これまでGoogleはレスポンシブウェブデザイン、ダイナミックサービング、セパレートの3つの方式を推奨していましたが、今回はGary氏より公式に「Googleとして、レスポンシブウェブデザインを推奨する」とのコメントがありました。

これは当然MFIを見据えたもので、現在デスクトップサイトと比較してモバイルサイトにおいて、

  • デスクトップにあってモバイルにはコンテンツがないというケースがある
  • 構造化データ、meta、alt、hflang等がモバイルに入っていないものがある

などの問題があり、このようなものはMFIにおいて問題が発生する可能性があるとのことでした。

このような問題を防ぐためにもレスポンシブウェブデザインを推奨するとのことで、Gary氏は、(というよりも訳した長山氏の思惑も入っていそうですが)「レスポンシブウェブデザインじゃないとマジめんどくさいぞ!」とのことでした。

MFI対応させるにあたりレスポンシブウェブデザインのほうがコストが抑えられるというメリットがあるということで、新しく作るものについては確かにそうでレスポンシブウェブデザイン以外を選択する必要はないかなと個人的にも思っています。

 

ただし、既存サービスをレスポンシブウェブデザインに移行するということは簡単ではない場合も多いと思われます。アメブロもそうですが。(アメブロはMFI考慮してセパレートからダイナミックサービングに移行済み)その場合は仕組み部分で、

  • デスクトップとモバイルで原則同じコンテンツを提供する
  • 構造化データやhflangなど検索エンジンが参考としたり検索結果に使用したりするものを落とさない
  • モバイルでもデスクトップでも同じ体験を提供できるようにする

あたりができればダイナミックサービングでも問題はないと思います。

(個人的にはクロール効率等の問題でセパレートは避けたほうが良いと思っています)

 

なお、「モバイルにはモバイルに最適なデザインやコンテンツがあるからレスポンシブウェブデザインは無理」という意見もあるようですが、基本的に検索する人が必要とする"コト"は、モバイルだろうがデスクトップだろうが大差はないと思いますので、こと検索からという観点でいうとコンテンツは同じほうが良いケースが大半なのではないかと思います。

ただし、所謂サブコンテンツ、メインコンテンツ周りのサイドからのいろんなリンク類や広告、お知らせなどについては必ずしもモバイルで表示しなければいけないものではないと個人的には思います。

"レスポンシブウェブデザインと言えば、完全にデスクトップとモバイルを同じにして、CSSで配置を変えるだけ"みたいに考えてしまうと難しくなってしまいますが、そこまでMFIはというか対検索においては厳密に考える必要はないのではないでしょうか?

もちろん隠しリンクになってしまうとか、検索エンジンスパムとなり得るものはケアする必要があると思いますが、原則メインコンテンツが同じであり、検索Intentをデスクトップとモバイルで同質に満たせるのであれば大きな問題はないと思います。

日本(というか中国などもそうだと思いますが)は、欧米に比べてウェブサイト上のサブ要素が多いように感じます。そのためレスポンシブウェブデザインにして全要素をモバイルに取り込もうとするとメインコンテンツの後に延々と続いて・・・・と欧米に比べてなりやすいのかもしれませんね。

そのあたりの日本特有の懸念はあるかもしれないので、そのあたりはGoogleからも優しいアドバイスを期待したいと思います。

 

今回日本の、In-House SEO Meetupという場でここまで話して頂いたGary氏には感謝しかありません。

きっと大好きなつけめんTETSUをたくさん(昨日話したらすでに Three Timesと話していましたw)食べたからかなとwというのは冗談ですが、日本のウェブマスターやインハウスSEO担当者にわかりやすく通訳(ときには意訳?)してくれた、長山さんそしてIn-Hous SEO Meeupのスタッフの皆さんも本当にありがとうございました。

そしてGoogle Dance Tokyoも楽しみにしています。

 

木村 賢

 

【あらためて】SEOでできること、目指すこと

8 years 10ヶ月 ago

5月になってしまいましたが、新年度から新しくウェブサイトの運営の担当になったりSEOの担当になったり、はたまたSEO会社でSEOをやることになった人もいるかと思うので、自分自身も初心に立ち返る意味でもSEOで成し遂げられることってなんなの?ということをおさらししてみたいと思います。

私自身は2001年に社会人になったので社会人歴は17年目になりました。

その中で仕事としてSEOをやったのは、14年目です。

その前は前職でインハウスSEO的なこともやっていたので(SEOという言葉は知らなかったけど)実際は16年くらいSEOに携わっていると思います。

 

その中で一言で「SEO」と言ってもいろいろ変化してきて、"SEOってこういうものでしょ?"という概念的なものも、変化してきたと思います。

わかりやすく言うと、会社の偉い人がインハウスSEOの担当者へ、だったり事業者がSEO会社に発注する際に、

「SEOで◯◯な状態にしてね」とか「SEOで◯◯という数値を達成してね!」

という◯◯が変わったことと、◯◯が変わらなくても、それを実現する前提条件が変わったと思います。

 

通常SEOの概念としては現在、こういうものがベースになるはずです。

"ウェブサイトやウェブページがもつ力を最大限に引き出してGoogleに伝えること"

ですね。これがSEOの根底にある考え方です。

方法としては検索エンジンがきちんとコンテンツを読めるようにしてあげる(レンダリングできるようにする等)などがあると思います。

コンテンツの力を引き出すという意味では、コンテンツを読みやすくするための仕組みづくり、たとえば表示速度だったり、サイト内の導線の整備だったりもここに入るかもしれません。

 

ですが、かつてはこのようなものがSEOだ!と思われていたように思います。

本来そのサイトやページが持つ力を大きく見せるのがSEOだったように思います。背伸びをさせるわけですね。

例えば、人工リンク(自作自演リンク)などのスパム行為によってGoogleの評価を高めようとしたり、無理やりコンテンツを大量生成して、なおかつ読者にとって有益とは思えない情報を、検索エンジンからの評価が上がるからと(主に網羅性を高めるために)コンテンツとして追加したりしたものがこれにあたります。

今でも、SEOは上記のようなものだと思っている人はSEOに普段携わらない方の中には多いと思います。

例えば、

不十分なコンテンツなのに"SEOという魔法の杖"を使えば上がるんでしょ?

と思っている人や、

そんなものクラウドとかでコンテンツ作れば上げられるでしょ?

と思っている人は実際に結構いると思います。残念ながら。

ここから脱却できないと、Googleからペナルティ(;Googleはペナルティという言葉は使いません)を受けてランクが大幅に下がったり、先日あったオウルアップデートのように信頼性が低いコンテンツだとして評価が下がったりするわけで、結局無駄なコストを使うことになります。

(そして、おおむねその責任はSEO担当者に向けられますよね笑)

 

では、今SEOとして求めるべきものは何か?ですが、最初の図で示したような

"サイトやページ、もっと言うとコンテンツの力を100%引き出す"

ということは当たり前なんですが、それだと差別化は難しいし、巨大な資金力のあるサイトに勝てないし、何よりSEOが面白くない笑

 

なので、

こんな感じで、そもそもの力を伸ばすことがSEOになってきたと思います。

 

古いSEOでは、

本来持っていない力を持っていると見せかける

でしたが、

今目指すべきSEOは、

本来持っている力そのものを伸ばす

です。

まあ、古いSEOでも、力の捏造はスパムなのでやってはいけなかったわけですが・・・・

 

じゃあ、何をやってベースを伸ばすかですが、

・検索エンジンではなくユーザーが必要とする良質なコンテンツを追加したり、コンテンツを改善したりする

・サイトを使いやすくする(要はUXを向上させる)

に尽きると思います。

コンテンツによって捏造ではなく本質的なリンクが集まるわけですし、効果があるかどうかは別としてソーシャルでの言及(サイテーション)も増えるでしょう。

表示速度が速かったり、読みやすかったり、求めている情報にたどり着きやすしものはUXが向上して直帰率が下がったり、滞在時間が伸びたり、回遊ページ数が増えるでしょう。

これらは直接的にSEOに効果があるかどうかは別として、我々の研究結果からもGoogleの順位と非常に相関が高いものになります。(6月にそのあたりのセミナーをやりますので興味ある方は来てください。宣伝。笑。)

 

かつてSEOでやれたことが今でもやれると思っていると、誤った方向に進んでしまう可能性があります。

SEOはGoogleをハックすることだと思っていた人は一度その考えを捨てて、いかにウェブサイトの本来の本質的な力を伸ばせるかに注力し、SEOの担当者はその力をつけるサポートをしつつ、その力を最大限に引き出せるようにして欲しいと思います。
(偉そうですいませんが、SEO歴で言えば日本でもかなり長いほうなので、老人の戯言と思ってお許しください)

 

なお、私が主に見ているような超大規模サイト&CGMでは、一言で力を引き出すと言って、

・クローラーの動きをどうコントロールするのか?

・複雑に絡み合った仕組みの中で、検索エンジンにはきちんと情報を伝達しながらどうやって表示速度を最速にするか?

とか、

・検索エンジンから評価されない(もしくはマイナスにとられる)投稿をどうコントロールするのか?

というマニアックな知識や技術が必要となります。

このあたりの話は、基本的にまったく一般受けしませんのでブログには書きませんので、偶然居酒屋で隣の席になるなどして頂ければと思います。(どうやってや??)

 

(自分も含め)SEOに携わられる方の未来が明るいものになることことを願ってやみません。

 

 

木村 賢 (@kimuyan)

確認済み
3 時間 3 分 ago
サイバーエージェントSEOラボです。当ブログでは、皆様がウェブサイトを運営するにあたって必要となるSEOに関する情報をご提供して参ります。
CyberAgent SEO Information フィード を購読

人気記事トップ10

人気記事ランキングをもっと見る