1ページに設置可能なリンクの上限はいくつ?
海外のSEO/SEM情報を日本語でピックアップ
1ページに設置可能なリンクの上限はいくつ?
ユーザーに必要な分だけどうぞ (John Mueller on Twitter)
ツイッターでの、ジョン・ミューラー氏とフォロワーのやりとりを紹介する。
(フォロワー)発リンクと被リンクの理想的な比率はどのくらいですか?
(ミューラー氏)そういったものはない。
(フォロワー)でも、1ページに設置できるリンクの数には制限がありますよね? 何%かを知りたいのです。
(ミューラー氏)とにかく、すばらしいページを作りなさい。リンクの数なんて気にする必要はない。
@meGomsi There is none.
— John ☆.o(≧▽≦)o.☆ (@JohnMu) 2017年5月3日
@meGomsi Just make great pages, don't worry about the number of links on them.
— John ☆.o(≧▽≦)o.☆ (@JohnMu) 2017年5月3日
1ページに置くリンク数として100本程度をグーグルが推奨していた時期があった。しかしそれは、はるか昔の話だ(筆者の記憶が間違っていなければ、江戸時代中期だったと思う)。またこの制限があった理由も、技術上の問題からだった。当時のGooglebotは大量のリンクを認識できなかったのだ。
しかし、今はそういった制約はないので、何も気にしなくていい。
それでも、1ページに何本のリンクを置くかという疑問を抱いたのであれば、「ユーザーに提示すべきリンクを必要な数だけ設置する」と考えるのがいいだろう。
もちろん、情報としてユーザーに価値があっても、1ページに1,000本も2,000本もリンクが列挙されていたら、そのページのUXが良いとは言えない。
ユーザーにとって必要なリンクを、見やすい形で提供していれば、1ページに何本のリンクがあるかなど気にする必要はない。
- SEOがんばってる人用(ふつうの人は気にしなくていい)
- ホントにSEOを極めたい人だけ
リンクの否認の解除にかかる時間はどのくらい?
どうでもいいこと!? (John Mueller on Twitter)
いったん否認したリンクを、後ほど否認ファイルから削除した場合、元の状態に戻るまでにはどのくらいの時間がかかるのか?
この疑問について、過去のグーグル社員の発言を持ち出しながら、しつこく尋ねてくるSEOコンサルタントたちをグーグルのジョン・ミューラー氏は次のようにたしなめた。
あらゆるインデックスの変更には、はっきりと定まった所用時間なんてものは、存在しない。だから私ならそういった(否認処理にかかる)タイミングを気にしたりしない。正しいことをやり、自然に落ち着くのを待つようにしなさい。
@bhartzer @Marie_Haynes @masonpelt @methode All indexing changes take an indeterminate amount of time, so I wouldn't worry about the timing. Do the right thing, let it settle.
— John ☆.o(≧▽≦)o.☆ (@JohnMu) 2017年4月27日
リンクの否認にかぎらず、クロールやインデックス、その後の処理など、一律には確定できない要因がかかわってくるものだ。
SEOコンサルタントやSEO担当者は、検索エンジンの動作を分析することも大切な仕事だ。だから、こうしたことを詳しく知りたいと思うのは、わからないでもない。
だが、このコーナーの対象であるウェブ担当者は、SEOにのめり込むあまり、サイト運営に実質的に大きな意味をもたないことに夢中にならないように気をつけてほしい。本当に重要なことにフォーカスしよう。
- SEOがんばってる人用(ふつうの人は気にしなくていい)
- ホントにSEOを極めたい人だけ
noindexタグとrobots.txtの違い、あなたは理解できていますか?
似ているようで働きが異なる (John Mueller on Twitter)
noindex robots meta タグとrobots.txtの働きは、似ているようで、まったく異なる。両者の働きや使い道を正しく理解してできていないサイト管理者が、グーグルのジョン・ミューラー氏に質問していた。
それぞれの仕組みについて、ウェブ担当者としてしっかり理解しておくべきことを、筆者が簡潔にまとめよう。
noindex robots meta タグ:
HTMLのheadセクションに記述するタグ。
そのページをGooglebotはクロールする。言い換えれば、ページの中身を見る。
グーグル内部では実際にはインデックスするが、検索結果には表示しない。
robots.txt:
サイトのルートディレクトリに置くテキストファイル。
Googlebot(検索エンジンのクローラ)のクロールを拒否できる(サイト全体、ディレクトリ単位、ページ単位で設定可能)。クロール拒否されたURLをGooglebotはクロールしない。つまり、ページの中身を見ない。
ただし状況によっては、検索結果に表示されることがある(一般的に、タイトルはURLになりスニペットは出ない)。
簡単に言えば、検索結果表示の制御にはnoindexタグを使う。クロールの制御にはrobots.txtを使う。
noindexタグではクロールを抑えることはできないし、robots.txtでは検索結果の表示を(完全には)抑えることはできない。
また両者の併用は無意味なことも必ず認識しておこう。
- すべてのWeb担当者 必見!
- 技術がわかる人に伝えましょう
ウェブページに勝手にJSを挿入されてAMPエラー!?
HTTPSなら防げる (Paul Bakaus on Twitter)
グーグルでAMP開発に中心的な役割を果たしているポール・バカウス氏がリツイートしたツイッターの投稿を紹介する。AMPの実装に問題が発生したサイト管理者による投稿だ。
ボーダフォンよ、ありがとう。私のAMPページに魔法のようにあなたがJavaScriptを追加したおかげで、不適切なAMP HTMLになってしまった :(
Thanks @vodafone_es for making my @AMPhtml pages invalid by magically appending your Javascript to my HTML :( HTTPs to the rescue pic.twitter.com/c58nU7Ys2D
— Óliver Fernández (@oliferna) 2017年4月27日
このサイト管理者のサイトは、インターネットへの接続に(スペインの)ボーダフォン社を使っているようだ。ボーダフォン社は、サイトがユーザーのブラウザと通信する際に、何らかのJavaScriptを勝手に挿入したらしい。
AMPではJavaScriptの使用が厳しく制限されている。AMPで許可されたJavaScriptしか原則的に使えない。許可されていないJavaScriptがページにあれば、一発でAMPエラーになる。
プロバイダが、たとえば広告をウェブページに勝手に挿入するというのはよくある話だ。見方によっては、ウェブページの改ざんだとも言える。
こうしたことを防ぐのに有効な方法は、ページをHTTPSで提供することだ。そのページがHTTPSであれば第三者による不正な書き換えを防ぐことができる。暗号化による盗み見防止のほかにも、改ざん防止(となりすまし防止)の役割もHTTPSは持っているのだ。
リツイートしたバカウス氏も、次のようにコメントしている。
HTTPS化するのに説得力がある理由がどうしても必要なら、これがいい例だ。
If you ever needed a convincing reason to implement HTTPS, here's a good one. https://t.co/8vhFN068AC
— Paul Bakaus (@pbakaus) 2017年4月27日
機密情報を扱っていないとしても、HTTPSへの移行が望まれる好例だ。
- すべてのWeb担当者 必見!
ソーシャルもやってます!