WordPressが独自ドメイン名でのHTTPSをサポート
- 今週のピックアップ
- 日本語で読めるSEO/SEM情報
- 海外SEO情報ブログの掲載記事から
- 海外のSEO/SEM情報を日本語で
- SEO Japanはお休みです
海外のSEO/SEM情報を日本語でピックアップ
WordPressが独自ドメイン名でのHTTPSをサポート
ウェブのHTTPS普及に一役買いそう (WordPress.com News)
ブログサービスのWordPress.comは、独自ドメイン名での常時HTTPSをサポートしたことを発表した。WordPress.comのサブドメインで運用していたサイトは2014年からHTTPSに対応していたが、今回は、独自ドメイン名を使っているサイトでも常時HTTPSを利用できるようになった。
HTTPS化に際しては何もする必要はない。証明書のインストールや更新など設定に必要なことはすべて自動でやってくれる。もちろん費用もかからない。というのも、サーバー証明書にはLet's Encryptを利用するからだ(もちろん、独自ドメイン名の登録費用はこれまでどおり必要)。
HTTPSを有効にすれば、それまでの http でのアクセスは https へきちんと転送される。自分でリダイレクトを設定する必要はない。
メジャーなブログサービスで、独自ドメイン名でのHTTPSの無料サポートはWordPressが最初ではないだろうか(Bloggerも無料でHTTPSをサポートしているが、今のところはblogger.comドメイン名のみ)。
WordPressブログのユーザーは海外では多いはずで、ウェブのHTTPS普及に一役買いそうだ。
サイトマップは分割して送信したほうがいいのか?
環境や好みに合わせて決めて構わない (Google Webmaster Help Forum)
サイトが複数の言語に対応している場合、サイトマップは言語ごとに別にするほうがいいのか?
この質問に対して、グーグルのジョン・ミューラー氏は次のようにアドバイスした。
サイトマップファイルは、有効な形式である限りは、どのように分けようが、グーグルの処理には関係ない。
1つの大きなサイトマップを作ることを選ぶ人もいるし、論理的な集まりに分割することを選ぶ人もいる。
サイトマップを分割することの利点は、より細かな規模で診断できることだ。サイトマップ単位で、エラーレポートやインデックスされたURL数を見ることができる。
技術的な理由で分割する人もいる。たとえば、サイトのほかの部分とは異なるCMSをブログにだけ使っているような場合だ。
結局のところはあなた次第だ。私たちは、サイトマップから情報を取り出して利用するだけだ。サイトマップファイルがどう分かれているかは、たいていの場合、私たちには関係ない。
サイトマップのベストプラクティスについては、こちらの記事でもう少し詳しく説明されている。
基本的には、サイトマップは管理しやすいように作ってかまわないということだ。
ただし、大規模サイトにおいては、技術的な制約があることは知っておいたほうがいいだろう。
1つのサイトマップは、サイズが(圧縮しない状態で)10MB以下、URLが50,000件以下でなければならない。この上限を超える場合は、サイトマップを分割する必要がある。
リンク切れは検索エンジンからの評価を下げるのか?
ユーザーからの評価は下げる (Google Webmaster Help Forum)
英語版のグーグル公式ヘルプフォーラムに次の質問が投稿された。
リンク先のページがもうなくなっている外部向けリンクがいくつかあります。こうしたリンクはサイトの評価を下げますか?
グーグルのジョン・ミューラー氏はこのように返信した。
グーグルにとってはそうしたリンクが問題を起こすことはない。もはや存在しないURLにリンクが向けられているとしたら、時間とともに私たちの側で除外する。
しかし、リンク切れしているのがわかっているなら、ユーザーのために修正したほうがいいだろうね。
リンク切れがあったとしても、それだけが理由でグーグルの評価が下がることはない。だがそうはいっても、そのリンクをクリックしたユーザーには間違いなくストレスになるだろう。リンク切れに対処すべきかどうかは、検索エンジン視点よりもむしろユーザー視点で考えたほうがいい問題だ。
サーバーのログファイルは過小評価されている!
活用できるとSEOのレベルがワンランクアップ (John Mueller on Twitter)
グーグルのジョン・ミューラー氏が、Webサーバーのログファイルについて、ツイッターで次のように語った。
ログファイルは過小評価されている、すごく役立つ情報が入っているのに。
このツイートを見たSearch Engine Roundtableのバリー・シュワルツ氏はブログで取り上げ、次のように言っている。
まったくそのとおりだ。
今はGoogleアナリティクスなどの便利なアクセス解析ツールの登場で見る機会がほとんどなくなってしまったが、ログファイルを分析していた時代が懐かしい。
ログファイルは、トラフック解釈やクロール分析、スパム検出など本当にいろんなことを明らかにしてくれる。
さらに、シュワルツ氏のそのブログ記事には、元グーグル社員で、ウェブマスターツール(現Search Console)の開発に深く関わっていたヴァネッサ・フォックス氏が次のようにコメントを残した。
検索エンジンのロボットのクロールをログで分析するツールをもう何年もの間、私たちは使っています。ロボットのクローリングを深く分析しないと、サイトのSEOを評価するのはものすごく難しくなります。
日本での名立たるSEOコンサルタントやインハウスSEO担当者が、サーバーのログを常に分析しサイトの改善や問題点の発見、トラブルの解消に役立てていることを、筆者も知っている。
ウェブ担当者であっても、サーバーのログファイルを活用できるようになるとSEOのレベルが上がるだろう。ログファイルは、文字と数字、記号が延々と並んでいるだけなのでそのままでは利用しづらい。ログファイルを見やすく加工するツールも出回っているので調べてみるといい。
たとえば、Screaming Frog Log File Analyserがつい最近公開されている(英語インターフェイスだが)。
SEO Japanの
掲載記事からピックアップ
更新がなかったのでお休み。
ソーシャルもやってます!