最新の画像検索SEO要因×4
海外のSEO/SEM情報を日本語でピックアップ
最新の画像検索SEO要因×4
画像検索からのアクセスも狙え (SEOWizz)
6か月間で画像検索からのアクセスを50から500,000に伸ばした実績をもとに、画像検索の4つの上位表示要因をSEOWizzが明かした。
テキストテキストにキーワードが含まれることが大切。具体的には以下のテキスト要素。
- ファイル名
- alt属性
- 画像のタイトル
- ページのtitleタグ
- 画像の周囲のテキスト
JPG画像のフォーマットはJPGがもっとも成績が良かった。データサイズは1~60KBに抑える。70KBを越えると読み込みに時間がかかり成績が悪い。
新しさ公開のタイミングが重要。新規サイトでも画像を最初に公開すれば上位表示できる。ユニークさも重要。新しい記事にユニークな画像を新規公開すると強い。
1ページあたりの量1つのページにたくさん画像があったほうがいい。以前は逆だったのだが、ここ1年はそういう傾向だ。ただし、画像はできるかぎりクリアにして、データのサイズを小さくする。
うっかりミスでアクセスが半分に!どうしたらいい?
慌てない慌てない、一休み一休み (WebmasterWorld)
3年前から運用していてとても評判のいいサイトのtitleタグを誤って変えてしまいました。これが2週間前の出来事で、ここ2日間ほどアクセスが半分に減ってしまいました。
気づいてすぐに修正して前の状態に戻しましたが、間違ったtitleタグをグーグルはすでにインデックスしてしまっています。
アクセスは以前のように回復するでしょうか?
どのくらい待てばいいのでしょうか?
解決するには何をしたらいいのでしょうか?
助けてください、お願いします。
このような悲痛な相談が、WebmasterWorldに投稿された。フォーラムモデレータは、次のようにアドバイスしている。
間違いはもう直っているのなら、他に何もしなくていい(待つしかない)。さらに修正すればするほど、もっとひどいことになる。
失敗を肥やしにする1つのいい経験だ。
別のフォーラムメンバーは、GoogleウェブマスターツールのFeatch as GooglebotでURL送信を実行した後に、もっとも大切なこととして次のようにしろとコメントしている。
気持ちのいい静かな場所を探して、そこにアイリッシュウイスキーを片手に座ってお気に入りの音楽でもかけるんだな。
ウェブマスターツールの作業と、そうした心の平穏を促す行動は、グーグルの問題解決に同じくらい効果があるさ。
うっかりミスによってランキングが下がったりインデックスから消えてたりしてしまったときは、確かにパニックになってしまう。しかし、焦って手当たり次第にいじくり回してしまうと、事態はさらに複雑かつ深刻になることがある。冷静になって1つ1つ順に対処し、やるべきことをやった後は静観するしかない。
リンクを追加した時はそのページの更新が必要
リンクだけの追加は評価されない (SEOmoz)
SEOmozのビデオレクチャーからリンクの評価を確実にする方法の重要ポイントを要約して紹介する。
古くから存在しているページにリンクだけを追加しても、そのリンクをグーグルは評価しないようだ。これは、多くのSEO関係者が感じていることだ。これを示す実験データがあるし、グーグルが申請した特許にも該当しそうな箇所がある。
元からあるページにリンクを加えたときは、そのページが更新されたことをグーグルに認識させなければ、追加されたリンクは評価されない。
具体的には、リンクの周囲のテキストを変更したり新たに追加したりするといい。リンクが追加された理由をグーグルに知らしめるためだ。リンクだけを挿入したり、ページの下に追加したりするだけではだめだ。ページのコンテンツを変えるならtitleタグを再編集するのにも絶好のタイミングになる。titleタグが変わればページが更新したことを示す強い証拠になる。
自分が管理しないサイトのページにリンクを貼ってもらうなら、できるだけ多くのコンテンツとともにリンクを貼ってもらうといい。
もしコンテンツを足せない場合はどうしたらいいのだろうか? その場合は、リンクを追加したページにリンクを張ることが、ある程度の代替になる。リンクを張ることで検索エンジンの目に更新されたように見せることができるだろう。
端的にまとめると、昔からあるページにリンクを追加し、そのリンクを評価してもらうには、コンテンツの追加や変更を行うこと、ということだ。
noindexタグの付いたページのリンクをグーグルはたどるのか
はい、たどります。 (Matt Cutts (mattcutts) on Twitter)
noindex robots metaタグを記述したページがあります。
クローラは、そのページに書かれている他のページへのリンクをたどりますか?
グーグルのマット・カッツ氏がツイッターで尋ねられた上の質問に答えた。
noindexタグが付いていても、そこからのリンクを依然として我々はたどるよ。もちろん、そのページを取得できず、クロールできないなら、リンクはたどれないけどね。
noindex robots metaタグはインデックスを拒否する記述であるが、正確には検索結果への非表示を命令する記述だ。だから、クローラはそのページを読みインデックスはされている(そもそもページを読まなければnoindexであることを認識できない)。その過程で、ページ内にリンクがあればそのリンクをたどってリンク先ページへ訪れることがあるし、PageRankも渡す。リンク先ページへのアクセスを禁止するにはnofollow robots metaタグを記述する。
ちなみに、noindex関連の注意点を1つ紹介しておこう。検索結果に一切出したくないページがある場合、そのページにnoindex robots metaタグを記述するだろう。しかし、noindex robots metaタグを記述したページ自体をrobots.txtでブロックしてはならない。robots.txtでクローラブロックすると、検索エンジンはそのページを見ることができないので、noindexタグの存在を知ることができず、「検索結果に表示しないでね」という命令を把握できなくなるのだ。その状態で、そのページに対してリンクが多数張られていた場合は、そのページが検索結果に(URLだけ)表示されることになる。ご注意あれ。
JavaScriptファイルを検索エンジンからブロックすべきか
隠さなくていい (High Rankings Forum)
現在はJavaScriptファイルをrobots.txtによって検索エンジンからブロックしている。
しかし、JavaScriptでタブのメニューを表示させている。ということは、グーグルにそのJavaScriptを見てもらったほうが内容の理解に役立つんじゃないかと考えるのだが、どうだろうか ?グーグルはJavaScriptも読めるようになっていることだし。
上のような質問がHigh Rankingsフォーラムに投稿された。
フォーラム管理者は次のようにアドバイスした。
まったくそのとおりです。グーグルのマット・カッツも、そうするように(JavaScriptファイルをブロックしないように)あるカンファレンスで勧めていました。
JavaScriptファイルをrobots.txtでブロックすることは簡単だ。しかしそうすることがメリットになる事情がない限りは、ブロックする必要はなさそうだ。
マット・カッツ氏がCSSファイルを隠す必要がないと以前にビデオで説明していたのを筆者は記憶している。隠すということはやましいことがあるようにも受け取られてしまうためだ。読み取りを拒否することが妥当であり正当な理由があるのでなければ、JavaScriptファイルもCSSファイルもグーグルにアクセスさせておくべきだろう。グーグルがページを理解することの手助けにもなるだろうし。
SEO Japanの掲載記事からピックアップ
グーグルがパーソナライズ検索をいっそう推し進めたニュースとコンテンツSEOで失敗しない秘訣を書いた記事を今週はピックアップ。どちらも良記事だ。
- Googleが進化したソーシャル&パーソナライズド検索で開く検索新時代
Google+を優遇するのか? - コンテンツSEOで生ゴミをダダ漏れさせないための8カ条
求められるのは質の高いコンテンツ
ソーシャルもやってます!