Xan Porter氏が書いた、「ウェブページの品質評価」に関する最近の記事を読んでいて思いついたことがある。各検索エンジンには独自の評価シグナルがあるのだけど、品質を最大限に向上させようとするなら、ごく自然に考えて、人間の測定基準をもっと追求することになるはずだ。Xanが指摘しているリサーチ「少ないほうが実りが多い:関連ドキュメントを絞り込む確率的モデル」(PowerPointファイル)は、人間ならドキュメントをこう評価するのではないかというものを、見事に構造化している。
ページ固有のポイント
- 提示されている情報の正確性は?
- 集められた情報の偏りは?
- コンテンツはどれくらい信用できそう?
- ソースの信頼度はどの程度ある?
検索の文脈におけるポイント
- 情報は検索クエリと関連している?
- 情報はテーマに対する付加価値がある?
- 古びてしまってない?
- ソースは十分に提示されている?
- 情報量はどれくらい?
表現面のポイント:
- 扱われている素材の、さまざまな解釈が可能?
- 素材を理解する際の難易度は? 容易度は?
- 情報を簡潔に伝えている?
- ソースの整合性はあるか?
アクセシビリティ面のポイント
- ドキュメントにアクセスできる?
- コンテンツは、セキュリティ上のリスクを提示している?
検索エンジンは現在、これらのポイントのうちのどれくらいを測定できているのだろうか? 僕が想像するに、上にあげた多くについてシグナルはあるのだろうけど、しっかりした測定基準は、アクセス面とセキュリティ上のリスク、あとはひょっとすると読みやすさにあるくらいだろう。まだまだ先は長い。
バックナンバー
この記事の筆者
筆者の人気記事
link rel="canonical"のようなURL正規化タグをSEOで有効活用するには
2009年3月5日 9:00
検索エンジンが順位を決める53の要因(39人のSEOプロが評価した重要度とコメント付き)
2007年10月1日 9:30
ホームページをGoogle検索に引っかからないようにする12の方法
2008年2月14日 9:00
サーチコンソールのHTMLタグはどこに? 所有権の確認など初心者ガイド
2015年11月9日 7:00
SEO基本技術のチートシート(トラの巻)を作ってみた
2008年6月9日 9:00
滅べばいいのにと思うSEOの10の迷信(都市伝説)
2010年6月14日 9:00
