Xan Porter氏が書いた、「ウェブページの品質評価」に関する最近の記事を読んでいて思いついたことがある。各検索エンジンには独自の評価シグナルがあるのだけど、品質を最大限に向上させようとするなら、ごく自然に考えて、人間の測定基準をもっと追求することになるはずだ。Xanが指摘しているリサーチ「少ないほうが実りが多い:関連ドキュメントを絞り込む確率的モデル」(PowerPointファイル)は、人間ならドキュメントをこう評価するのではないかというものを、見事に構造化している。
ページ固有のポイント
- 提示されている情報の正確性は?
- 集められた情報の偏りは?
- コンテンツはどれくらい信用できそう?
- ソースの信頼度はどの程度ある?
検索の文脈におけるポイント
- 情報は検索クエリと関連している?
- 情報はテーマに対する付加価値がある?
- 古びてしまってない?
- ソースは十分に提示されている?
- 情報量はどれくらい?
表現面のポイント:
- 扱われている素材の、さまざまな解釈が可能?
- 素材を理解する際の難易度は? 容易度は?
- 情報を簡潔に伝えている?
- ソースの整合性はあるか?
アクセシビリティ面のポイント
- ドキュメントにアクセスできる?
- コンテンツは、セキュリティ上のリスクを提示している?
検索エンジンは現在、これらのポイントのうちのどれくらいを測定できているのだろうか? 僕が想像するに、上にあげた多くについてシグナルはあるのだろうけど、しっかりした測定基準は、アクセス面とセキュリティ上のリスク、あとはひょっとすると読みやすさにあるくらいだろう。まだまだ先は長い。
ソーシャルもやってます!