ウェブサイト評価の基準を決める:SEOレビューの前に準備すること
多くのSEOプロジェクトは、サイトをレビューあるいは査定して、そこに潜む弱点と好機を見つける作業から始まる。でも、「測定基準を十分に集める」という一手間をかけないまま、こうした分析を進めてしまうことがあまりにも多いと思うんだ。実は、これこそが重要な要因で、今後の改善目標を設定し、その目標がどこまで実現できているか(さらに、SEO対策がどんな効果をもたらしたか)を見るのに役立つんだけどね。
というわけで、SEOキャンペーンやサイトの点検を開始するにあたって必要不可欠な、レビュー前の細々とした準備を、1つも省略せずにチェックしてみる価値があるんじゃないかと僕は考えたんだよね。
サイトの開発プロセスおよび関係者を確認する
実際の測定およびサイト分析に着手する前に、考えておいたほうがいいこと。それはなんと、「人」なんだ! 重要なのは、サーバーとコードから生じるWebサイトだと思うかもしれないが、実は、ウェブ上にあるすべてのコンテンツ、ページ、ファイル、あるいはドメイン名の裏側には人間がいるんだ。サイトの改善を目指すなら、ウェブ開発チームのメンバーの責任と義務を理解するのは、どんなコンサルタントや社内SEOにとっても、チェック&レビューに欠かせない仕事だ。
中小企業や個人でサイトを運営している人は、このセクションを飛ばしてもいいよ。社内で上司や部下との折衝が必要な人は、僕がお薦めする手順を以下に示しておいたので、試してみてほしいな。
- ステップ1Webサイトの管理者を特定する
- フロントエンドのデザインと制作を管理するのは誰?
- バックエンドの開発とデータベースを担当するのは誰?
- コンテンツを承認するのは誰?
- ステップ2承認が必要な部分はどこ?
- 変更する場合に承認が必要なのはどのページで、誰の承認を得なければならないか?
- サイト全体に修正を加えたり、新しいページ/ナビゲーション/コンテンツを追加したりする場合は、どのような許可が必要か?
- ステップ3Webサイトのアクセス解析データにアクセス権を持つのは誰か?
- サイトにおけるビジターの行動をどのようなプログラムで追跡するのか?
- アクセス解析ソフトウェアへのログインは、どうやって行うか?
- ログファイルへのアクセスあるいは検索ロボットのモニタリングは可能か?
次に、サイトのコンテンツ管理システム(CMS)と柔軟性について考えなくちゃいけない。SEOの改善では、通常のCMSではカバーできない部分の変更が必要になることも多い。だから、このことを早くから知っておくと、プロジェクトに割り当てなければならないリソースを正確に見積もって準備するのに必要な予測が立てられる。
理想を言えば、上述の項目をチェックするとともに、担当部門やログイン情報を記録した文書を作成して、保管しておいたほうがいいんだけどね。そうしておけば、アドバイスの提供を開始した際に、開発プロセスもずっと速く進むようになるんじゃないかな。
サイトのコンテンツをカテゴリごとに分類する
検索エンジンのトラフィックを正しく分析するためには、獲得した検索トラフィックの量だけではなく、どのコンテンツのセクションが価値をもたらしているかをきちんと見なければならない。ブログだとか記事、トップレベルのページは、非常にリンク価値が高くて、リンクもたくさん集まっているのに、他のセクションはほとんど見向きもされていない、ということは非常によくある。サイトのコンテンツを同じような種類ごとにうまく分類してやると、その差がわかるだろう。
そのために僕が好んで使っているのは、URLのマッチングを制限して、アクセス解析プログラムで検索トラフィックを分類するという方法だ。具体的には、検索トラフィックを受け取ったページを一覧表示して、それからURLでフィルタリングするのさ。この場合、「〜を含む」かあるいは「〜で始まる」を使って、調べたいセクションを絞り込んでいくといい。
上図の例では、YOUmozの中で、検索トラフィックをもたらしてくれたページだけを調べている。この方法は、SEOmozのすべてのセクションで応用でき、サイトのどの部分が検索エンジンからトラフィックをもたらしてくれているかを調べるのに役立つ。
さて、このデータが得られたら、次は規模と割合を見極めなくちゃね。基本として、
- 各セクションには検索でアクセスできるページがどれくらいあるか
- それらはどれくらいの比率でトラフィックをもたらしてくれているのか
を突きとめなくてはならない。そうしておかないと、価値と機会を大きく見誤る可能性があるんだ。
上の図では、1万ページ分のブログ投稿と200の製品ページを持つサイトの例として出したけど、このサイトへの検索エンジン経由の訪問は、ブログのセクションに月に5万あって、製品ページは月に1000訪問だ。これを見るかぎりでは、バランスがうまくとれているように思える(どちらも、1ページ当たりの平均訪問数は5になっているからね)。
でも、実はこのデータだけでは不十分なんだ。僕らが知らなくちゃいけないのは、各セクションでトラフィックを送りこんでくれるページの割合がどうなっているかっていうことで、できれば、各ページに対してアクセス数がどう分布してるかも見ておきたいところだ。1万件のブログ投稿の内、わずか1000本の記事で5万もある検索トラフィックの95%を稼いでいるとしたら、すぐさま何か問題があるんじゃないかと考えて調査することもできるというもんだ。一般に言って、そんなことがあったら、ページの保管方法がまずくて、やたらと細かくページ分割されているせいだと僕は思うけど、まあ調べてみる価値は絶対にある。
どんな分析評価でもそうだけど、深く掘り下げて答えを見つけなくちゃいけない。SEOだって同じこと。正しい数字を正しいやり方で入手すれば、何がどうなっているかを正確にモニターできる。不正確なデータ、あるいは表面的なレベルのデータに基づいて判断すると、潜在的な機会を逸する可能性があるってことだ。
時間的な推移をチェックする
SEO手続きの測定基準を前もって集めるにあたって、今のデータだけじゃなく、過去のデータも入手しておくのは非常に有益だ。僕は、少なくとも半年はさかのぼって見てみたいし、できれば2年分くらい、以下に挙げたすべての項目についてチェックしたい。
コンテンツ量――サイト内のページ数はどう変化してきたか?
ヒント:「URLごとに見た人気の高いページ」セクションにリストアップされているページ数をチェックする。
検索エンジンのインデックスへの取り込み――そのうち何%が検索トラフィックをもたらしてきたか?
ヒント:上のリストから検索トラフィックを獲得しているページだけを抜き出して、その数字をチェックする。
リンク獲得――被リンクの伸び率はどう変化してきたか?
ヒント:リファラーのURLを時系列で追う。これは自分で追跡を続けない限り(あるいは、SEO Analyticsなどのツールを使わない限り)、検索エンジンのデータはここではあまり役に立たない。
全体の検索トラフィック――検索トラフィックはこれまでにどれくらい増加/減少してきたか?
ヒント:これは簡単。検索エンジン経由のトラフィックを時間を追って追跡するだけでいい。
検索エンジンごとに獲得したトラフィックの分析――グーグルはトラフィックが減っているのに、ヤフーは増加しているというようなことはあるか?
ヒント:これも簡単。データを検索エンジンごとに分ければいいだけだ。
この情報が得られたら、すぐにそれを利用して増加している部分と減少している部分を確認できるよね。
サイトのSEOで、プラスに働いた要因、マイナスに働いた要因は何だったんだろう? 価値をもたらしてくれたプロジェクトはまたやってみるべきだろうし、時間とエネルギーの無駄に終わったキャンペーンなんかはお払い箱だ。特に、PR活動や報道/メディアキャンペーン、バイラルコンテンツなどは、これらの数字を見れば、そのパフォーマンスとROIに関して成果がはっきりわかるはずだ。
SEO改善にこれらのデータを役立てる
さあ、必要なデータをすべて集めたら、いよいよSEO評価を開始して、サイトが検索エンジンでいい成績を得られるよう、改善策に着手できるというわけだ。
データ収集は、そのプロセス自体に価値がある。今後のパフォーマンスをどのように評価するかがわかるようになるからね(それに、比較するための基準が得られる)。でも、利点はそれだけじゃない。集めた情報から、どのような検索エンジン最適化を行えばいいか、見通しが得られるはずなんだ。
たとえば、サイトの中で検索トラフィックをもたらしてくれているパページが全体のたった20%しかないということがわかれば、それはすなわち、アクセシビリティや複製コンテンツの問題、あるいはコンテンツやリンクジュースの不足などのせいで、多くのURLがインデックスに取り込まれていないという警告なのかもしれない。
同様に、価値の高いキーワードをターゲットにしている多くのページで検索トラフィックがごくわずかしか得られていない場合は、最適化に改善の余地があって、検索順位を上げるには、おそらく価値の高いリンクがもっとたくさん必要なんだということがわかる。
SEOの測定基準と、そのデータをキャンペーンで活用する方法について、君の意見を聞かせてほしい。
ソーシャルもやってます!