SEOの小技: Search Consoleにはディレクトリ単位で登録すべし【SEO記事12本まとめ】
SEO担当者なら知っておいて損はない、Search Consoleにサイトを登録する際のちょっとしたコツを紹介する。大規模サイトに限らず応用が効く小技だ。
ほかにも、新しいサイトのSEO、SEOスパムをしているサイトへの考え方、Search Consoleの次なる便利機能の予定、SEO初歩、ナレッジパネルへの修正提案、先進国でのAMP成功事例、Google Dance大阪などなど、今週もあなたの仕事に役立つ情報をまとめてお届けする。
今週のピックアップ
SEOの小技: Search Consoleにはディレクトリ単位で登録すべし
インデックスカバレッジを最大限に活用できる (The Internet Marketing Driver) 海外情報
もともとは大規模サイト向けだが、そうでないサイトでも工夫によっては役に立つ、SEO担当者向けのちょっとした小技を紹介する。
Search Consoleへのサイトの登録に関するTIPSだ。
数多くの大規模サイトに対してSEOをコンサルティングしているグレン・ゲイブ氏が、このようにアドバイスしている。
通常、Search Consoleにはサイトを登録する。しかしゲイブ氏はディレクトリ単位でSearch Consoleに登録することを推奨しているのだ。
たとえば、全国の物件を扱っている不動産サイトだったとしたら、サイト自体の example.com に加えて、次のようなURLでもSearch Consoleにプロパティを追加するということだ(サイトのURLが県ごとのディレクトリ構造になっている場合)。
- example.com/tokyo
- example.com/kanagawa
- example.com/saitama
- example.com/chiba
状況によっては、さらに下層のサブディレクトリで登録しても構わない。
こうする最大の理由は、新しいSearch Consoleで提供された「インデックスカバレッジ」のレポートを最大限に利用するためだ。
インデックスカバレッジでダウンロードできるデータは上位1,000件が上限だ。数十万ページ、数百万ページあるような大規模サイトでは1,000件のデータではまったく足りない。しかしディレクトリ単位で登録すれば、Search Consoleの登録プロパティあたりの対象 URL の総数を減らすことができる。すべてのダウンロードは無理だったとしても、分けて収集することで合計件数を増やせるというわけだ。
それに、カテゴリに分ければそれぞれの状況を細やかに分析できるというメリットも出てくる。
さらには、インデックスやクロールに問題が起こっているときも、どこに問題があるのか切り分けやすくなるため、より素早くより適切に対処できるようになる可能性が高い。
大規模サイトのウェブ担当者は、ディレクトリ単位でもでSearch Consoleに登録してサイトを監視してみてはいかがだろうか。
大規模サイトでなくても、「コーポレートサイト」「製品サイト」「サポートサイト」など、セクションや機能で分けてSearch Consoleに登録しておくなど、応用するやり方もありそうだ。
たとえば、SEO担当者は横串でぜんぶ見ているが、セクションごとに事業側のWeb担当者が違うこともあるだろう。
となると、セクションごとの登録にしておけば、あなたが各セクションの担当者にレポートしたり説明したりするときに、わざわざセクションごとにデータを抽出しなくてもいい。また、事業側の各担当者にSearch Consoleへのアクセス権を与える場合も、担当セクションのデータにだけアクセスできるようにしておける。
「Search Consoleにはサイト単位で登録」と決めてかかるのではなく、日々の業務や社内外の関係者とのやりとりを前提に、登録の粒度を見直してみるのもありだろう。
- 大規模サイトのすべてのWeb担当者 必見!
- SEOがんばってる人用(ふつうの人は気にしなくていい)
グーグル検索SEO情報
グーグル検索で新しいサイトが上位表示できないのはなぜ?
グーグルがまだ知らないサイトだから (Google Webmaster Central office-hours) 海外情報
新たに公開したページのグーグル検索における評価について、グーグルのジョン・ミューラー氏が解説した。
ただし、「新たに公開したページ」と言っても、次の二種類でだいぶ状況が違うようだ。
- 既存のサイトに追加されたページ
- まったく新規に公開したばかりのサイトに追加されたページ
すでにたくさんのコンテンツを公開しているサイトの場合は、そのサイトの状況をグーグルは把握している。そのため、新たに追加されたページでも比較的スピーディに評価できる。
しかしサイト自体が新しい場合は、そのサイトに関する情報をグーグルは何も持っていない。コンテンツの評価が最終的に定まるまでには、より長い時間がかかることがある。
そうはいっても、長い目で見れば差はない。
基本的に、グーグルのアルゴリズムはページ単位で評価する。しかしサイト単位で評価しないわけではない。ミューラー氏が説明したように、今までウェブになかったような新しい情報のコンテンツの場合は、どのサイトが発行したかが考慮されることがある(「ドメインオーソリティ」や「ドメインパワー」と呼ばれるSEO用語は、こうした現象に起因するのかもしれない)。
たとえ話で言えば、次のようなことだ。
同じ料理であっても、名の知れた一流シェフが有名店で出している場合と、見習いを卒業したばかりのシェフが開店初日の店で出している場合があったとする。それぞれのおいしさを問われれば、前者はすぐに判断しやすいが、後者はじっくりと調べてからでないと結論を出しにくいだろう。
グーグルも、実績を考慮して評価することがあるのだ。しかしながら、実績がないからといって、本当に価値が低いとは限らない。最初は無名であっても人々を魅了するメニューを出す料理人やレストランは存在する。ウェブサイトも時間をかけて相応の評価に落ち着く。
本当に価値がありユーザーに支持されるのであれば、新しいサイトのコンテンツであっても最終的には上位表示できるだろう。
- SEOがんばってる人用(ふつうの人は気にしなくていい)
キーワードを詰め込んでいるのに上位表示しているのはなぜ?
無視しているが、価値ある情報が残っているかもしれないから (John Mueller on Twitter) 海外情報
キーワードを乱用(詰め込み)している――いわゆる「キーワード・スタッフィング」の古典的なSEOスパムをしている――のにグーグルで上位表示している、そんなサイトが今でもある状況について、グーグルのジョン・ミューラー氏が次のように説明した。
つまらないキーワードの乱用に関しては、グーグルは無視するようになっている(これは90年代に流行ったもので、その対策について検索エンジンは十分に経験を積んでいる)。そうだとしても、詰め込んだキーワード以外の部分に価値を見いだすこともある。
そのページがどうかはわからないが、私が思うには、キーワードの乱用でインデックスから削除されることはないだろう。
Yeah, but if we can ignore boring keyword stuffing (this was popular in the 90's; search engines have a lot of practice here), there's sometimes still enough value to be found elsewhere. I don't know the page, but IMO keyword stuffing shouldn't result in removal from the index.
— John ☆.o(≧▽≦)o.☆ (@JohnMu) 2018年6月20日
たとえ、上位表示しているサイトがページ内で特定のキーワードを執拗に繰り返して記載していたとしても、それが理由で上位表示しているわけではない。単純なスパム行為であり、グーグルはそうした記述内容を評価しない(無視する)。しかしながら、キーワードの乱用以外の部分でしっかりと価値がある情報を検索ユーザーに提供しているとしたら、それが理由で上位表示する可能性は残されている。
また程度にもよるだろうが、キーワードを詰め込んでもインデックス削除のように極端な措置は受けないようだ(度を越せば手動対策の対象になりそうだが)。
いずれにしても競合がやっていたからといって、キーワードの乱用のような古典的なスパム手法に手を染めたりしてはいけない。
- SEOがんばってる人用(ふつうの人は気にしなくていい)
フォーカスすべきはスパムサイトの分析ではなく自分自身のサイトの改善
そのほうが行動に起こしやすい (John Mueller on Twitter) 海外情報
スパム行為が見られるにもかかわらず上位表示しているサイトがあることの理由を尋ねたサイト管理者に、グーグルのジョン・ミューラー氏は次のように諭した。
「自分のサイトよりも良いサイトじゃないのにどうしてこのサイトは自分よりも上に掲載されるのだろう?」――そうしたことに意識を向けるよりも、自分自身のサイトに意識を向けたほうが、普通は行動を起こしやすい。
200以上のランキング要因を私たちは使っている。これの良いところは、その要因のすべてを完璧にする必要はないということだ。
上位表示しているサイトを分析して、自分のサイトに欠けているものを発見するのはサイト改善に役立つ。ぜひやるべきだろう。
だが上位表示サイトにスパム(っぽい)行為が見られたとして、どうすればグーグルにバレずにできるのか調査することには、生産性がない。それよりも、そのスパム行為をやっているサイトに負けない優れたサイトにするにはどうすべきかに注力したほうが、長い目で見れば良い結果を伴うはずだ。
さらに言えば、本当に見るべきは競合ではなく、顧客であり潜在顧客だ。どんな人がどんなコンテキストでどんなニーズや課題をもっていて、どういうメディア接触行動をしているのか、それを知ることが最も役に立つはずだ。
It's usually more actionable to focus on your own sites, rather than to focus on "why is someone else's site ranking above mine when I don't think it's as good as mine" ... We use over 200 factors for ranking, the nice part is that you don't have to get them all perfect.
— John ☆.o(≧▽≦)o.☆ (@JohnMu) 2018年6月20日
- すべてのWeb担当者 必見!
4種類のプロパティをSearch Consoleで自動的に統合する機能をグーグルが検討中か
登録の手間が省ける (Google Webmaster Central office-hours) 海外情報
Search Consoleでのサイト管理が、少し楽になるかもしれない。というのも、グーグルが自動的に必要な処理をしてくれるようになる予定なのだ。
同じ1つのサイトであっても、次の4つのURLのプロパティをSearch Consoleに登録することをグーグルは推奨している。
https://www.example.com
(HTTPS、wwwあり)https://example.com
(HTTPS、wwwなし)http://www.example.com
(HTTP、wwwあり)http://example.com
(HTTP、wwwなし)
リダイレクト設定し正規化していたとしても、確実に正規化できているかの確認やトラブル発生時の調査のために、4つのパターンすべてで登録しておいたほうがいい。
だが1回限りの作業とはいえ、4つとも登録するのは面倒といえば面倒だ。新規にサイトを公開するたびに繰り返す必要が出てくる。
グーグルは、これら4つのプロパティのデータを自動的に統合する仕組みをSearch Consoleで公式に提供することを検討しているようなのだ。
今でもプロパティセットを作成すれば、4つのプロパティのデータを統合できる。しかしながら、プロパティセットは自分で作らなければならない。またすべてのレポートが合算されるわけではない。
最初からセットで認識されれば、きっと便利だろう。
- SEOがんばってる人用(ふつうの人は気にしなくていい)
ソーシャルもやってます!