グーグル データスタジオで検索アナリティクスのデータを接続可能に
- 今週のピックアップ
- 日本語で読めるSEO/SEM情報
- 海外SEO情報ブログの掲載記事から
- 海外のSEO/SEM情報を日本語で
- SEO Japanからのピックアップはなし
海外のSEO/SEM情報を日本語でピックアップ
グーグル データスタジオで検索アナリティクスのデータを接続可能に
理解しづらい数字をわかりやすく可視化 (Analytics Blog)
Search Consoleの検索アナリティクスのデータを、Google Data Studio(グーグル データスタジオ)で利用できるようになった。
Google Data Studioは、一言でいうと「さまざまなデータを取り込んで、わかりやすくレポートとして見せる」ツールだ。
アドワーズ広告やGoogleアナリティクスなどグーグルのプロダクトだけでなく、MySQLやBigQueryなどサードパーティ製のプロダクトのデータを取り込める。Google Analytics 360 Suiteに含まれるツールだが、小中規模企業向けの無料版もある。
複数ソースのデータを統合できないためBIツールとしては使えないデータスタジオだが、検索アナリティクスのデータを扱えるようになったのは魅力的だ。
たとえば経営陣の報告のために検索アナリティクスのデータを自分でExcelに取り込んで加工していたのなら、データスタジオを使ってみるといいかもしれない。それだけでは理解しづらい数字をわかりやすく可視化してくれるので、同じデータでも理解を容易にしてくれる。
以前はデータスタジオ無料版ではレポートを5つまでしか作成できなかったのだが、この制限は撤廃されたようなので、試してみてはいかがだろうか。
- Search Consoleのレポートを作成しているWeb担当者
- アクセス解析担当者にも教えてあげよう
グーグルには重複コンテンツペナルティは存在しない
でもクロールバジェットと評価には良くない (Gary Illyes on Twitter)
グーグルのゲイリー・イリェーシュ氏がSEO豆知識をツイートした。
知っているかい? 重複コンテンツのペナルティというものは、グーグルにはない。でも同じコンテンツを配信するURLがたくさんあると、クロールバジェットを無駄にするし、評価を分散させてしまうかもしれない。
DYK Google doesn't have a duplicate content penalty, but having many URLs serving the same content burns crawl budget and may dilute signals pic.twitter.com/3sW4PU8hTi
— Gary Illyes ᕕ( ᐛ )ᕗ (@methode) 2017年2月13日
悪意が持って検索エンジンやユーザーを騙そうとしているのでなければ、重複コンテンツがあるからといって順位が下がってしまったり手動対策を受けたりということはないようだ。
また少しくらいの重複コンテンツはウェブサイトにはつきものなので、過度に心配することもない。グーグルが適切に処理してくれる。問題になるのは、何千ページも何万ページも重複コンテンツのURLが発生する場合だけだ。
とはいえ、重複コンテンツができないようにすることは常に心がけておきたい。悪いことが起きないとしても、良いことでは決してない。重複コンテンツのヘルプ記事を参照しておくことをおすすめする。
- すべてのWeb担当者 必見!
PageRankは今でも重要なグーグルのランキング要因
とはいえ、どんなリンクでも評価されるわけではない (Gary Illyes on Twitter)
イリェーシュ氏のSEO豆知識ツィートを続けて紹介する。
知っているかい? 18年たった今でも僕たちは、PageRank(とそのほかの数百のシグナル)をランキングに使っている。
PageRankがどのように機能しているか知りたければこちらを http://infolab.stanford.edu/~backrub/google.html
DYK that after 18 years we're still using PageRank (and 100s of other signals) in ranking?
— Gary Illyes ᕕ( ᐛ )ᕗ (@methode) 2017年2月9日
Wanna know how it works?https://t.co/CfOlxGauGF pic.twitter.com/3YJeNbXLml
グーグルツールバーのPageRank(TBPR)が完全に廃止されてから間もなく1年が経過するが、グーグルは内部ではPageRankを使い続けている。PageRankの素となるリンクが今でも重要なランキング要因であることに異論はないだろう。
ただし以前のように、「なんでもいいからリンクを集めさえすれば上位表示できる」時代はとっくに終わっていることも事実だ。
- SEOがんばってる人用(ふつうの人は気にしなくていい)
検索結果の件数は信頼性に乏しい単なる概算値
site:の結果も同じこと (Gary Illyes on Twitter)
イリェーシュ氏がシェアしたSEO豆知識をもう1つ紹介したい。
知っているかい? 検索結果で見ている「検索結果の件数」は、まったくの概算だ。正確ではない。実際にはもっと多くの結果が存在する可能性がある。
DYK the "number of results" you see in search results is really just an approximation that's less accurate the more potential results exist? pic.twitter.com/o2odhwjsIA
— Gary Illyes ᕕ( ᐛ )ᕗ (@methode) 2017年2月11日
検索結果の「◯◯件」はおおまかな数値だ。これよりも大幅に多いことも少ないこともよくある。
理由を以前にこのコラムで解説したことがある。再掲載しておこう。
数値は推定値である
もう少し詳しく調べようとして次のページに行ったときはより正確な数値を返そうとするため異なる数字になることがある
検索結果の件数は概算で、おおよその数字を素早く表示している
検索結果数をおおよその件数に留めることでより迅速に検索結果ページを表示できる
検索結果の次のページに行ったり、特定のフレーズを検索したり、期間指定するなど条件を厳しくして検索結果を絞ったりしていくと、検索エンジンがさらに正確な件数を出そうとより深くデータを読み込んでいき、その結果として検索結果数が増える・減るなどする場合がある
件数の目安は検索を利用する場所などによっても異なる場合がある
自分の管理サイトのインデックス数を調べようとして、site:構文を使ったときの数字も同様に概算値であることを認識しておこう。
- すべてのWeb担当者 必見!
スパムリンクは無視? それともグーグルに任せる?
眠れないほどに心配なら否認 (John Mueller on Twitter)
グーグルのジョン・ミューラー氏にツイッターでフォロワーが相談した。
キーワードを詰め込んだスパムリンクが私のサイトに対して張られました。この2日間で100本ほどです。
否認すべきですか? それともペンギン4.0は無視してくれますか?
ミューラー氏は次のようにアドバイスした。
おそらく無視しているだろう。
だが「おそらく」という言葉だと安心して眠れないのなら、否認しておけばいい。
@Ronneh_ We'll probably ignore them. But if "probably" doesn't help you sleep & you have them already, just disavow them and move on :).
— John ☆.o(≧▽≦)o.☆ (@JohnMu) 2017年2月10日
あからさまに怪しいリンクはきっとグーグルが無視してくれているだろう。だが、グーグルを100%信じることに抵抗があるなら、そのときは否認ツールを使えばいい。
ただ否認リストの作成にかかる手間ひまを、サイト改善に確実に役立つ別のことに使いたいというのが筆者の個人的な考えだ。
- SEOがんばってる人用(ふつうの人は気にしなくていい)
robots.txtのnoindexをグーグルが公式サポートしない理由
間違って使われそうだから (English Google Webmaster Central office-hours hangout)
robots.txtは検索エンジンのクロールを拒否する目的で使う。ディレクティブ(命令文)には「disallow
」を用いるが、グーグルにおいては「noindex
」が機能することを知っている人もいるだろう。
robots.txtの「noindex
」ディレクティブは、robots metaタグのnoindex
指定と同じ役割を果たす。すなわち、検索結果に出ないようにするものだ(disallow
はクロールを拒否するもので検索結果の表示を拒否するものではない)。
だがグーグルは公式には、noindex
ディレクティブをサポートしていない。数年前まではヘルプ記事にも記載されていたのだが、現在はなくなっている。
robots.txt での noindex
の使用に関して、グーグルのゲイリー・イリェーシュ氏は次のように注意喚起した。
robots.txtでのnoindexは機能する場合もある。しかし、サポートされていないし、いつなんどき機能しなくなるかもしれないということを認識しておくように。
@ohgm just keep in mind that while noindex in the robots.txt might work, it's never been supported and might stop working at any time
— Gary Illyes ᕕ( ᐛ )ᕗ (@methode) 2017年2月10日
実際には機能しているのに、公式にサポートしないのはどうしてなのだろうか? ジョン・ミューラー氏が理由の1つを説明した。
robots.txtのnoindexは、間違って使われる可能性がある。
noindexが書かれているrobots.txtを、その働きを理解せずにサイト管理者がコピーしてそのまま使うことがあると私たちは想定している。知らずにそのまま設定したら、「突然サイトが検索から消えてしまった!」と慌てふためくだろう。
robots.txt の基本的な設定方法を理解できていないウェブ担当者も少なからずいるだろう。となれば、情報が少ない noindex
がどんな役割を持っているのかを知らないウェブ担当者の数は、さらにはるかに多いに違いない。ミューラー氏の懸念はもっともなことに聞こえる。
いずれにしても、robots.txt で noindex
を指定するのは避けたほうが無難だ。検索結果での非表示には、robots metaタグでnoindex
を指定するか、X-Robots-Tag
HTTPヘッダーで noindex
を指定するようにしよう。
- SEOがんばってる人用(ふつうの人は気にしなくていい)
- ホントにSEOを極めたい人だけ
- 技術がわかる人に伝えましょう
SEO Japanの
掲載記事からピックアップ
更新停止中。
ソーシャルもやってます!