rel="canonical"とrobots.txtの併用で重複コンテンツを解消!?
テクニカルSEO&お役立ち最新情報
rel="canonical"
とrobots.txtの併用で重複コンテンツを解消!?
それ意味ないですから! (John Mueller on Twitter) 海外情報
重複コンテンツの状態を解消したいサイト管理者が、グーグルのジョン・ミューラー氏にツイッターで質問した。
どうやら、URLに付いているパラメータが原因で重複コンテンツが発生してしまっているようだ。
rel="canonical"
をページに入れていますが、パラメータが付いたURLをrobots.txtでブロックするほうがいいですか?rel="canonical"
が認識されるまでに時間がかかっているようです。
ミューラー氏は次のように答えた。
ダメダメ。robots.txtでブロックしてしまったら、重複コンテンツであることがわからなくなる。
同一コンテンツであっても、コンテンツと
rel="canonical"
を検索エンジンには見せるほうがいい。そもそも、重複コンテンツは放っておいても問題にはならないけどね :)
No, blocking via robots.txt makes it so that we can't tell they're duplicates. It's better to let search engines see the copy & the rel=canonical link element. Also, duplicate content isn't really a problem in that regard :)
— John ☆.o(≧▽≦)o.☆ (@JohnMu) 2018年3月12日
このサイト管理者が検討していることは2つの点で不適切だ。
robots.txtでブロックしてしまったら、そのページの中身を検索エンジンは見ることができない。したがって
rel="canonical"
の存在を認識することができず、rel="canonical"
の実装は意味をなさなくなる。robots.txtによるブロックを重複コンテンツの解消に使うべきではない。重複であることをグーグルに認識させたうえで正しく処理してもらうべきだ。
noindex
やrel="canonical"
といったグーグルへの指示を、robots.txtによるブロックと併用しようとする人は絶えない。
しかし、robots.txtでブロックしてしまったら、ページに何を書いていても意味がなくなってしまうことは、しっかりと理解しておこう。
- ホントにSEOを極めたい人だけ
大規模サイトでの大量の重複コンテンツをrel="canonical"で解消する前にすべきこと
重複コンテンツを作らせない (John Mueller on Twitter) 海外情報
「重複コンテンツ解消を目的としてrobots.txtを使うべきではない」というジョン・ミューラー氏の解説があった。これに対して次のように質問したユーザーがいた。
それぞれのページにかなりたくさんの重複コンテンツがある状況があったとします。その場合に、クロールバジェット節約のためにrobots.txtを使うのは、やり方としてどうなんですか?
ミューラー氏の答えはこうだ。
1,000万ページあって、100件の重複コンテンツがそれぞれのページに発生しているなら、それもありだろう。しかしほとんどのサイトは致命的な問題になるような数の重複コンテンツを抱えていない。
大規模サイトにおいては、
rel="canonical"
で重複コンテンツを応急処置するのではなく、クロールを全体として効率化するように、問題を根本的に解決したほうがいい。
For 100 duplicates for 10M pages, sure. Most sites don't have the numbers to make it a critical problem. For large sites, don't just bandaid w/rel-canonical, fix the source of the problem to simplify crawling overall.
— John ☆.o(≧▽≦)o.☆ (@JohnMu) 2018年3月12日
大規模なサイトでは、重複コンテンツによってURLが莫大に増えてしまうと、クロールされるべきページがクロールされないといった障害が起こることがある。
しかし、そうしたことが起きるのは、本当に本当に大きな規模のサイト、たとえば、アマゾンや楽天、アメーバブログなどだけだと考えていい。一般的な規模のサイトでは、クロールバジェットなんて気にかける必要はない。
本当の大規模サイトで、重複コンテンツによってクロールに問題が発生しているとしたら、そもそも重複コンテンツを発生させないシステムを構築しなければならない。rel="canonical"
などによる正規化はもちろん重要なのだが、それ以前の物理的に大量のページをクロールしてしまうという問題をまず解決しておくべきなのだ。
- SEOがんばってる人用(ふつうの人は気にしなくていい)
DMCAってそもそも何?何ができて何が問題?
正しい理解で正しい使い方を (BUSINESS LAWYERS) 国内情報
コンテンツを無断盗用されたときにグーグル検索からの削除申請に利用できる、「DMCA(デジタルミレニアム著作権法)」に基づいた通知とコンテンツ掲載取り下げについて、株式会社so.la代表の辻正浩氏と弁護士が対談形式で解説している。
日常的なサイト管理においてDMCAは必要となるものではないが、コンテンツを発行する立場にいる限りはDMCAの正しい理解はあったほうがいいだろう。読んでほしい。
- すべてのWeb担当者 必見!
日本でもHTTPS普及率が急上昇中で6割に
HTTPは今や少数派 (Let's Encrypt on Twitter) 海外情報
Firefoxブラウザで読み込むウェブページのHTTPS率が、この1年で30ポイント上昇したそうだ。実に、60%以上のページがHTTPSで読み込まれている(他国を含めた全体平均は約70%、米国は約78%、独は74%)。
グーグル社員の北村氏も喜んでいる。
他国と比較して著しく低かった日本のhttps率は、この1年で大きく改善しました🤣 https://t.co/45Uabl37H5
— Eiji Kitamura / えーじ (@agektmr) 2018年3月9日
保護されていないHTTPのほうが今や少数派になっているようだ。
- すべてのWeb担当者 必見!
ワンクリックでサイトを簡単にワイヤーフレーム化するツール
UX改善に使えそう (takafumi/UI・webデザイナー on ツイッター) 国内情報
サイトのワイヤーフレームをワンクリックで作成するツールを紹介する。ツイッターで知ったものだ。
サイトをワイヤーフレームに変換してくれるWirifyというサービスが便利!複雑に見えるサイトもWFに落とし込んでみるとシンプルだったりする。ジャンルによって共通点が見えてきたりして勉強になる!ブックマークに登録するだけで使えます。https://t.co/uIsMQ6rNlX pic.twitter.com/8JEOfF5ayM
— takafumi/UI・webデザイナー (@morningcoding) 2018年2月24日
使い方は極めて簡単で、こちらのサイトの「Wirify by Volkside」というリンクをブックマークし、ワイヤーフレーム変換したいページでクリックするだけだ。
サイトのデザイン設計やUX改善のために利用できそうだ。デザイナーさんに教えてあげよう。
- デザイナーさんに伝えましょう
海外SEO情報ブログの
掲載記事からピックアップ
新しい強調スニペットとLazy Loadの処理に関する記事を今週はピックアップ。
- 複数の強調スニペットが同時に出現するマルチファセット強調スニペットをGoogleが導入
オーガニック結果がますます下に追いやられる。
- SEOがんばってる人用(ふつうの人は気にしなくていい)
- SEOに適したLazy Loadの推奨をGoogleが近いうちに提案してくれるかも
UXのためのレイジーロードがSEOにマイナスなのは解消してほしい。
- ホントにSEOを極めたい人だけ
- 技術がわかる人に伝えましょう
ソーシャルもやってます!