常時HTTPS化で失敗したくない! 知って得するグーグルSEO情報×3【SEO記事12本まとめ】
いよいよサイトの常時HTTPS化が待ったなしになってきた。すでにグーグルの1ページ目に表示される検索結果の90%がHTTPSだ。そこで、常時HTTPS化で失敗したくないあなたに、HTTPS関連の最新情報を3つ、まとめてお届けする。
ほかにも、SEOに役立つ次のような情報を、今週もまとめてお届けする。
- サーバー停止時の503を長く続けるとインデックス削除?
- SEOにマイナスにならずに、コンテンツをパーソナライズするベストプラクティス
- Search Consoleの検索パフォーマンスのデータ集計に変更あり
- グーグルの検索チームは自分たちのコンテンツのSEOをサボってる?
- 構造化データやスピードアップデート、不自然なリンクなど、オフィスアワー8月版
- 低品質リンクは自動で無効化、逆SEOは起きていない
- グーグル社員によるPWA最新事情
今週のピックアップ
常時HTTPS移行、設定ミスで80%のURLがインデックスから消滅!?
グーグルが親切に教えてくれた (John Mueller on Twitter) 海外情報
常時HTTPSへの移行を進めているWeb担当者も多いかもしれない。しかし、適切に移行しなければ、新しいHTTPSのURLでも、元のHTTPのURLでも、サイトのコンテンツがグーグルで検索にヒットしない状況になる場合があるらしい。
あるサイトでは、常時HTTPSに移行した結果、以前グーグルにインデックスされていたコンテンツの80%がインデックスから消えてしまったということだ。
少し脅すような説明になったが、心配しなくてもいい。
というのもグーグルは、常時HTTPSへ移行したサイトの処理がうまくいっていない場合に、Search Console経由で通知を送ることがあるようなのだ。
通知を受け取ったユーザーがツイッターで共有している。
Ooooh first time seeing this. "Site migration gone wrong" notice. pic.twitter.com/behdjK0myy
— Alan Bleiweiss (@AlanBleiweiss) 2018年8月17日
ツイート内で示されている通知で赤下線の部分は、次のような意味だ。
移行前にインデックスされていたページのうちおよそ80%が、HTTPでもHTTPSでも今は(検索で)見つからなくなっています。
つまりこのサイトでは、全体のうちHTTPSへ移行したことが認識されたURLは20%で、残りの80%はインデックスから消えてしまっていることだ。HTTP側のインデックスからも消滅しているというのは、HTTPSへの移行が正しく認識されていない以上の由々しき事態だ。
この通知メッセージに関して、グーグルのジョン・ミューラー氏は次のようにコメントしている。
HTTPS移行の問題の多くは、移行時の設定が間違っているか、あるいは移行が不完全な状態であることが原因だ。問題を検出したときにはそうしたサイトを助けるようにしている。こういった注意喚起が助けになっていれば幸いだ。
A lot of https migration problems come from bad or incomplete migrations, we're trying to help folks when we spot these issues. Hope this kind of heads up is useful!
— John ☆.o(≧▽≦)o.☆ (@JohnMu) 2018年8月17日
HTTPS移行がうまくいっていないことをグーグルが教えてくれるのは、たしかにありがたい。何が悪くてどこを直せばいいのかを教えてくれたらもっと嬉しいのだが、さすがにそれは高望みしすぎか。
- SEOがんばってる人用(ふつうの人は気にしなくていい)
常時HTTPS移行では“301”+“1対1”のリダイレクトを強く推奨
変更は一度に1種類だけが原則 (Google Webmaster Central office-hours) 海外情報
常時HTTPSへの移行時のリダイレクト設定について、グーグルのジョン・ミューラー氏が次のように発言した。
常時HTTPS化時のリダイレクトは、次のことを強く推奨する。
- 301でリダイレクトする
- HTTPからHTTPSへ1対1の対応でリダイレクトする
1つ目の項目に関してはわかりやすいだろう。要は、一時的なリダイレクトを示す302ではなく、恒久的なリダイレクトを示す301を使うということだ。
現在のグーグルは302リダイレクトもURLが新しいURLへ変更されたものとして最終的に処理する。そうであったとしても、URLの恒久的な転送を示す301リダイレクトのほうが明確なシグナルとしてグーグルに伝わるのだ。
2つ目の項目に関しては、少しわかりづらいかもしれない。要は、「常時HTTPSへの移行の際には、サイト構造などは変えずに、まずHTTPS化だけを行う」べきだということだ。
「常時HTTPSにするついでに」と、一部のコンテンツを削除したりnoindexにしたり、サイト構造を変えたり、robots.txtを修正したりと、したくなるかもしれない。
しかし、HTTPSへの移行に際しては、HTTPSのURLへの切り替え以外の変更を同時に行うのは、避けるべきだ。そうした変更が重なると、グーグルが「純粋なHTTPS移行だ」と認識することを妨げる要因になるそうだ。
「301リダイレクトを使い、1対1のURL転送だけに絞る」ことは、グーグル内部でのHTTPS移行の処理を速やかに完了する手助けになる。
これからあなたがHTTPS移行を始めるなら、まずはHTTPS移行だけに絞って実行したほうがよさそうだ。現在の状態そのままで、http:
のURL を https:
のURLに301リダイレクトするだけに留める。追加の変更は、HTTPS移行がグーグルに順調に処理されたことを確認できてからにするほうが安心だ。
- これからHTTPS移行する、すべてのWeb担当者 必見!
検索結果1ページ目のHTTPS率が90%に到達!
100%に限りなく近づいている!? (Dr. Pete Meyers on Twitter) 海外情報
検索結果1ページ目に表示されるページに占めるHTTPS率が、MozCast(モズキャスト)のレポートで初めて90%に到達した。MozCastはMozが提供するツールで、1000種類のキーワードで(米グーグルにおける)検索結果を常時監視している。
このコラムでは、MozCastが取得した検索結果のHTTPS率を継続して紹介し、その推移を追っている。
「保護されていない通信」のラベルを非HTTPSページにChromeが常時表示するようになったことが、HTTPS率が増えたことに一役買っているのかもしれない。100%になることはないだろうが、その数字に限りなく近づきつつあるように見える。
- まだHTTPS移行していない、すべてのWeb担当者 必見!
グーグル検索SEO情報
サーバー停止時は503を返すこと。でも長い期間はダメ
インデックスから消えるかも (金谷武明&John Mueller on Twitter) 国内&海外情報
メンテナンスなどでサーバーを停止させるとき、あるいは何らかのトラブルでサーバーがダウンしているときは503のHTTPステータスコードを返すようにするといい。
そうすることで、検索結果に悪い影響を与えることがなくなる。Googlebotは、しばらく時間をおいてから再クロールしてくれる。
Google ウェブマスター向け公式ブログ:サイトのダウン タイムへの対処の仕方 https://t.co/XxLT30IQcT @googlewmcさんから
— 金谷 武明 Takeaki Kanaya (@jumpingknee) 2018年8月30日
サイトがダウンしている時に 200 ではなく、503 を返しましょう!#ウェブマスターオフィスアワー
だが、503を使う場合でも、意識しておくべきことがあるようだ。グーグルのジョン・ミューラー氏は、次のように忠告している。
503を利用するのは、あくまでも一時的なサーバー停止の場合だけだ。
503を返すのは、数日以内にとどめたほうがいい。その状態が長く続くと、インデックスから削除されることもありうる。
確かに、503は仕様として「一時的な可負荷や予定されたメンテナンス」の場合に使うもので、「しばらくすると問題なくなる」はずであるとしている。
その状態が長く続いてしまえば、グーグルの判断としてコンテンツをインデックスから削除するのも、疑問ではないだろう。注意しておきたい。
- すべてのWeb担当者 必見!
- 技術がわかる人に伝えましょう
SEOにマイナスにならずに、コンテンツをパーソナライズするベストプラクティス
Googlebotに何を見せるかがポイント (reddit) 海外情報
訪問ユーザーに応じてコンテンツをパーソナライズする動きは進んでいる。しかし、パーソナライズをするにあたってSEO上の影響を気にする人もいるだろう。
というのも、訪問者ごとに異なるコンテンツを表示するということは、Googlebotに対して見せるコンテンツと実際にユーザーが見えるコンテンツが異なることになるからだ。その状況は、SEOの基本からいうと「クローキング」だと判断される可能性がある。
サイトでパーソナライズをするにあたってグーグル検索に対して問題を起こさないようにする方法を、グーグルのジョン・ミューラー氏がSEO掲示板で説明した。
コンテンツのパーソナライズは問題ない。
ただし、次のことは覚えておいてほしい――Googlebotは通常、米国のIPアドレスからアクセスする(ほとんどは、カリフォルニア州のマウンテンビューに照合されるようだ)。したがって、場所に応じて通常のコンテンツをすべて置き換えているなら、グーグルが認識するトップページは、カリフォルニアのユーザー向けのものになってしまうだろう。
そのため、
- 全員に見てほしい一般的なコンテンツ(これは検索で見せたいコンテンツでもある)
- 場所にかかわらず、特典のような意味合いのパーソナライズしたコンテンツ
とのバランスを取ることが大切だ。
通常のコンテンツに加えてこうした種類のパーソナライズしたコンテンツを提供するのは、まったく問題ない。クローキングにもウェブスパムにもならないだろう。
Cookieに基づくパーソナライズも同じようなものだ。
基本的にGooglebotはCookieを保持しない(ときには使うことがあるかもしれないが)。だから、Cookieを使ってコンテンツをそっくり置き換えるのは、良い考えだとは思えない。
Cookieを利用して、通常のコンテンツに加えて別のコンテンツもさらに表示するのであれば、問題にはならない(先に説明した場所によるパーソナライズの場合と同様だ)。
(同じCookieを使う場合でも)サイトにログインする仕組みがある場合は、ログイン後のコンテンツはまた違ってくる。あなたのサイトに訪問してログインしているユーザーには何を見せてもかまわない。
たとえば、小規模なウェブメールのサービスを運営しているとする。となれば、ログインしているユーザーには、そのユーザーに届いているメールが表示されているはずだ(非ログインユーザーにはマーケティング用のページを表示していたとしても)。
補足を加えながら、大切なポイントをまとめよう。
どんな方法を使うにせよ、主要なコンテンツを丸ごと変えてしまうようなパーソナライズは避けるべき。
ただしログインしているユーザー向けならば、主要なコンテンツごと変えても問題ない。Googlebotはログインしないので、ログイン後のコンテンツをクロール、インデックスできないから検索には関係ない。
ユーザーの場所に応じてパーソナライズするとしたら、Googlebotは米国のカリフォルニア州からアクセスしたユーザーと同じコンテンツを見ることになる。
この場合、Googlebotが見るコンテンツは、カリフォルニアのユーザーが見るコンテンツと同一なので、クローキングには当たらない。
Cookieに保存した情報をもとにパーソナライズするときは、Googlebotは通常はCookieを保存しないので、初回訪問ユーザーと同じコンテンツを見る。この場合も、ユーザーと同じコンテンツをGooglebotに見せているのでクローキングには当たらない。
コンテンツをパーソナライズする際の参考にしてほしい。
- ホントにSEOを極めたい人だけ
ソーシャルもやってます!