これであなたもウェブスパム博士、グーグルがスパムを解説する動画を公開
海外のSEO/SEM情報を日本語でピックアップ
これであなたもウェブスパム博士、グーグルがスパムを解説する動画を公開
日本語字幕付きなのが嬉しい (Google Webmasters on YouTube)
グーグルは、手動対策ビューアのリリースと同時に、手動対策の対象になるウェブスパムを説明する動画を公開した。おなじみのマット・カッツ氏と他のウェブマスタースパムチームのグーグル社員が登場している。
筆者が最も評価したいのは、すべて日本語訳の字幕が付いている点だ。機械翻訳ではなくきちんと人間の手が入っているので、不自然な日本語もない。
グーグルが何をウェブスパム行為とみなすのか、もしスパム行為を犯してしまい手動による対策を受けてしまったらどのように対処しなければならないのかを、これらの動画で学習しておこう(もちろん、日本語字幕をオンにして)。
- クローキング/不正なリダイレクト
- 隠しテキスト/キーワードの乱用
- 悪質なスパム
- 価値のない質の低いコンテンツ
- サイトからの不自然なリンク
- サイトへの不自然なリンク
- サイトへの不自然なリンク - リンクへ影響する対策を実施
- ユーザー生成スパム
再審査リクエストを送りたくても送れなくなった
手動の対策を受けているときだけ (Search Engine Roundtable)
日本語記事でピックアップした手動対策ビューアの導入に伴い、再審査リクエストの送り方に変更が生じた。
手動による対策を受けている状態のときだけ、再審査リクエストを送信できるようになったのだ。
再審査リクエストページにアクセスすると、手動対策ビューアを確認するように促される。
手動の対策を受けていないときは、その旨が表示されるだけで何もできない。
一方、手動の対策を受けているときは、「再審査をリクエスト」の赤いボタンが表示され、再審査リクエストを送信できるようになる。
今までは、手動対策を受けていようがいまいが、いつでも再審査リクエストを自由に送れた。手動の対策を受けていないのに再審査リクエストを送り、「手動の対策は与えていません」という返信が返ってきた事例は数多くある
少し順位が下がっただけで再審査リクエストを送るサイト運営者もいたようで、グーグルも困惑していたかもしれない。今後は無用なリクエストが減るに違いない。
ウェブマスターツールに出てこないリンクが問題視されるのはなぜ?
グーグルが求めているのは実質的な努力 (Search Engine Land)
不自然なリンクに対する警告を受け取ったら、問題となるリンクを見つけ出して削除しなければならない。その「問題となるリンク」を発見する手がかりになるのは、ウェブマスターツールで入手するリンクレポートだ。複数のグーグル社員がウェブマスターツールを頼るように指示している。
ところが、再審査リクエストの不合格通知を受け取ったときに、「まだ残っている」として例示されるリンクがウェブマスターツールに出ていないことがある。ウェブマスターツールではすべての被リンクを表示するわけではないからだ。
「ウェブマスターツールを見ろ」と言っているくせに、ウェブマスターツールでは見えないリンクが問題視されることに関して、米グーグルのウェブスパムチームのトップ、マット・カッツ氏は次のようにコメントした。
我々は、ウェブマスターツールで表示されるリンクのリストで(問題のあるリンクの)サンプルを提示しようとしているし、それらの(ウェブマスターツールで表示される)リンクに基づいて再審査リクエストを判断したいと思っている。
しかしながら、問題のあるリンクの典型的な例が(ウェブマスターツールでは表示されていないなかに)あるならば、そういったリンクを(ウェブマスターに)知らせることもある。
というのも、そうすることで、ウェブマスターがさらに多くの問題を見つけて修正でき、より正しい方向に向かうのに役立つと考えるからだ。
答えになっているような、なっていないような、しっくりこない回答だ。
マット・カッツ氏からこのコメントを得たバリー・シュワルツ氏は次のように締めくくっている。
通常、グーグルは悪いリンクをすべて削除することは求めていない。悪いリンクのほとんどを取り除いたという実質的な努力を見たいのだ。
ウェブマスターツールのレポートに出てくるリンクを手がかりにすることは確かなことだとしても、ツールに出てこない不自然なリンクがまだ残っているため、努力が足りないと判断されるのだろう。
元はといえば、自分の意思で張った不正なリンクだ。どこにどんなリンクを張ったかを知っておくべきだったのだ。自分も把握していないリンクを、手当たり次第に増やしてきた責任はその人自身にある。グーグルを責めるのは筋違いなのかもしれない。
低品質ページは301か404か
404は最後の手段 (High Rankings Advisor)
サイト内にある質の低いページをどう扱うべきか、High RankingsのCEOであるジル・ウェイレン氏が、次のようにアドバイスしている。
アクセス解析ツールを見て、価値のあるトラフィックが検索エンジンからそのページにないことを調べ、本当に質が低いのかどうかを確認する。
多少なりとも検索からのトラフィックがあり、訪問ユーザーの役に立っている可能性が少しでもあるとしたら、そのページを何らかの形でサイトに組み込む方法を考える。いくばくかのアクセスであっても失うのはもったいない。
確実に質が低いと断定できたのならば、そのページは削除する。
削除したURLに対するアクセスは、404エラーにするよりは、元のコンテンツに最も関連するページに301リダイレクトするほうがいい。特にそのページにリンクが張られていたとしたら、なおさらだ。ウェブマスターツールにクロールエラーのレポートが発生することも防げる。
推奨してはいないが、最後の手段としては404を選択することにもなるだろう。もしくは残しておくなら、noindex robots metaタグを追加しておくかだ。
「robots.txtの構成ミスでインデックス削除」の体験談
問題解決後はインデックスに復活 (WebmasterWorld)
robots.txtの構成ミスにより、サイトのコンテンツが検索エンジンから消えた事例と、その状態から回復するまでの体験談を、WebmasterWorldフォーラムのモデレータが語っている。
robots.txtが500エラーを返す状態になっていて、2週間以内にサイトが検索結果から消えてしまった。
robots.txtを修正したら、4日以内に元に戻った(最初に回復したのはトップページで、トップページにもっとも多くトラフィックが発生した)。
また、公開前のサイトで使っていた「Disallow: /」を記述したrobots.txtを(誤って)アップロードしてしまったこともあった。
5日後に検索順位が大きく下がった。問題に気付いたのはその日だった。正しいrobots.txtに差し替え、2週間半後に完全にトラフィックが回復した。
この状況に関して、次のように分析し、ファイルを元に戻す以外の対処法を説明している。
元に戻るまでに長い時間がかかった理由は、多くのトラフィックが内部のページに来るためだった。トップページのランキングは、正しいrobots.txtをアップロードして2日後に元に戻ったが、内部のページが元に戻るまでには2週間半かかった。
どちらのケースも、修正後直ちにウェブマスターツールのFetch as Googleで正常であることを検証した。それからルートページに対して再度Fetch as Googleを実行し、「URL とすべてのリンク ページ」を選択してURLをインデックスに送信した。
トップページやトップページからすぐにリンクされている少数のディレクトリやページに検索からのトラフィックがやって来るのであれば、回復スピードは速い。対して、かなりの割合の検索トラフィックが深いリンク階層の内部ページにやってくるのであれば、回復スピードは遅くなる。
あってはならないことだが、robots.txtで予期せぬ事態が発生したときの参考になるだろう。
SEO Japanの
掲載記事からピックアップ
サイトの高速化とリンク構築の記事を今週はピックアップ。
- 上級者向けSEOガイド2/9 : サイトスピードとパフォーマンス改善
難易度は高いが非常に実践的 - リンク構築で「コンテンツ・イズ・キング」は絶対か?
重要なのはコンテンツではなく価値
ソーシャルもやってます!