ペナルティが解除されてもグーグルの信頼を回復したとは限らない
海外のSEO/SEM情報を日本語でピックアップ
ペナルティが解除されてもグーグルの信頼を回復したとは限らない
過去の悪行は信用の回復を妨げる (Google Webmaster Help Forum)
不自然なリンクが原因で手動による対策を受けたサイト管理者に対して、グーグルのジョン・ミューラー氏が公式ヘルプフォーラム興味深いコメントを残した。
あなたのサイトの過去を見ると、相当以前からかなりの数の(悪い)ことをやってきたように見える。そういったことに、私たちのアルゴリズムは気が付いていたようだ。
手動対策の解除から始めるのはいいことだ。しかし、ペナルティが解除されたとしても、私たちのアルゴリズムがあなたのサイトを元のように信頼するようになるまでには、かなり長い時間がかかることがあり得ると覚えておいた方がいい。
長期に渡って過去にウェブスパムを繰り返していると、ある時点で健全な状態になっていたとしても、グーグルはそのサイトをすぐに信用するとは限らないということだ。
我々の実社会と似ていなくもない。過去に悪い行いを頻繁にしていた人がいたとして、その人が急に心を入れ替えてまっとうになったように見えたとしても、しばらくの間は、簡単には信頼してもらえないだろう。
この2つを実践すればリンクは自然と集まる
これがオーガニックリンク (Kaspar Szymanski on Google+)
あるSEOのトレーニングに参加していた、元グーグル・サーチクオリティチームの社員であるカスパー・シマンスキー氏が、参加者から出た質問とそれに対する講師の答えをGoogle+で共有した。
Q: できたばかりのサイトで、1つ1つ段階を経てリンクを獲得するのに良い方法として何を推奨するか?
A: 何も推奨しない。新しいサイトを作り上げたばかりなら、優先的にやるべき重要事項は2つだ。
- 質の高いコンテンツを作り、それを続ける
- あなた(のサイト)に関連する特定分野のなかにあるコミュニティで交流しあう
この2つを正しくやれば、リンク獲得なんていうことに無駄な時間を費やす必要はなくなる。
高品質なコンテンツを継続して作り続け、ユーザーとの関係性を築いていけば、「リンク構築」のための行動に無理に取り組まなくても、ユーザーは繰り返し訪問してくれ、リンクも自然に増え、結果的に検索エンジンの評価も上がるだろう。
アマゾンをSEOのキーワードリサーチに使う風変わりな方法
「なか見!検索」で目次を覗く (SearchDecoder)
こちらの記事では、キーワード調査に利用できる10個のツールを紹介している。そのなかに一風変わったものがあるので取り上げる。
アマゾンの「なか見!検索」を使うのだ。「なか見!検索」が適用されている本は、その本の中身の一部を見ることができる。この機能を使い、目次からキーワードのヒントを得るのだ。
キーワードだけでなくコンテンツのトピックのヒントにもなりそうだ。ただし「丸パクリ」をするのは、もちろん問題がある。あくまでも、キーワードやトピックのアイデアを膨らませるためのヒントの1つとして利用したい。
うっかりミスでインデックスから消えたサイトは元に戻れるのか
戻るけど時間がかかることもあり (Google Webmaster Help Forum)
先週の注目ピックアップで、サイト管理者の不注意が原因でインデックスから消滅してしまう6つのパターンを取り上げた。
そのなかの1つ「レンタルサーバー会社がGooglebotのアクセスを制限していた」ことが原因で検索結果から消えてしまった事例が、英語版の公式ヘルプフォーラムに現れた。
GooglebotのIPアドレスをホスティング会社が2か月近くブロックしていたらしい。サイトのクロールに支障をきたし、最終的にはインデックスから消えてしまった。
グーグル社員のジョン・ミューラー氏の指摘により事実が判明した。またミューラー氏は、関連して以下の有用なコメントも残している。
私たちの見解では、いったんURLを再クロール、再処理できるようになれば、消えていたサイトは再び検索結果に現れるだろう。
Googlebotがアクセスできないといったトラブルが原因の被害は、一般的には長く続くものではない。とはいえ“普通”の状態に戻るまでにはしばらく時間がかかることも、あり得る。
注意点を1つ示しておこう。アルゴリズムは絶えず変わるので、今の“普通”の状態が以前の“普通”の状態と同じだとは限らない。
サーバーの構成ミスやダウンでGooglebotがアクセスできない状態が続くと、順位が下がったり検索結果から消えたりすることがある。しかし正常な状態に復帰すれば通常は元に戻る。ただし元に戻る時間はまちまちのようだ。
たとえば、WebmasterWorldフォーラムのこちらのスレッドではサーバーの停止で順位が下がったサイト管理者が情報を求めて投稿した。
1人のメンバーは、「過去に同じ体験をしたときは2週間ほどで戻った」とアドバイスした。そして、やりとりが続いているうちに、投稿者のサイトは無事に元の順に戻ってきた。3日かかった。
回復までに必要な期間は、Googlebotがアクセスできなかった期間や元々のクロール頻度にも依存するかもしれない。いずれにしても、Googlebotがアクセスできないことでクロールやインデックス、ランキングに悪影響が出た場合は、正常に戻るまでに数日から数週間かかると見ていいだろう。
リンクの否認ファイルに記載できるリンクの上限数はいくつ?
数ではなくファイルサイズの上限がある (WebmasterWorld)
リンクの否認ツールからアップロードするファイルに記載できるリンクの数に上限はあるのか?
こうした趣旨の質問がWebmasterWorldフォーラムに投稿された。
SEO業者から「50以上のリンクを一度に否認しようとするとグーグルに問題視される」と言われたのだそうだ。
かなり怪しい業者だ。そんな事実は聞いたことがない。
問題視されるかどうかはともかくとして、リンク数に上限はないはずだ。ただしファイルサイズには上限がある。2MBまでだ。したがって、実質的には記述できるリンク数にも上限が出てくるだろう。
もちろん、否認したいリンクをサイズ上限いっぱいの数までファイルに記述したとしても、すべてが否認処理される保証はない。
SEO Japanの
掲載記事からピックアップ
セマンティックへの取り組みの重要性を説いた記事と、プレスリリースからのリンクに対するグーグルのポリシー明確化をきっかけにしてSEOのリスク管理を考察した記事を今週はピックアップ。
- 2014年はセマンティックマークアップの年になる
構造化データのマークアップは2014年には必須のSEO - プレスリリースのリンクよりも遥かに大きな問題
プレスリリースリンク禁止にとどまらないSEOのリスクを知る
ソーシャルもやってます!