内部リンクが多いほど検索トラフィックが多い!? 1800サイト調査から判明した検索トラフィックと内部リンクの相関関係【SEO情報まとめ】
SEOで2022年でも重要な「リンク」。なかでも検索エンジン評価に影響を与えると考えられるものの外部リンクほど語られることが多くない「内部リンク」について、検索トラフィックとの関係を調査したデータから、改めて内部リンク戦略を考えてみよう。
ほかにも、今回は(今回も?)読んで損がないネタが盛りだくさんだ。
「コアアップデートと検索意図解釈」「マジかrobots.txtとGooglebotの変な挙動」「E-A-T重視なら筆者の構造化マークアップ」「ECサイトのスピードアップ施策6種」などは特に注目だが、他の記事も今回はすべて見逃せない!
- 5月のコア アップデートで順位が入れ替わったのは検索意図解釈の変化が原因か?
- マジですか! Googlebotがサポートしないrobots.txt指示のせいでグーグル検索から消滅!?
- 「毎日更新」をページタイトルに入れたら検索トラフィックが11%増??
- E-A-T重視なら必見! 記事筆者を構造化データでマークアップするベストプラクティス
- CDNはSEOに有利なのか?
- サイトマップを検索エンジンに見せてユーザーに見せないとクローキングになる?
- 確実に実践したい! ECサイトのスピードアップ施策×6
- ハッキングで生成された不正なページを削除したら404? 301?
- コンテンツマーケを本気でやるなら独自ドメイン名とデータの確保は必須
- 外部サイトへの発リンクはSEOにプラスかマイナスか?
- noindexとrel=canonicalの両方が設定されたページをGoogleはどのように処理するのか?
今週のピックアップ
内部リンクが多いほど検索トラフィックが多い!? 1800サイト調査から判明した検索トラフィックと内部リンクの相関関係
多様なアンカーテキスト、完全一致のアンカーテキストは上位表示に有利 (Zyppy) 海外情報
内部リンクと検索トラフィックの相関関係を、Zyppy(ジッピー)のサイラス・シェパード氏が調査した。
1,800サイトを対象に2,300万本の内部リンクを調査したもので、導き出した5つの分析結果をシェパード氏は次のようにまとめている:
内部リンクを多く集めているページほど検索トラフィックが多い
内部リンクが0本〜4本しか張られていないページと比較すると、40本〜44本の内部リンクが張られているページはトラフィックが4倍も多かった。
ところが、45本〜50本を過ぎると逆に減っていく。これは、サイドバーやナビゲーションやフッターのように、サイトの全ページに設置されている内部リンクによるものではないかと推測される。
アンカーテキストは多様なほど検索トラフィックが多い
同じURLへの内部リンクであっても、さまざまなアンカーテキストでリンクされているページのほうが好成績だった。たとえば、同じページでも次のように多様なアンカーテキストのバリエーションがある場合だ:
URLをアンカーテキストにしたリンクは検索トラフィックにマイナス影響を与えていない
グーグルのSEOスターターガイドでは、ページのURLをアンカーテキストとして使用することを基本的に推奨していない。しかしこれは、ランキングには影響していないようだ。
アンカーテキストにURLを使うべきではないというのは、検索評価ではなくユーザー体験の観点からのアドバイスだろう(リンク先ページの内容を推測しにくいため)。
「アンカーテキストがある内部リンク」と「アンカーテキストがない内部リンク」とで検索トラフィックとの相関関係はまったく見られなかった
アンカーテキストがない内部リンクとは、ほとんどは画像に設定されたリンクだ。画像リンクでは
alt
属性の記述がアンカーテキストの代わりとして使われることの証だろう。検索クエリと完全に一致するアンカーテキストで少なくとも1件は内部リンクされているURLは、検索トラフィックとのかなり強い相関関係が見られた
たとえば、「ベストなSEOブログ」のクエリで検索トラフィックが多いページは「ベストなSEOブログ」のアンカーテキストでリンクされているようなイメージだ。
なかなか興味深い分析結果だ。ただし、次の点には注意したい。
- 2,300万本の内部リンクは、ウェブ全体で考えるとごく一握りのデータ
- 相関関係と因果関係は別もの
それでも、内部リンクの最適化のヒントとしてシェパード氏の調査は確実に参考になりそうだ。
- SEOがんばってる人用(ふつうの人は気にしなくていい)
グーグル検索SEO情報①
5月のコア アップデートで順位が入れ替わったのは検索意図解釈の変化が原因か?
レゴの検索結果がシャッフルされた (Lily Ray on Twitter) 海外情報
5月下旬にグーグルはコア アップデートを実施した。このコア アップデートがもたらした検索結果の変化から、ある特徴が見て取れるそうだ。
米国の腕利きSEOコンサルタントのリリー・レイ氏が報告したその特徴とは、検索意図解釈の変化による順位変動だ。要は、「検索キーワードがどういった検索意図をもっているとグーグルが解釈するかのロジック」の変化によって、それぞれの検索意図に向けたページの順位が入れ替わったということだ。
ブロック玩具の「legos」(レゴ)という検索キーワードの検索意図としては、たとえば次のようなものが考えられる:
- レゴについての解説
- レゴの口コミ
- 子ども向けのレゴ
- 大人向けのレゴ
- レゴを買える店
- etc.
今回のコア アップデートではこうした内容についてのページの順位が大幅にシャッフルされたというのだ。
そのシャッフル状況は、下記ツイート埋め込みをクリックして、さらにツイート内の画像を拡大して確認してほしい:
The keyword "legos" provides a good example of the level of intent switching that happened with this core update.
— Lily Ray 😏 (@lilyraynyc) June 9, 2022
There are articles defining legos, lego reviews, legos for adults, legos for kids, where to buy, etc.
And everything reshuffled after the core update pic.twitter.com/DYqjX4Jczr
画像をみると、次のような変化が起きているように思える:
- 購買ページ(一般または子ども向け) ―― 上昇
- 大人向けのレゴ情報・購買ページ ―― 低下
- レゴについての全般的な解説 ―― 上昇
コア アップデートで順位が下がったとしても、それは必ずしもページに問題があるからとは限らないとグーグルは説明している。レイ氏が示したのはこれを示す良い例だ。
コア アップデートで順位が変わったのは、
- 品質が低いから・高いから
とは限らず、サイトには直接関係ない要因として、
- ユーザーの検索意図が変化した
- または検索意図の解釈をグーグルが変えた
ことにより、「そのキーワードがもつ検索意図(だとグーグルが判断したもの)」に合致したコンテンツをより上位に表示するようになったのだと考えられる。
「ユーザーの検索意図の変化」や「グーグルの検索意図解釈の変化」は、サイト側で制御できるものではない。これは受け入れるしかない。対処できることがあるとしたら、ユーザーがそのクエリで今何を求めているのかを探り当て、その要求を満たすコンテンツを新たに投入することだろう(そのコンテンツがサイトのテーマに合っていることも条件になる)。
- SEOがんばってる人用(ふつうの人は気にしなくていい)
マジですか! Googlebotがサポートしないrobots.txt指示のせいでグーグル検索から消滅!?
ないものとして扱ってしまうため (Robert on Twitter) 海外情報
robots.txt
のCrawl-delay
ディレクティブに関して、注意を要する情報をお伝えしたい。Crawl-delay
は、クロール速度を落とすようにクローラに指示を出す命令だ。ただし標準ではなく拡張の仕様なので、Googlebotはサポートしていない。一方で、BingのクローラであるBingbotのようにサポートしているクローラもある。
次のようにrobots.txt
に記述していたとする。
User-agent: *
Crawl-delay: 2
User-agent: Mozbot
Disallow: /
この状態だと、サイトのすべてのページをGooglebotはクロールしなくなるのだ。理由はこうだ。
2行目の「
Crawl-delay: 2
」をGooglebotは無視し、存在しないものとして扱う(サポートしていないため)。そこで、1行目の
User-agent: *
をそのまま4行目のDisallow: /
に適用してしまう。
「そんな変な挙動はしないだろう」と思ってしまうのだが、実はこの挙動は正しい。というのも、robots.txtではUser-agentを複数記述して指示をグループ化する書き方がある。
つまり、前述のrobots.txtをGooglebotは次のように解釈してしまい、結果としてすべてのクローラに対して全ページのクロールを拒否していると判断してしまうようだ:
User-agent: *
User-agent: Mozbot
Disallow: /
実際にグーグルのrobots.txt テスターで試しても、前述のような挙動をしていることを確認できる:
Crawl-delay
ディレクティブをrobots.txt
で利用するなら、最後に記述するか、もしくはUser-agent
を明示的に指定するのが無難だろう。あとに続く記述によっては、サイト全体がGooglebotにクロールされなくなる危険性がありうる。
- ホントにSEOを極めたい人だけ
「毎日更新」をページタイトルに入れたら検索トラフィックが11%増??
検索ユーザーが「おっ!」と思うtitleタグに (SearchPilot) 海外情報
興味深いSEOテストをSearchPilot(サーチパイロット)が実施した。title
タグを少しいじっただけで、検索トラフィックが11%も増加したのだ。
どんなふうにtitleタグを変更したのかというと、年月の記述を「Updated Daily」(毎日更新)に入れ替えたのだ。次のような感じだ:
- 【修正前】フリーランスのライター募集(2022年6月)
- 【修正後】フリーランスのライター募集(毎日更新)
これはおそらく、検索エンジンの評価というよりも、検索結果ページにおけるクリック率の問題だろう(それによるユーザー行動もあるかもしれないが)。具体的には、新しいタイトルのほうが、「最新の情報が手に入る」と期待してクリックする検索ユーザーが多かったに違いない。
もっとも毎日更新と書くからには、本当に毎日更新しないとユーザーを騙すことになるので注意が必要だ。「毎週更新」でも同じような効果がみられるのではないだろうか? 「毎月更新」はどうだろうか。
タイムリーな情報を提供するコンテンツを配信していて、この検証結果に興味をもったなら、元記事が行ったように年月の記述をtitleタグに入れた場合とA/Bテストで比較検証してみるといいだろう。
- SEOがんばってる人用(ふつうの人は気にしなくていい)
E-A-T重視なら必見! 記事筆者を構造化データでマークアップするベストプラクティス
E-A-Tの証明に役立つかも (グーグル検索セントラル) 国内情報
記事(Article
)の構造化データの技術ドキュメントに、記事作成者のマークアップのベストプラクティスをグーグルが追加した。ベストプラクティスに従うと、記事作成者をグーグルが正しく認識、表示する手助けになる。
グーグルが推奨する記事作成者マークアップのベストプラクティスは次の5つだ。
- すべての作成者をマークアップに含める
- 複数の作成者を個別に指定する
- その他のフィールドを使用する(
type
、url
、sameAs
など) author.name
プロパティに作成者の名前のみを指定する- 適切な
Type
を使用する(Person
またはOrganization
)
具体的な内容はドキュメントを参照してほしい。
専門家が書いた記事の場合、その専門家の情報を構造化データでより多く、正確にグーグルに伝えればE-A-Tを証明することにひょっとしたら役立つかもしれない。
- SEOがんばってる人用(ふつうの人は気にしなくていい)
ソーシャルもやってます!