Search Consoleから来た「SharedArrayBuffers の使用に必要な新しい要件」の警告メールって何? ヤバいの?【SEO情報まとめ】
Search Consoleで管理しているサイトに、意味はわからないがなんだかマズそうなメールが来た人がいるのではないだろうか。この「SharedArrayBuffers の使用に必要な新しい要件」は何を意味するのか、どう対応すればいいのかの情報をお届けする。
ほかにも、「コア ウェブ バイタルのためなら写真の画質なんて最低でいい」としたサイトの話、グーグル社員が応えるQ&A、robots.txtクイズ、ECサイトの検索訪問を増やす方法などなど、SEOとサイト運営に役立つ情報をまとめてお届けする。
- Search Consoleから来た「SharedArrayBuffers の使用に必要な新しい要件」の警告メールって何? ヤバいの?
- コアウェブバイタルに最適化したぜ!(画像がボケボケになったけど)
- SEOに関する5つの質問にグーグル社員が2分で回答
- 3月のオフィスアワー: インデックスが削除され続けている、外部メディアにサブディレクトリを貸すリスク、ガイドライン違反リンクへの Google の対処 ほか
- robots.txtクイズ ―― ドメインプロパティでrobots.txtをテストできないのはなぜ?
- ECサイトの検索トラフィックを増やす方法をグーグル社員が解説
- Chromeに続いてFirefoxも! どのページからの訪問かを知ることはもはや不可能
- サイト移転は一度に? それとも段階的に?
- GMBビジネスプロフィールの閲覧数や検索ワードをGoogle検索結果からスムーズに確認
- アメーバがアクセシビリティ方針を公開
- 「Google検索の3分の2はクリックされない、いわゆる”ゼロクリック検索”」にGoogleが反論
- YouTubeが商品リストを表示、視聴者はYouTubeから直接ショッピングできる
今週のピックアップ
Search Consoleから来た「SharedArrayBuffers の使用に必要な新しい要件」の警告メールって何? ヤバいの?
開発者の力も借りて対処する (グーグル検索セントラル ブログ) 国内情報
Search Console から「SharedArrayBuffers の使用に必要な新しい要件」という件名のメールが一部のサイトに届いている。何のことかわからず、どのように対処するべきか困っているウェブ担当者もいそうだ。
この件に関する詳細を、グーグル検索セントラル ブログが記事で解説した。簡単に言うと、SharedArrayBuffer
という仕組みがCPUの脆弱性の影響を受けるためにChromeが仕組みを変える予定で、対処しないと今後のChromeでは機能しなくなるというものだ。
技術的なスキルがないと解決が難しいかもしれないが、警告を受け取っているサイトは開発者に相談するなどして対処を検討するといいだろう。詳細はブログ記事で確認してほしい(日本語記事が出ている)。
よくわからない人は次のように考えるといい:
SharedArrayBuffer
なんて知らないし自分で使った記憶がなくても、次のような理由で結果としてサイトで使っている場合がある:- サイトで利用しているJavaScriptのライブラリが
SharedArrayBuffer
を使っている - アクセス解析や広告表示などの外部サービスのJavaScriptが
SharedArrayBuffer
を使っている
- サイトで利用しているJavaScriptのライブラリが
- 外部サービスが原因の場合、自分でできることはない(問い合わせるしかない)
- 対応しなくても、問題なく動作する可能性が高い(SharedArrayBufferを利用できない場合やエラーが起きた場合の処理がプログラムに組み込まれていることが多いため)
- 警告が届いているすべてのWeb担当者 必見!
- 技術がわかる人に伝えましょう
グーグル検索SEO情報
コアウェブバイタルに最適化したぜ!(画像がボケボケになったけど)
過ぎたるは及ばざるがごとし (John Mueller on Twitter) 海外情報
グーグルのジョン・ミューラー氏にツイッターで次のように質問した人がいた:
技術部門が、コア ウェブ バイタルに最適化する目的で品質を犠牲にして画像を極限まで圧縮しています。今や画像がぼやけるほどです。そこまでする価値があるでしょうか?
ミューラー氏は次のように答えた:
良い考えとは思えない。ページエクスペリエンスは、私たちが見ている数あるランキング要因の1つにすぎない。あなたのサイトのコンテンツをユーザーが気に入らなければ、(望む成果がなんであれ)コンバージョンには至らないだろうし、もう一度訪問しようとは思わないだろう。
That sounds like a bad idea. Page experience is just one of many things we look at for ranking, but if users don't like your content, they're unlikely to convert (however you want them to), and unlikely to want to come back.
— 🍌 John 🍌 (@JohnMu) March 26, 2021
まさに「過ぎたるは及ばざるがごとし」だ。ユーザーを見ずにアルゴリズムだけを追いかける悪いSEOの典型と言える。
コア ウェブ バイタルは、あくまでも「良いUX」を実現するための手段の1つに過ぎない。質問者のようにコア ウェブ バイタルだけを追求して全体のUXを下げてしまった状況は、言い換えれば「注文から1分でパスタが出てきたが、生ゆでだった」ようなものだろう。
こうした事例は、他山の石としたいものだ。
- SEOがんばってる人用(ふつうの人は気にしなくていい)
SEOに関する5つの質問にグーグル社員が2分で回答
ショートQ&A動画 (SEO lightning round - #AskGooglebot on YouTube) 海外情報
サイト管理者から寄せられた 5 個の質問にグーグルのジョン・ミューラー氏がコンパクトに答えた。
Q1 自己ページを参照するrel="canonical"は、別ページを指定する既存のrel="canonical"を上書きするか? 異なるURLを指定するrel="canonical"を1つのページに複数記述すべきではないと考えるのだが。
そのとおり。1つのページに別々のURLに向けた複数のrel="canonical"を記述するのは避けたほうがいい。
Q2 コンテンツを公開した日付をURLに入れるのは良いことか? ランキングに影響するか?
URLに日付を入れても問題ない。ただしクロールやインデックス、ランキングには影響しない。
Q3 画像をCDNサーバーから配信するのは良くないと聞いている。自分のサーバーからの配信ではなく、グーグルがサポートしていないからだと。
画像の配信にCDNを利用するのは問題ない。自分のサーバーじゃなくても構わない。
Q4 1つのドメイン名でグローバルサイトを公開するにはどうしたらいいか? 各拠点ごとに物理的な所在地を持たないし、ccTLDは取得できない。
1つのドメイン名でグローバルサイトを公開できる。そうしているサイトはたくさんある。
Q5 Search Consoleの確認ファイルをサイトマップから除外したらよくないか? サイトマップにはインデックスさせたい良質なコンテンツのページだけを登録すると考えている。
確認ファイルをサイトマップに記載する必要はない。確認ファイルを検索で探そうとする人はいないだろう。
こういうショートQ&Aは手軽に視聴できる点で役立つ。
- SEOがんばってる人用(ふつうの人は気にしなくていい)
3月のオフィスアワー: インデックスが削除され続けている、外部メディアにサブディレクトリを貸すリスク、ガイドライン違反リンクへの Google の対処 ほか
ボリュームあり (Google 検索オフィスアワー on YouTube) 国内情報
3月のオフィスアワーをグーグルの金谷氏とあんな氏が開催した。今回2人が取り上げた質問は次のとおりだ。
- インデックスが削除され続けている(0:59)
- インデックス登録はあるが site: 検索に出ない(3:15)
- カバレッジのエラー・除外が急増した(7:09)
- 日英多言語サイトでカバレッジエラーが多い(10:57)
- 関係のないドメインからの重複コンテンツ(17:12)
- 重複コンテンツと判断される基準(21:24)
- 外部メディアにサブディレクトリを貸すリスク(28:57)
- 多言語サイトでの正規化を行う(34:19)
- サイトマップの正規化は必要か(37:11)
- 正規 URL が正しく認識されない(38:09)
- 正規化に関する公式ページの情報は最新か(41:36)
- 検索アナリティクスの一部データ表示の基準(44:17)
- URL パラメータはまだ機能しているか(45:31)
- アイテム数の多い EC サイトの URL 制御(45:42)
- 商品の構造化データに関する仕様確認(49:02)
- PDF も CWV の評価対象になるか(50:17)
- 埋め込みページはあるが「なし」と警告される(52:14)
- Article 構造化データ image プロパティ詳細(54:27)
- Q&A と FAQ リッチリザルトレポートの変更(56:48)
- 「よくある質問」リッチリザルトの実装(58:55)
- ガイドライン違反リンクへの Google の対処(1:00:37)
- AdSense の規約違反ではないのか(1:04:28)
- フィードバックは何のため?(1:06:24
なかなかのボリュームだ。上級者からと思われる質問も多い。気になるQ&Aからすぐに視聴できるように再生箇所にリンクしてある。最初から通しで見たい人向けには動画を埋め込んでおく。
- すべてのWeb担当者 必見!
robots.txtクイズ ―― ドメインプロパティでrobots.txtをテストできないのはなぜ?
サブドメインごとにrobots.txtがあるから (Gary Illyes on Twitter) 海外情報
グーグルのゲイリー・イリェーシュ氏がrobots.txtに関して次のような質問をツイッターに投稿した。
robots.txtテストツールは、Search Consoleのドメインプロパティでは機能しない。どうしてか?
trivia Friday... umm... Friday trivia?
— Gary 鯨理/경리 Illyes (@methode) March 25, 2021
the robotstxt testing tool doesn't work on Search Console domain properties. Why?
First correct answer gets a cookie in 2047 when we can travel again. pic.twitter.com/R8wtBOIGU2
あなたは答えられるだろうか? 理由は、次の2つだ:
- Search Consoleの「ドメインプロパティ」は、すべてのサブドメイン(m.、www. など)やHTTPS/HTTPのURLをまとめるものである
- robots.txtはサブドメインやHTTPS/HTTPによって違う場合がある
たとえば、Search Consoleのドメインプロパティでは、次のようなURLのサイトをすべて「example.com」としてまとめて管理できる:
https://www.example.com
http://www.example.com
https://www2.example.com
https://sub.example.com
https://m.example.com
しかし、これらのURLでは、すべて別々のrobots.txtが設置されている可能性がある(もちろん、まったく同じ場合もあるが)。そのため、robots.txtをツールでまとめてチェックすることはできないのだ。
- ホントにSEOを極めたい人だけ
ソーシャルもやってます!