なぜ今、Web解析ツールが進化してるのか? 今後の動向を予測【前編】
GoogleアナリティクスやAdobe AnalyticsといったWebに特化した解析ツールは、ここ数年、データサイエンスやAI(人工知能)のブームの影で脇役になり、進化を止めたように思われました。ところが、ここ数カ月のGoogleの立て続けのリリースによって、久しぶりに大きな動きが表面化しました。
新機能や仕様変更に振り回されて一喜一憂するのでなく、この大きな流れの本質を見据えて、来るべき将来の準備を着々と進めていくことが重要な時期になった、ということでしょう。そこで、これまでの経緯を振り返りつつ、今後について予測してみたいと思います。
行き過ぎたJS/Cookie依存からの脱却:タグ管理がサーバーへ
2000年頃からDHTMLやAjaxといった機能や開発手法が登場し、ブラウザ上でサクサクと動く軽快なWebサイトが増えていきました。その後も言語や開発環境が進化し続け、ブラウザの互換性や性能も改善される中、SPA(Single Page Application)やPWA(Progressive Web Apps)の形でさらにブラウザ依存が進行しました。
ただし、本来サーバー側で行うべき処理もブラウザ上で実装するなどの過度な依存も増え、保存するCookieの容量も増大化。WebサイトのCookieやデータの管理が困難になっていきます。
Google、タグマネージャーを無償公開(2012年)
このような課題を解決すべく登場したのが、タグマネージャーです。サイトに直接貼り付けるタグ(JavaScriptのコードの塊)をCMS(コンテンツ管理システム)のように管理する簡易的な方式と、サイト訪問者によるデジタル行動のデータを一元管理し、各種ツールへ受け渡すという、今でいうCDPのような方式が混在していました。
AdobeとTealiumが後者の方式を重視する一方、Googleは前者を重視した「Google Tag Manager」を2012年に無償公開し、タグ管理が広く普及するきっかけになりました。その後、タグマネージャーは徐々に進化を続けたものの、Tealiumを例外として顧客データの一元管理やプライバシー保護の解決策として活用されることはほぼなく、管理が容易になったタグはさらに増えていきます。
Google、GTMサーバーをリリース(2020年)
それから8年経った2020年8月、GoogleはGTMサーバー(サーバーサイドGTM)を突如リリースしました。これは、GTM登場以来の最も大きな大転換と言えます。
サーバー側でタグを処理するというアプローチは昔もありましたが、ブラウザ進化の流れの中で廃れていきました。この古い方式にGoogleが再び注目し、大きな舵を切ったのは、AppleのITP(Intelligent Tracking Prevention)に対抗するための抜本的な対策を急いだ結果でしょう。
「そんなにCookieを目の敵にするなら、もう全部サーバー側で処理すれば、何もできないでしょ」と言わんばかりの対抗策です。これは、ITPに対する現時点でベストな対策です。広告ビジネスを守るためにイタチごっこはやめる、というGoogleの強い意志が感じられます。
サーバーサイドのGTMコンテナは技術力が必要とされる敷居が高いソリューションであり、まだ荒い状態のベータ(アルファ)版のリリースだったためか、あまり話題になっていません。しかし、
- ブラウザ側の処理が減り、サイトやPCの動作が軽くなる
- 必要もなくデータをブラウザに保存しなくなり、セキュリティ対策やプライバシー保護にもなる
といった顧客視点のメリットや大義名分があるので、長期的には、タグ管理やデータ管理のサーバー化の流れは続くことでしょう。
Adobeもサーバーサイドへ舵を切る
実は、Adobeもサーバーサイドへと舵を切り始めています。ブラウザ上で動作するデータ収集のためのJavaScriptライブラリ(Googleのanalytics.jsに相当)を大幅に刷新したAEPWeb SDKをリリース。標準化されたデータを受け取ったサーバー側で、そのデータの送信先や格納方法を制御するという方式を採用しました。
AdobeもGoogleも同じ時期に同じ方向に進んでいるということは、これは必然性を伴った大きな流れだということなのでしょう。
プライバシー保護はさらに加速する
上記のタグ管理に限らず、各種マーケティングソリューションのあり方、Webの構築方法にも変革を迫っているのが、プライバシー保護の流れです。短期的にはITPの仕様変更とアドテクベンダーのイタチごっこに目が行きがちですが、プライバシー保護は、もう10年以上も続いている大きな社会の変化です。
これまでの大きな流れを振り返ってみます。
このように整理してみると、プライバシー保護の強化は、長い年月をかけて着々と進行している大きな社会の変化であることがわかります。
その中で近年プライバシー擁護派の力が増してきた理由としては、プライバシー問題に本気で向き合わず、迂回策を考案・採用するアドテクベンダーや代理店、マーケターが減らなかったことも大きな要因だと筆者は考えます(ITPに関してはAppleがGoogleやFacebookなどのプラットフォーマーに対抗するためにプライバシー強化をマーケティング的に利用し始めた、という説もあります)。
2010年に提案されたDo Not Trackのような自主規制が失敗に終わって以降、広告ブロッカーやブラウザ仕様変更のような自己防衛と、罰則を伴う法規制の強化が同時に世界規模で加速しました。性善説から性悪説への方針転換です。
ITPの仕様変更とアドテクベンダーはイタチごっこ
最近でも、Appleを中心とするITPに関して、アドテクベンダーはiframeやローカルストレージ、CNAMEといった表面的な回避策を打ち出し、それらはITPのバージョンアップによって潰されていきました。
- 「広告があるからインターネットの無料サービスが成り立つ」
- 「ターゲティングで有益な情報が得られるので役に立っているはずだ」
- 「自分はデータが漏洩したり利用されたりしても困らない」
といった主張は、プライバシー保護が不要だという理由にはなりません。ITリテラシーの高いエンジニアや業界人であれば、恥ずかしい行動をする時だけ、または常に、検索履歴や位置情報が残らないように設定するなど、自己防衛できるのでしょう。
ところが、それができず、よくわからないうちにパーソナルなデータを取得され、知らないところで流通・流用されてしまう人も多いはずです。プライバシー保護は、ハラスメントにも近いと筆者は考えます。
どこまでがOKで、どこまでがNGなのか、という明確な線引きは存在しません。データの取得・活用によって「気持ち悪い」「不快」「迷惑」と感じる人が一人でもいれば、プライバシーの侵害になり得ます。
- なぜデータを取得するのか
- どう活用するのか
をしっかり事前に説明した上で、それを好まない人はデータ取得を停止できるオプトアウトやデータ削除要求などの仕組みや体制を作るなど、根本的な対策が必要です。
「面倒な仕様変更が続いて迷惑だ」と短絡的に反応するのではなく、顧客の側に立って考えた上で、「企業としてどこまでなら許されるか」という行動規範や倫理観を確立し、それを周知徹底していくことが、ソリューションを開発・提供するベンダー側や、それを提案する代理店、それを受け入れる事業会社のマーケターにとって必要な時代になってきました。
CXデータ取得装置となったアナリティクス
「ターゲティングやパーソナライズで人を不快にさせない」というのは、マイナスをゼロにするアプローチであり、やや時代遅れです。知名度や機能、価格で勝負するのではなく、一貫・徹底した顧客体験(CX)を提供することがビジネスの成否を左右する時代においては、データの捉え方、活用方法も発想を転換し、顧客体験の改善につなげる方が、大きなインパクトを見込めます。
そのトレンドを受け、Webの行動データを取得するWebアナリティクス(アクセス解析)も、大きな動きがありました。こちらも、大きな流れを振り返ってみます。
アクセス解析の大きな流れを振り返る
「アクセス解析」は、Webサーバーがシステム管理の目的で出力するシステムログを集計することから始まりました。ヒットやPV数、セッションといったシステム中心の「アクセス解析」を皮切りに、広告関連のデータやオフラインの購買データをアップロードして統合し、高度な分析ができる「Webアナリティクス」ツールへと進化していきました。
その後、AdobeがOmnitureを買収し、「マーケティングスイート」「マーケティングクラウド」「エクスペリエンスクラウド」と名前を変えつつ、アプリやメール、SNS、MA、CMS、キャンペーン管理などの機能を内包した統合的なソリューションへと拡大してきました。Googleも同様に、総合的なソリューションの有償サービスを開始しましたが、途中でGoogle Cloud Platform(GCP)やAIに力をシフトしたようです。
このような統合的なソリューションは、メディアやデバイスを超えたあらゆる接点で一貫した良質の体験を提供することを目的としています。この場合、Webの解析ツールは、オウンドメディアにおける閲覧やクリックといった行動データを取得し、分析だけでなく、ターゲティングの対象者を抽出するための装置としての役割も担います。
昔のようにツールにログインして画面上でレポート作成もできますが、オウンドメディアにおける行動という限定的なデータの分析しかできません。あらゆる接点における顧客の行動データや属性データを統合し、顧客の理解を深め、一人ひとりの状況に合わせた有益で心地よい体験を実現するための分析やセグメント定義を行うには、Web解析ツールのデータを取り出して、ビジネスインテリジェンス(BI)やデータマート、Customer Data Platform(CDP)など別のシステムに取り込み、他のデータと統合する処理が必要になります。
このため、Adobeは2017年に生データを出力するData Feeds 機能の管理画面を開放しました。ただし、CSVファイルをFTP配信できるData Warehouseに関しては機能強化が行われておらず、利用できないディメンションやセグメントがあるなど、使いづらさが目立つようになってきました。
進化するGoogleアナリティクス
一方Googleは、2016年に有償のGoogleアナリティクス360の提供を開始し、生データのBigQuery連携を可能にしました。無料版のGoogleアナリティクスに関しては、しばらく経った2019年3月に一人ひとりの行動履歴データを取得できるActivity APIをリリース。さらに2019年8月には、訪問者ID(Client Id)を通常のレポートAPIに追加することで、サンプリングなどの制限付きながら何とか生データに近いデータを取得できるようにしました。
ところが2019年7月になり、Firebaseをベースに根本的に作り直したGoogleアナリティクス「App+Web」のベータ版をリリース。何と、生データのBigQuery連携を無償開放しました。そして2020年10月に、GA4と名前を変え、APIなどの周辺機能も含めて進化と普及に力を入れています。GTMサーバーによってITP対策の目処がついたためか、再びアナリティクスへ力を入れ始めたようです。
このGoogleの大きな方針転換は、Googleアナリティクスの戦略的な位置付けを、広告用のデータ収集からGCPの普及のためのデータ収集へとシフトしたためではないか、と筆者は考えています。
このように、Webの分析に特化したツールは役割が限定的になり、独自の存在価値が薄れてきました。が、その進化が止まったわけではありません。次回は、CX時代のアナリティクスの進化について整理します。
この記事を書いた人
電通アイソバー
チーフ アナリティクス オフィサー(CXO)
清水 誠
組織のデジタル化を推進し続けて25年。UXの開拓、IT部門の社内改革、マーコム部門のデジタル改革、楽天におけるWeb解析の全社展開を経て2011年に渡米。ユタ州にてAdobe Analyticsのプロダクトマネジメントを担当した後、2014年に帰国し電通レイザーフィッシュ(現電通アイソバー)に参画。カスタマーアナリティクスやコンセプトダイアグラムを提唱し、その実践や普及の活動をしている。2013年Web人賞受賞。「清水式ビジュアルWeb解析」著者。
オリジナルの記事はこちら:なぜ今、Web解析ツールが進化してるのか? 今後の動向を予測【前編】(2020/12/17)
ソーシャルもやってます!