分散メディア時代のデータ分析は、まずはGRP的なマクロ視点から
今日は、分散メディア時代のデータ分析について。クッキーが理由でミクロな分析は厳しいですが、GRPのようにマクロなリーチという観点でまずはデータを見ていくのが良いのではないかと。
分散メディアとデータ分析の悩み
以前にこのコーナーでこんなコラムを書きました。
で、実際に「はい。茨の道です」とか「難しいですよねー」というレスポンスを頂いていました。
ここで改めて、「分散メディア」とは何かについて軽く解説しておきますね。
「分散メディア」とは、わかりやすく言うと、「自社サイト」以外にもFacebookのInstant Article、GoogleのAMP、SmartNewsのSmartFormatなどなど、大きなプラットフォームにコンテンツを配信し、各メディア上でコンテンツに触れてもらうことです。
これまでも「ソーシャルメディアにリンクを投稿する」ことはあったのですが、その場合、コンテンツに触れるのはリンクをクリックした先の自社サイト。でも、分散メディア時代には、FacebookならFacebookの中でコンテンツに触れることになります。
で、そうなるとアプリだったりドメイン名が違ったりして、ユーザーを一意に認識できず、正しいアクセス解析ができなくなるというのが問題です。
前回の記事では、アンケートを併用して重複率を推測するという解決策もあったのですが、今回は「GRP的なリーチを考えるほうがいいんじゃないの?」という考え方です。
現状ではGRP的な「リーチ」の考え方で
「GRP(Gross Rating Point)」とは、テレビCMのリーチを測定する指標。
- 視聴率1%の番組でCMが1回放送されたら「1 GRP」
- 視聴率10%の番組でCMが1回放送されたら「10 GRP」
- 視聴率10%の番組でCMが2回放送されたら「20 GRP」
- 視聴率10%の番組でCMが1回、視聴率8%の番組でCMが2回、視聴率3%の番組でCMが3回、放送されたら「35 GRP」
かなりざっくりと「そのCMが“何人回”見られたか」を表すものですね。
で、分散メディア時代のデータ分析でも、まずはGRP的に「そのコンテンツが、ざっくり、どれぐらいの人に見られたか」という考え方のほうが、精神衛生上いいのではないかと。
つまり、あるコンテンツが
- 自社メディアで2万回
- Facebookで3万回
- AMPで1万回
- SmartNewsで2万回
見られたのならば、ぜんぶ足し上げて「グロスで8万閲覧」というリーチがあったと考えればいいんじゃないかと。
もちろん、一部は重複しているかもしれませんし、まったく正確なデータではありません。
でもね、現時点では複数ドメインにわたる重複閲覧を技術的に確認する手段がない以上、そこにこだわっても仕方ないんですよね。
そこにこだわって工数をかけて、結果としてやはり正確ではないデータを分析しようとするよりも、今の状況で可能なことから分析してくのが良いのではないかと。
データ分析っていうと、つい「どのチャネルから来た人がどう動いて」というミクロな分析に意識がいっちゃいますよね。でも現状では、分散メディアに関してはこういうマクロな観点に留めておくのが良いのかもしれません。
本当は、分散メディア時代のデータ統合に関する標準仕様が作られるほうがいいのですが、プライバシー保護がこれだけ優先される時代なので、なかなか厳しいんじゃないかと思います。
グーグルさんやFacebookさん、何とかしてくれませんかね?
ソーシャルもやってます!