Aggregator

人間中心設計専門家・人間中心設計スペシャリスト メディアでもご紹介いただきました!

12 years 2ヶ月 ago

CD-Net認定 人間中心設計専門家・人間中心設計スペシャリストの

受験申込中です。

各Webメディアでもご紹介いただいております!(以下、掲載日順、敬称略)

 

12月13日 [Tech-On]

「人間中心設計スペシャリスト」の認定制度を新設、2013年12月20日から受け付け

http://techon.nikkeibp.co.jp/article/NEWS/20131213/322604/

 

12月18日 [エンジニアtype]

業務系SE必見。日本IBMのプロに学ぶ、エンタープライズシステムにおけるUI/UXの

高め方

http://engineer.typemag.jp/article/ibm_ucd

 

12月24日 [Web担当者Forum]

UX王子曰く、“いいもの”を世の中に増やすには、現場でUXやHCDに取り組む当事者が

大切なんですよ

http://web-tan.forum.impressrd.jp/e/2013/12/24/16660

 

12月25日 [U-Site]

「UIの奥にある、サービスの価値まで伝えられるようにする」

HCD-Net認定人間中心設計専門家の声: 株式会社イード・斉藤聡介

http://www.usability.gr.jp/weblog/certified-hcd-expert-interview.html

 

12月27日 [技術評論社(Gihyo.jp)]

社内に人間中心設計を普及させるポイントとは

~HCD-Net認定 人間中心設計専門家インタビュー:株式会社アイ・エム・ジェイ 佐藤 哲さん

http://gihyo.jp/news/interview/2013/12/2701

 

人間中心設計専門家・人間中心設計スペシャリストは、

ますます注目が高まっております!

 

申込締切は 2014年1月10日(金)です。

申請用の応募書類ファイルは

以下の「応募要領」ページからダウンロードできます。

 

[応募要領]

http://www.hcdnet.org/certified/apply.php

 

受験申込に必要な応募書類は「A 受験申込書」のみです。

締切直前は、申込が集中し、アクセスに時間がかかることがありますので、

受験をお考えの方は、ぜひお早めにお申込ください。

 

事務局

「重複コンテンツはスパムでGoogleにペナルティを受ける」は、なぜ間違いなのか

12 years 2ヶ月 ago

Googleのマット・カッツ氏が重複コンテンツの扱いについてあらためて説明した。ウェブに普通に存在するような重複コンテンツはスパムにはならない。重複するコンテンツを持つページを認識したときは、代表を1つ選んで、それを検索結果に表示しようというのが重複コンテンツの扱い。

- 「重複コンテンツはスパムでGoogleにペナルティを受ける」は、なぜ間違いなのか -

Posted on: 海外SEO情報ブログ - SuzukiKenichi.COM

【海外SEO】鈴木謙一

2014年のSEOと検索を勝手に予想

12 years 2ヶ月 ago

あけましておめでとうございます。
本年も当ブログならびにサイバーエージェントのSEOを何卒よろしくお願いいたします。

さて、本年も毎年恒例になりました(?)今年のSEOや検索に関する勝手な予想をしたいと思います。
昨年も2013年のSEOを勝手に予想にて予想をしましたが、正直当たってませんね(汗
外れたときに恥ずかしいのでやめたいところですが、年初に上げるべき記事もありませんので勝手な予想ではありますが記述してみたいと思います。

レイヤーが異なる項目になってしまいますがご了承ください。
あと、外れても苦情は受け付けませんのでよろしくお願いします。。。


1,Author Rankの導入

至る所で語られていることなので、もうそろそろ導入されてもおかしくないかなと思っています。場合によってはGoogle+の利用促進につながるかもしれないしと思ったり、思わなかったり。(おそらくそのような理由でアルゴリズムが変わることはない・・)
ただ、やはりCTRには影響が出ることがあるため、authorの設定は確実にしておいたほうが良いと思われます。
詳細は「SEOとAuthor Rank」のエントリーをご覧いただけますと幸いです。

2,構造化の重要性向上

これも様々なカンファレンスで語られていることですが、構造化の重要性が増す可能性が高いと思われます。
Googleが構造化マークアップ支援ツールまで提供していることから見ても、Googleがschemaというか、mirodataを使って欲しいと思っていることは確かかと思います。
いまさらここでかくべきことでもないと思いますが、microdataを使ってマークアップすることで検索エンジンはコンテンツの意味をより正確に理解できるようになります。
schema.orgの日本語訳ページでも、micordataの利点として

「この情報はこの映画の、この場所の、この人の、このビデオのことを説明しているんだよと検索エンジンに伝えることによって、検索エンジンや他のアプリケーションが内容を理解し、関連のある情報を提示できるようになります。」

と記述されています。
例えば「アマルフィ」という言葉が記述されていた場合に、それが“映画”なのか?“小説”なのか“地名”なのか?を検索エンジンが理解しやすくなります。
これらによって、そこに書かれていることがどういうことなのか?その他の言葉がどういう意図で使われているか推測しやすくなると思われます。
microdataを使用することによってより正確にコンテンツをGoogleに伝えやすくなることで、SEO効果が高まるということはありえない話ではないかもしれません。
もちろんリッチスニペットに対する効果という点でも有効です。

3,スパムに対してさらに厳格な対応

基本路線は変わらないと思いますが、増加し続けるユーザーからのフィードバックをどんどん学習していくことで、より正確で厳格なスパムラインを設定することができるようになると思われます。
悪意あるもの、ないものの線引きがより正確になることで一部では救出されるサイトもあるかもしれませんし、これまで網の目をすり抜けていたサイトが捕獲されるケースも発生すると思われます。
いずれにしても、「スパム対応が甘くなる」ということはあり得ないので注意が必要だと思います。
特にリンクに関しては甘くなることはなく、見せしめ的な動きも活発化しているため大規模なサイトでも注意が必要なケースはあると思います。

4,検索クエリの解釈の精度向上

ハミングバードがさらに進化する可能性があると思います。
現在の日本語の検索クエリの解釈はまだそこまで精度が高いとは言えないと思われるため、日本語に対しての精度向上が期待されます。
開発者には日本人の方もいらっしゃるようなので今年あたりに大幅に改善されるのではないでしょうか?
弊社の10代向けのメディアの検索流入キーワードを見てみると、音声検索を行っていると思われるものが大量にあります。若い世代は音声検索を使い始めていると思われます。(逆に30,40台向けのメディアの流入キーワードにはそのようなものはほとんどありません)このことからも、検索クエリの解釈の精度向上はユーザーからしても期待されるものと思われます。
なお、クエリの精度が向上した場合でも、「検索ユーザーが欲しがるであろうコンテンツを用意する」ということが最も有効なSEOであることには基本あまり変わらないと考えて良いと思います。

5,ユニバーサルサーチの精度向上

現在のユニバーサルサーチの中には、その精度が不十分なものがいくつかあると思います。なかには実験的に新しいアルゴリズムを入れていそうなものもありますが、オーガニックサーチよりは単純なアルゴリズムであるものが多いと思われます。
これらの精度を向上させることでユニバーサルサーチが出現する率が高まるということがあるかもしれません。

6,デバイスの適応度に応じた検索結果の変化

スマートフォンとPCの検索結果ですが、以前よりは少し検索結果が異なることが増えているように思います。(と言っても微小ですが)
今後はデバイスへの適応状況に応じてさらに検索結果が変化していくことがあり得ると思われます。
Googleはマット・カッツ氏もデザインとユーザーエクスペリエンスをもっと意識すべきということを話しているように、
(参考:海外SEO情報ブログ:Googleのマット・カッツが明かした21個の最新SEO情報 from #SMX Advanced 2013
各デバイスでどのように閲覧できるか、どのように使用することができるのか?を評価に含めてくる可能性があるように思います。
すでに、Googleが「スマートフォン向け検索でのランキングの変更について」においてスマートフォン向けに不適切な設定をしているサイトのランクを下げることを発表したように、今後は逆にPCでの閲覧に対して不適切な設定があるもののランクが下がる可能性もあると思いますし、それぞれのデバイスで見辛い、操作しにくいなどのケースで評価が下がることがあるかもしれません。
そもそもこれらはSEO以前の問題で、ユーザーが使いやすい、見やすいサイトにすることは当然ですので改善が必要であることは言うまでもありません。


と細かく6項目を挙げさせていただきましたが、
全体的に流れとしては
・ユーザーの意図を解釈しユーザーが欲している結果を返すことの精度を高める
・スパムに対してより厳格な対応をとる

ことの2点かと思います。
ユーザーが欲するものは、検索クエリに対して問題を解決できる答えだったり、(デザイン・ユーザーエクスペリエンス含め)欲求が満たされるウェブサイト、ウェブページであり、それらを追求していくことをGoogleは止めないでしょう。
また、所謂「(Googleが考える)スパムとの戦い」は(UGC運営者もそうですが)今年も続くと見て良いでしょう。

ウェブサイトを運営する立場の方は、Googleを1ユーザーとしてとらえ、そのユーザーに気に入ってもらえるウェブサイトを作ること、そのユーザーがある検索クエリを検索した際に叶えたいと思ったことが、そのウェブサイトを見ることで叶うかどうか?を常に意識しておけば、時間の長短はあるにせよSEOは成功に向かっていくのではないでしょうか?

一方SEO事業者サイドはリンクからコンテンツコンサルティング・ウェブコンサルティングに近い領域にシフトする会社も増えてくると思われます。
(インハウスの立場から言わせていただくと)そのウェブサイトの目的、そのウェブサイトでトラフィックを増やす目的とその会社やサービス、サイトの強みをきちんと認識したうえでコンサルティングを提供する必要があると思います。

また、リンクにおけるSEOを追求されるSEO事業者の方もまだまだいらっしゃいます。
(私は肯定派でも否定派でもありません。別に違法ではないですし。)
より厳格になっていくアルゴリズムに対して、Googleの方向性を汲み取りながらうまく効果を出せる会社も存在し続けるように思います。
そのような会社も、Author Rankが導入された際の対応や(今回は、敢えて2014年の予想からソーシャルシグナルの直接活用は外しましたが・・・)ソーシャルシグナルを直接アルゴリズムに取り込んだ際には、新たな対応が必要になるでしょう。

2013年もGoogleはいろいろと動いてきました、2014年にも大きな動きはいくつかあるでしょうがGoogleが目指す方向性は一貫して変わっていません。
今年もGoogleの目指す方向性と思想をきちんと理解してSEOに取り組めば自ずと結果はついてくるのではないでしょうか。
ということで非常に雑な予想になってしまいましたが本年もよろしくお願いいたします。

twitter Google+

ユニバーサル アナリティクス対応のGoogle アナリティクス本で早速いくつか訂正

12 years 2ヶ月 ago
「Google Analyticsによるアクセス解析入門~Universal Analyticsを使ったWebマーケティング実践テクニック100」
http://www.amazon.co.jp/dp/4774161926/

2013/12/20に発売されました。しかし申し訳ありませんが、早速いくつか訂正すべき個所があるのを発見しました。

<本質的な訂正は次の通り>
P122の4-5行目のトラッキングコード内の true → {'nonInteraction': 1}
P125の下方のリスト1内の true → {'nonInteraction': 1}
P229の3行目の 検索エンジンから → 外部サイトから

ここは標準のアナリティクスと訪問判定ルールが変わっているので注意が必要です。図2のサイトBが検索エンジンでなくて普通のサイトでも訪問は別になります。

P235の下から7行目の 「true」 → 「{'nonInteraction': 1}」
さらにP241と同様でイベントが発生した場合の滞在時間については、検証中です。間違っている可能性があります。検証しました。下記の追記を参照ください。

P240後半の直帰、離脱ページの滞在時間は、直帰をゼロ秒で集計に組み入れると書きましたが、離脱と同様に集計から外すが正しいです。一番下のページaの滞在時間の計算式は{2秒(訪問Xのページa滞在時間)/1ページ(離脱と直帰を除いたページaのページビュー数)}=1秒(ページaの平均ページ滞在時間)となります。

P241イベントが発生した場合の滞在時間については、検証中です。間違っている可能性があります。検証しました。下記の追記を参照ください。

(2014/1/6追記 2パラグラフ分)
検証の結果、丸1のケースでは「{'nonInteraction': 1}」を付ければ、「ページA」で直帰かつ離脱扱いになり、ページ滞在時間には集計に組み入れず、訪問時の滞在時間はゼロで集計に組み入れるという原則通りでした。

「{'nonInteraction': 1}」を付けない場合は、「ページA」で直帰にはなりませんが、離脱扱いにはなります。またページ滞在時間は不自然な動きをします。訪問時の滞在時間はイベントXとの時間差で集計に組み入れます。

(2014/1/6追記 1パラグラフ分)
P70の下から5行目、「Google アナリティクスとデータ連携している場合は、」は不要です。データ連携していようといまいと付与されるパラメータに影響はありません。もちろんGAの画面で統合してみたい場合は、データ連携が必要ですが。


<誤字脱字レベルは次の通り>
P77の下から1行目の 「キーワード」についてはP.141を参照 →P.72を参照の方がいいかもしれません。
P138の上から5行目の (図2-④) → (図2-②)
P168の上から1行目の 限定の場合 → 既定(デフォルトの意味です)の場合


<備忘録的にどうでもいいレベルは次の通り>
P127の図3に白く抜いた部分がある
P181の真ん中あたりの参照先の 「カスタマイズしたレポートを作成したい」 → 「カスタマイズしたレポート」
P204の下から1行目の参照先の 「データを出力したい」 → 「データの出力(エクスポート)」
P248の上から7行目の 1回集計されます → 1回と集計されます
noreply@blogger.com (hiromi ibukuro)

レスポンシブWebデザイン

12 years 2ヶ月 ago
レスポンシブWebデザインとは、ブラウザのスクリーンサイズに従って、WebページのデザインやレイアウトをCSSにより調整することである。 パソコン、スマートフォン、タブレットなど様々なデバイスに単一のHTMLで表示する制作手法であり、各デバ... (

Twitter の検索結果をCSV形式のデータにして有効活用する

12 years 2ヶ月 ago
main_10341

公式アカウントでの情報発信やハッシュタグを使ったプロモーションなど、今ではマーケティングの手法としてかかせないものになった感のあるTwitterですが、その施策の効果を測定する際、意外と大変なのが、Twitter内の検索結果のデータ化なのではないでしょうか。

ハッシュタグや特定のキーワードを含むツイート、アカウントに向けて送られたリプライ(返信)の内容などを、CSVなどの形式でまとめておけると便利なのですが、残念な事にTwitter側には現在そのようなものを出力する機能がありません。

有償サービスを探せばCrowdboosterつぶやきデスクのような高機能なものもあるのですが、無償ですぐに使えるものとなるとなかなか数が少ないのが現状です。
そこで今回は無償で簡単に使えてCSV形式でログが保存できる、Twitterの測定ツールをいくつかご紹介したいと思います。

1500ったー

netpr_01

最大1500件までツイートの検索結果を確認できて、CSVファイルとしてもダウンロードできるウェブサービスです。
面倒なユーザー登録なども必要なく、検索したいワードを入れればすぐに結果を見る事ができるので、手っ取り早くデータが欲しい人におすすめなサービス。

netpr_03

検索結果画面に表示される「CSV保存」をクリックすればCSVがダウンロードできます。
CSVには、ユーザー名、スクリーン名(プロフィールで設定する『名前』に当たるもの)、投稿日、ツイート本文、投稿ID、の5つのデータが保存されています。
検索数の設定を変更すれば、最大1500件までデータを保存する事ができます(APIの制限によるので、必ず1500件さかのぼれるわけではありません)。
他のブラウザでも最新版であれば動作するようですが、Chromeが推奨されています。

csv_image_02

CSVファイルを開くとツイートの内容や投稿時間、ID名などが記録されています(内容はぼかしを入れています)。

ツイポーート

netpr_02

こちらは認証登録をする必要がありますが、検索結果や検索条件の保存ができて、検索結果内の簡単な解析もすることができます。
検索条件では、期間の設定をすることもできます。

netpr_05

検索結果を保存すると、CSV形式、TSV形式でのダウンロードができます。
保存できる内容は「1500ったー」とほぼ一緒ですが、こちらは加えて、サムネイル画像の情報やユーザーIDも保存できます。
また検索条件を複数登録しておくことが出来るので、定期的に同じ検索条件でデータをとりたいような場合には、こちらの方が使い勝手がよいかも知れません。

csv_image_01

こちらはツイポーートで保存したCSVファイル。サムネイル画像のURLも入ってます(あまり使いどころがなさそうですが)。

どちらのサービスも手動で更新しなければならないのが少々手間ですが、応募キャンペーンの集計など、短期的なキャンペーンでしたらこれで充分な場合も多いかと思います。
なによりどちらも無料で気軽に試すことができますので、長期的にデータを取っていこうという場合も、一旦これらのサービスを利用してデータを集計してみると良いかも知れませんね。

ながの

パンダアップデート(Panda Update)

12 years 2ヶ月 ago
パンダアップデートとは(旧名:ファーマーアップデート)品質の低いコンテンツを検索結果に表示されにくくすることを目的としたアルゴリズム更新のことである。2011年2月に英語圏で導入後、2012年7月18日に日本語にも適用されたことをGoogl... (

構造化データ

12 years 2ヶ月 ago
構造化データとは、ページの情報やデータを一定の規則(構造)に従って記述し、それらのデータに意味を付加することである。構造化データを適用することにより、インターネット上の情報を単なるデータの集合から知識のデータベースに進化させることが可能とな... (

2014年 広告業界7つの予測

12 years 2ヶ月 ago

今年も恒例の業界予測です。

その1)ネット広告の効果指標に「認知、態度変容」が大きく浮上する年
     ~ネット動画広告の需要活発に・・・インベントリー開発が急がれる~


長くネット広告の効果指標はクリックであった。CPCやCPAが効果指標である。もちろんビュースルーによるコンバージョンへの寄与も測る時代になったとはいえ、リスティングのキーワード別の入札価格データを管理して、アトリビューション分析によりネット広告のリ・アロケーションをしている企業はまだまだ少ない。

それでも、ネット上にビジネスのゴールがある場合はいいが、リアルな販売チャネルが主力のブランドにとって、ネット広告の活用の効果指標を何にするのか、おおきな課題ではあった。
 その課題に、ネット広告による「認知・態度変容」の効果を、トラッキング調査をかけて調べることが定番化する流れを決定づける年になるだろう。
 そしておそらく今まで指標にしてきたクリックレートが、ほとんど効果と相関しないことが分かるだろう。

 私は14年前に「最新ネット広告ソリューション」という日本で初めてのネット広告に関する書籍を書いたが、その中ではクリック率は広告認知にも相関する指標であるとした。ネット黎明期のユーザー行動では、そう言えたかもしれないが、広告フォーマットも様々な今ではどうもクリックと認知・態度変容が相関するとは言い難い。
 

 ネット動画広告をTVと同じ指標で捉えると同時に、配分モデルをつくる。これが特にTVを大量に使うブランドにとって、効率的に認知をとるために、または認知をより購買行動に繋ぐ手立てのために検討されるだろう。

 米国では、ネット動画をTVと同じ効果指標で捉えているばかりか、その買い付け方もTVCM在庫と同じアップフロント(先付け)で行われ始めた。掲載面はプレミアムな枠を買うが、配信はオーディエンスごとになる。勿論日本が同じ状況という訳ではない。しかし、m1層などを中心にTV訴求が到達しにくいターゲットへの接触と、ネット動画広告で獲れる認知の購買行動への寄与を検証してみると、ネット広告のROIが高く評価される可能性もある。

 ネット動画広告に関しては、過去には何度も「今年は来る」と狼少年のように叫ばれてきたが、その効果を認知・態度変容とすることで、その評価は従来と違うだろう。
 多くのブランド認知を求める広告主がネット動画にシフトするが、インベントリーが少ない状況は否めない。優良メディアでありながら、クリックベースでしか評価されないが故にCPMが上がらず、大量のPVを有するサイトに圧倒されてきたメディアには、動画インベントリーを開発して広告収入を拡大するチャンスである。

 またテレビ局もコンテンツを動画DSPマーケットに出して収入拡大を狙う機会となるだろう。リアルタイム視聴が少なくなる中、1円にもならない録画視聴率を誇ってみても意味がない。動画コンテンツの供給が待たれる。

その2)データエクスチェンジが試される年
   
ビッグデータ、データサイエンティスト、DMPといったバズワードが踊った2013年だったが、2014年はトップランナーのDMP装備が完了し始める。と同時に、成果を出すべく本格的に「分析」が試されるだろう。
そうした中にあって、企業の1stPartyデータとメディアのいわゆる2ndPartyデータ、購買行動データなどの3rdPartyデータ、そして企業間で1stPartyデータ同志をエクスチェンジが初めて本格的に試されることになるだろう。とはいえまだまだエクスチェンジのための環境整備が出来ていない。相対(あいたい)で取引きされるところから始まる。
また有力なメディアがDMPを導入し、広告主にとって価値のある広告商品開発にも取り組むだろう。その場合、まずは特定の有力クライアントとの取組が優先される。

こうした流れの中で、オリジナルなオーディエンスデータを所有しない広告代理店の存在感が希薄になる怖れがある。エクスチェンジ市場はあくまでトレードオフが原則である。「場」に自分の持っている有用なデータを出して初めて参加できる。メディアと広告主企業が直接交換することが想定できる。代理店はデータマーケティングにどういう関与ができるかまさに経営課題になるだろう。ただまずはそういう状況を認識できなければ何も始まらないが・・・。

その3)ネイティブ広告とその配信プラットフォームが注目される年

 そもそも「ネイティブ広告とは」としっかり認識しないといけないが(参考のためご覧になるとよい。)・・・。

http://markezine.jp/article/detail/18231
 
 P&Gなどが米国で活用している「アウトブレイン」などの日本上陸も報道されているが、
http://business.nikkeibp.co.jp/article/nmgp/20131209/256883/
こうした仕組みを提供するプレイヤーが登場すると思われる。

 「ネイティブ広告」が認識され、注目を集めると同時に、こうした配信プラットフォームの活用法についても話題になることが多くなるだろう。活用するには企画力も必要だ。パフォーマンスの良いネイティブ広告を開発できる広告主は、顧客洞察や適切なコミュニケーション開発の「手練れ」と言える。
 


その4)アマゾンデータがリアルチャネル購買データ供給を刺激する年

  そんなに本格化しているようには見えないかもしれないが、アマゾンの購買データをマーケティング活用する企業が急激に増えるだろう。リアル店舗のPOSデータだけでなく、アマゾンでのセールスデータを目的変数として、重回帰分析によるメディアアロケーションを行う企業も現れる。メーカーもアマゾンデータによる商品開発に乗り出すなど、こうした動きが、リアルな店舗網をもつ流通企業を刺激すると思う。消費者の購買行動データを提供することに慎重な各社も、メーカーとeコマース企業のデータ連携を指を銜えて観ている訳にはいかなくなる。
これをきっかけとして、購買データ系の3rdPartyデータの流通が再来年以降に本格化するだろう。その発端をアマゾンがつくると見ている。
 
いずれにしても、保有するデータにおいて、グーグル、アマゾン、ヤフーの3社の優位は大きい。楽天がここ何年間参入を目指すも最後は各店舗保護によって踏み切れない間に、アマゾンに大きな水をあけられるだろう。
企業が欲しい3rdPartyデータは基本、購買行動系、ソーシャルメディア系、TV視聴データ系の3つである。リアル購買データのTポイントそしてBluekaiも日本参入を果たして、データ供給合戦にはなるのは必至。
 とはいえこれを活用して成果を出す企業には、自社のビジネスロジックを熟知し、分析官に、仮説と分析法を指示できるだけの知見を有する人材が必要だ。
 私は時々、これをジャック・バイアーとクロエ・オブライエンに例える。いかにクロエが優秀な分析官でも、ジャック・バイアーの指示がなければ成果は出せない。


その5)PDCAに耐えるネット動画広告クリエイティブ開発が芽吹く年

  従来日本のネット広告代理店が行っているクリエイティブとは「クリエイティブ」ではない。有り物の素材を借りてきて、レイアウトしているに過ぎない。原稿素材はつくっているが、クリエイティブしていないものだ。これを私は「クリエイティブ・アダプテーション」と呼んで、本質的なクリエイティブとは異質なものと考えている。
 
 ネット動画広告も長年「今年は来る、来る」と狼少年状態だった。その大きな理由のひとつは、こうしたものは「広告フォーマット」そのものに効果を依存するのではなく、その「広告フォーマット」の特性を生かした独自のクリエイティブが開発されなかったことだ。
 前述したように、効果指標に「認知・態度変容」が中心になってくると、クリエイティブに手を掛けることで、その効果に大きな違いが生じる。当然なのだが、最適化の最大の変数はクリエイティブである。
 
 ネット動画広告独自のクリエイティブをつくる広告主が、今年は一挙に増えるだろう。
プレロールにしても、最初の5秒でスキップされないように、また逆に5秒で達成するようにしたり、とにかくTVCMとは別の素材づくりに対する効果を期待する広告主が出てくる。
 その期待に対応すべく「インタラクティブ動画」など従来のバナーづくりとは一線を画したリッチなクリエイティブ開発スキルを標榜するプレイヤーも登場するだろう。
 こうしたプレイヤーとは、動画広告の視聴データ、認知・態度変容データでPDCA、つまりクリエイティブの改善作業を当然のように行うクリエーターたちということになる。
 それも、キャンペーン期間前から期間中にリアルタイムに効果データを計測して、PDCAを廻さなければ意味がない。改善を高速で行う文化、習慣を動画広告にも持ち込めるか、そのあたりが試金石となるだろう。


 TVCMでは認知はそれなりに取れる。しかし今の課題はTVCMで取る認知だけでは購買行動を促進しづらいことだ。パーチェスファネルの第二段階であるレリバンシー(つまり、このブランドは自分に関係するものだと認識すること=自分事化)の獲得をネット動画が担うかもしれない。特にブランドに複数のターゲットが設定されていて、それぞれに文脈の異なるメッセージがあるのであれば、ターゲティング配信できるネット動画でクリエイティブを差し替えてTVCMでは訴求できないところまでをコミュニケーションすることが有効であると考えられる。

 私は、そのうちTVCMは、DMPから顧客のインサイト(反応する文脈)を発見して、メッセージを開発し、ネット動画広告クリエイティブを配信した上で、TVCMをつくるというプロセスがあっていいと思う。

 


その6)プライベートDSPが本格始動する年

  DMPにプライベートDMPと呼ばれる仕組みがあることはご存じの方も多いだろう。このプライベートDMPを保有することになると、ここでセグメントしたターゲットに対して広告配信をかけて、その結果のパフォーマンスデータをDMPにフィードバックするには、必然的にプライベートDSPが必要となる。
 効果を得る変数は、もちろんオーディエンス(つまりクッキー)だけではない。掲載面は非常に重要な変数であり、配信タイミング、適正フリークエンシ―など、そして最も大きな変数である「クリエイティブ」を最適化しなければ意味がない。
 
 (入札運用型はオーディエンスを最適化するだけというような間違った見解も耳にするが決してそうではない。)

 こうした配信結果をDMPにフィードバックして、「リザルトラーニング」を行うには、DSP事業者のそれをただ単に使って配信するだけでは成立しない。掲載面の管理を含めたプライベートDSPが要る。
 ブランドを毀損しない、というよりブランド認知のためにより効果的な配信を行うには、当然最適な掲載面が必要であり、そのブランドにとっての最適な掲載面ネットワーク、つまりプライベートエクスチェンジが必要となる。
 
 米国のグローバル企業のように、プライベートDMPによるプライベートDSP運用をインハウスで行う日本企業はまだないが、どこまでをインハウスと呼ぶかは別にして、特定の広告主企業のためのDSPが試される。

 一方で、SSPも新たな局面を迎える年になるだろう。DMPを導入するメディア企業も増えると、広告商品開発をオーディエンスベースで行う流れができる。プレミアムな枠ものを含めてメディアの広告収入の最大化のために機能する本格的なSSPが参入してくるだろう。


その7)広告業界に起きる大変革と新たな外資参入の兆しの年

   実質的に、「電・博・ADK」という言葉は終わっている。電通はイージスの統合で、グローバル・メガ・エージェンシーとなった。一方、ADKには勢いがなくなっている。デジタル領域の成長が電博に比べて低く、総合力の差はさらに拡がってしまった感は否めない。博報堂から見ると、追いかけてくる会社が見当たらない。しかし電通も実ははるかかなた先に行ってしまった。3社はそれぞれ、同じレイヤーにはいない。電通にとってサービスをグローバル標準にすることが課題だ。国内対応での個々の勝ち負けにいちいち構うこともないほどだ。日本資本の企業のマーケティングにおけるグローバル化を進めるだろう。博報堂は国内では真っ向電通と勝負しているように見えるが、アジアに行けばADKの方が存在感があるくらいだ。偉大なる2位にはこの状況は「何も問題なく感じる」かもしれない。

 電通イージスのこのページを見ると、本当に国際化している。もしかすると、次の社長は日本人ではないのではないかと思うくらいだ。
http://www.dentsuaegisnetwork.com/en/teams/


 電通が日本独自の広告ビジネスモデルを堅持している間は、メガエージェンシーとはいえ、極めて大きな参入障壁があって市場を形成できなかった。基本的に今もそうである。
 しかし、電通のグローバルメガエージェンシー化は、日本市場も電通が敢えてグローバル化することにもなる。(もちろん日本の牙城も堅持するだろうが)この変化に、デジタル時代のデータマーケティングへのパラダイムシフトがあいまって、日本の市場にもついに大きな変革をもたらすことになるだろう。

 そもそも「グローバル」というテーマは、「デジタル」と表裏一体だ。デジタルを標榜する上において、「共通プラットフォーム」を管理する事から得られる効率性と、「データのスケール化」を目指す事でのパフォーマンス向上は、そのまま「地理的マーケットの拡大」、いや「地球全体をマーケットとする」事を目指す動機に直結する。


データマーケティングの時代に突入し、かつ入札モデルのバイイングがシェアを拡大するなか、従来の企画力と広告枠保有力の勝負だけではなく、新たなマーケティングの通貨としてのオーディエンスデータをいかに保有するかがテーマとなるだろう。またワンストップ型の顧客インターフェイスだけでは対応しづらい専門性の高い領域が拡がっている。総合力を標榜し、ワンストップ型を維持するか、専門性の高いエキスパート集団を集めるビスポーク型を目指すかの転機となる年だ。

そしてコンサルファームやSIerの領域からもせめぎ合うマーケティングコミュニケーション産業の様相を呈する環境で、外資メガエージェンシーもこれを日本市場再攻略のチャンスと見なすだろう。
 
 今年、日本市場に導入してくるであろう外資トレーディングデスクなどはそう簡単には成功しないと思うが、日本にないサービス(データマーケティングの高いコンサルスキルと独自かつ有効なオーディエンスデータ)を提供できれば、ポジションを獲得する可能性もある。

 この環境に、SIerコンサル系からアプローチしてくるテクノロジーエージェンシーも登場すると思われる。

 マーケティングテクノロジー提供プレイヤーを、従来エージェンシーが囲い込むのか、テクノロジープレイヤーが従来エージェンシーを取り込むのか・・・。


 2020年までにはほとんど決着するだろう大きな業界再編の兆候が見える年となるだろう。

歌詞検索サイト「Rap Genius」、不正なリンク集めで不自然リンクの手動対策をGoogleから受ける

12 years 2ヶ月 ago

歌詞検索で有名なサイトRap Geniusが、ガイドラインに違反するやり方で被リンクを集めたために、手動の対策をGoogleによって与えられた。ファンが書いたブログ記事に自サイトへのリンクを張らせ、見返りにソーシャルメディアでその記事を共有しトラフィックを送った。

- 歌詞検索サイト「Rap Genius」、不正なリンク集めで不自然リンクの手動対策をGoogleから受ける -

Posted on: 海外SEO情報ブログ - SuzukiKenichi.COM

【海外SEO】鈴木謙一

iTunes Matchで古いMP3の音質を大幅アップさせる方法

12 years 2ヶ月 ago
iTunes Matchを使って古いMP3を最新のAACフォーマットにグレードアップできたので、方法をメモ。 iTunes Matchのメリットは2つ。 iPhoneやiPad、Mac、PCでクラウド上の楽曲をダウンロード・ストリーミング再生できる 手持ちの楽曲ファイルがサーバーのとマッチした場合に256bpsのAAC形式になる iTunes MatchはiTunes...

Google+の投稿をディスプレイ広告に

12 years 2ヶ月 ago
グーグルが新型広告フォーマット「+Post Ads」の試験を一部の広告主と開始した。「Google+」の投稿を、グーグルのディスプレイネットワークで広告として配信できる。
------------------------------
Testing a new format for brands to start conversations across the web - +Post Ads
https://plus.google.com/+EranArkin/posts/AL3u1z3A82o
+Post Ads
http://www.google.com/+/business/brands/ads.html
------------------------------
ソーシャル領域が後手に回っていたグーグルだが、ディスプレイネットワークという資産を活かしたこのソーシャル広告は、フェイスブックより先手であり他社の追随を許さないだろう。
noreply@blogger.com (Kenji)

人気記事トップ10

人気記事ランキングをもっと見る

企画広告も役立つ情報バッチリ! Sponsored