15 years 8ヶ月 ago
最終日、最後のセッションは「Automating Twitter」。SESの最後のセッションがTwitterと言うのも時代の流れですか。
モデレーターはRank-Mobileのシンディ・クラム。パネリストはCrea8 New Mediaのポール・マッデン、Pierrefar.comのピエール・ファー、Freestyle Interactiveのトレーシー・ファルケ、そしてファントマスター!
—
まずはいきなりファントマスターの登場。「Twitterの話だけど、どちらかと言うとブラックハットなSEOで知られています」と自虐的な自己紹介。
ファントマスターはTwitterで1日$500稼いでいると。顧客の生涯価値、ライフタイムバリューに換算すると、と言うことですが。
—
Twitterのオートメーションはスパム以外の目的でも使える。
まずは便利なツールを紹介したい。
SocialOomph
このツールはかなり色々なことができるのだが、例えば投稿の時間指定投稿ができる。自動投稿はもちろんヨーロッパからアメリカにマーケティングしたい場合は有効だろう。
投稿内容も事前に設定してランダム投稿までできる。Twitterにスパム認定されてブロックされないための工夫が色々できるようになっている。
例えば同じ投稿を15時間毎に投稿できたりする。
。。。と言ってここで実際の設定画面を見せてくれたのですが、引用的な文章以外に、いかにもユーザーと会話しているような内容の文章が全部設定されている 汗 さき程ちらっと見た時は実際の会話もたまにしているのかな、と思ったのですが全くのウソと判明 汗
http://twitter.com/fantomaster
このツールを上手に使えば小遣い稼ぎには十分使えるだろう。ただし「Low Tone / ロートーン」、目立たせないことが大事。
他にはTweetMinerも便利。
TweetMiner
リツイートしたい相手を探す時に使える。
—
URL短縮サービスは Bit.ly 他色々あるが、オススメなのは、
zi.ma
まずドメインが短いのが良い。
—
完全にオートメーションの話でした。Twitterは今回のSES Londonからまともにやり出したので知識が無くて恐縮ですが、どれも知らなかった。。。でも、既に結構進化したオートメーションツールが出ていますね。後でそれぞれ調べてみよう。
最後にモデレーターに「オートメーションで他に注意することは?」と聞かれて答えたのが「アバターには注意。興味をひくために女の子の画像を使うようなことは止めた方が良いかも。」と言うことでした。
。。。しかし1日$500稼ぐってどうやって計算したのか謎は残る。
—
次はCrea8 New Mediaのポール・マッデン。
まず
「オートメーションは誰でもできる。ボットや人工知能の歴史は長い。」
と言う一言から。
Twitterをオートメーション化する場合、大事なのは:
・ひたすらブランドのPRしか話さないボットは無意味
・顧客のサポートをするボットが有益
と言うこと。また実際に効果的なボットを作るには、プログラムで処理する部分と、実際に人が発言・反応するハイブリッドモデルが有効と考えている。全部オートメーション化することは無理。
実現するにはTwitterのキャラクター設定も非常に重要。例えば
「ケイティはブリストル大学に通う新しいことに興味がある最近彼氏と別れたばかりの女子大生」
など。具体的であればある程良い。
他には:
・自動化する際は色々なパターンのセリフを用意すること。
・リプライやリツイートも重要。
・実際のセリフを大量に用意するのは大変なので、Twitter上に存在する発言を拾ってきてアレンジして使うのが現実的。
・対象ユーザーがネットでアクティブな時間を調べ、それに合わせていつ人が実際に対応するか決める。
などなど。
。。。ハイブリッドモデルの半オートメーションモデルって面白いですね。実際の事例を見てみたいです。
—
次はPierrefar.comのピエール・ファー。フリーのプログラマーだそうで。
まずはオートメーションの重要性を説明。
オートメーションは、マーケッターにマーケッターの仕事をより効率的に行う手助けをするためにある。
Twitterマーケティングは、分析、モニタリング、エンゲージメント(実行)の繰り返し。
—
■モニタリングのオートメーション
・アグリゲーション
・・自社のドメインにリンクしているツイート
・・特定のキーワード(ブランドやユーザー名)を含むツイート
・特定のランディングページにリンクしているツイート
。。。下記のURLから自動モニタリングボットのサンプルコードをダウンロードできるそうです!興味ある方は是非:
http://perrefar.com/ses-2010/
(試したらリンクが切れているようです。記録ミスか、後でアップされるのか。確認できたら更新します。)
—
■エンゲージメントのオートメーション
・定期的な自動ツイート
・特定のキーワードを含むツイートを自動でフォロー
・フォローしてくれたユーザーを自動フォロー
・新しいフォロワーに自動でDM送信
・ブログやプレスリリースを自動ツイート
・リプライの自動化
&
・「Nag Followig」(ナグ・フォローイング)
自動でフォローを行い、相手もフォローしてくれない場合は数日後にフォローを外す。これを何度か繰り返してフォローを促す。
どれも注意して使う必要がある。特に最後のナグ・フォローイングは危険。相当注意しないとブロックされる可能性大。
。。。最後のは凄いですね 笑
—
■分析のオートメーション
・Google Analytics
・・どこから実際に来たかパラメーターを挿入するなどして分析する
・フォロワー分析
・・フォロワーの言語、地域
・・リツイートしてくれるフォロワー
・・・最重要なので得点を与えることも可能
・ランディングページのA/Bテスト
・ソーシャルメディアのクリックをトラック
取得できるデータはできるだけ取得して、クリエイティブな分析をしよう。
。。。分析の部分は一気に流したので細かく追えませんでした m(_ _)m
—
最後にFreestyle Interactiveのトレーシー・ファルケ。ここで会場にTwitterのオートメーションを既にしているかアンケート。200人弱中、20人弱、いました。範囲にもよるでしょうが、既に結構やってるんですね。
Freestyle Interactiveはイギリスで結構大手のエージェンシーのようで顧客もかなりいるようです。ソーシャルメディアは数年前から普及していたが、Twitterに関しては企業から相談が激増している、と。
オートメーションに関して注意すべき点を事例と共に話してくれたのですが、逐一メモれませんでした。ポイントのみ、まとめます。
・Twitterのコミュニケーションで一番重要なのは、人。オートメーションは人との人とのコミュニケーションをより円滑に行う手段。
・100%のオートメーションは不可能。80%のオートメーションと20%の実際のコミュニケーション。
・現状、余りにスパム的なオートメーションが多すぎる。有名企業のTwitterにも数多く存在する。明らかにロボットが自動投稿・返信している内容は逆に引いてしまう。
・カスタマイズされたコンテンツデータベースをどこまで作りこめるかが重要。
・・ルールとトリガー
・・UGC
・・属性データ
・・カスタムパラメーター
・・キャンペーン
などなど。
・効果測定も重要。既存の解析ツールに独自のTwitter専用の解析ツールを開発して利用している。
・投資が必要と思われるだろうが、プラットフォームよりコンテンツにより投資すべき。
。。。クライアントに大企業が多いだけあり、かなりお金をかけて取り組んでいるようですね。大手?がここまで既に取り組んでいるとは。日本でここまで取り組んでいく代理店は出てくるのでしょうか。
—
。。。以上です。ブログのオートメーションとメールのオートメーションの両方の要素が合わさったような感じですね。まだまだ進化の過程にあるとは思いますが。オートメーションと聞くと、ついスパム的な発想をしてしまいますが、メール会員に登録した際に送るThank youメールもオートメーションですし。部分的に使えばかなり効率的かもですね。と言うか、Twitterがもっと普及すればオートメーションって範囲はともかく絶対に必要になってきそうです。
僕のTwitterの知識、特にオートメーションに関してはかなり足りないこともあり、知識を吸収しながらメモを取っていたので非常に疲れました。。。参考になる記事になっているか不安ですが、内容は豊富だったので幾つか小ネタはあればと。
あ、これでSES London終了です!数日以内に別途、全体の感想を記事にまとめようと思います。余り推敲もしていない記事ばかりでしたが、リアルタイム感を伝えたく。読んで下さった皆さま、ありがとうございましたm(_ _)m
15 years 8ヶ月 ago
午後のセッション「Why Does Search Get all the Credit?」。モデレーターはFoviance applied insightsのニール・メイソン。パネリストはClearSaleingのアダム・ゴールドバーグ、iProspectのマルセロ・サンチアゴ。iProspectってかつて世界最大のSEM会社の1社だったと思います。どこかの大手広告会社に40億位で買収されて話題になりました。もちろん最先端を走っている会社なんでしょうけど、久々に聞きましたね。
まず最初にニール・メイソン氏。初めに
「The Purchase Path」(購買パス)
と言う概念を紹介。トレードマーク取ってます。
購買パスを調べて問題点を明らかにし、問題点を改善していくことが重要と。購買パスには心理的には最終的な購買までに4つのプロセスを踏む。
興味
↓
検索
↓
検討
↓
購買決定
↓
購買
実際のネット上の遷移は色々ある。実際に購買までに実例のパターンには色々ある。
Froogle → アドワーズ
直接訪問 → 比較サイト
メール→メール→検索
などなど。
購買パスの遷移を実例分析すると色々なことが見えてくる。
例えば下記のデータがある:
—
パスパターン 22
検索で始まる 5
検索で終わる 11
パスのステップ 66
パス中の検索 26
—
パスパターン 10
最後がブランド検索の検索 7
最後がブランド以外の検索 3
—
最後が検索、特にブランド検索で終わるパターンが多い。
また別に実例を見てみると下記のデータがある;
—
パスパターン 22
検索で始まる 6
検索で終わる 61
パスのステップ 73
パス中の検索 11
直接訪問で終わる 11
—
この種の分析で言えることは、バナー広告は見られているしれないがクリックされずにデータに残るケースもある、と言うこと。この点は注意しないといけない。
また別のデータ:
—
購買数 31
ブランド検索で終わる 17
ブランド以外の検索で終わる 13
—
最終的に検索で購買するパターンが大半。途中でバナー広告を見ていたケースもある。しかし最終行動の時点ではクリックされないケースが多い。
また別のデータ:
—
パス 22
検索で始まる 5
検索で終わる 8
パスのステップ 47
パス中の検索 14
アフィリエイトで始まる 0
アフィリエイトで終わる 9
—
アフィリエイトのトラッキングの関係で始まった数値が測定されていない可能性がある。
—
この種の効果測定の手法は現在、進化し続けている。
最後のクリック
↓
全クリックを均等に評価
↓
特定のクリックを排除(例:30日以前)
↓
ルールベース(最後のクリックが50%、他は均等、など)
↓
より高度なアルゴリズム
この分析ができればできる程、広告の費用対効果が正確に測定できる。
—
最後に、何故検索が全ての評価を得るのか?を再度まとめ。
1) 最後のクリック vs 購買パス
2) 技術的な課題
3) ブランド検索が何故全ての評価を得るのか?
4) アフィリエイトが何故全ての評価を得ないのか?
5) 革命ではなく進化が必要
—
。。。以上でした。最後のまとめは良く分かりませんでしたが、、、、効果測定をどのように行うべきか、と言う話題は、初日のキーノートでもこの話題は出ていました。海外はもちろん、日本でもまだまだ最後のクリックをベースに効果測定を行っている会社がほとんどとは思いますが、今後重要になっていく分野なのは間違いないですね。特にソーシャルメディアの影響力を測るには不可欠の要素になっていくと思います。
—
さて次はiProspectのマルセロ・サンチアゴ氏。iProspectのブラジル支社の代表だそうです。
最初に広告業界の教祖?ジョン・ワナメーカー氏がかつて語った名言「広告費の半分は無駄になっている。しかしどの半分が無駄なのかは分からない。」を紹介。
—
そして「What Sticks」(何が刺さるか)アプローチが重要、と話します。
このアプローチに重要なのは下記:
・ゴールを共通化する
クライアントとエージェンシーの間で、またクライアントの組織間でもゴールを共通化することが重要。マーケティングキャンペーンの評価をする時に共通化されたゴールを元に、評価しなければ正しい評価が行えない。
・プランB、つまりバックアッププランを用意する
最初の施策がそのまま通じるとは限らない。常に別プランを用意すること。
・お金の価値を知ること
費用対効果、投資価値を常に念頭に置きながらキャンペーンを行うべき。
—
次にiProspectが考えるニューメディアのパラダイムを紹介。
メディアには3種類あると。
Bought / 購入メディア – いわゆる広告として購入するメディア。既存メディア含む。
Owned/ 所有メディア – 自社のウェブサイト。
Earned / 獲得(?)メディア – ソーシャルメディア。ブログやSNS、Twitterの記事、レビュー。
メディアをこの3つの観点から考えるでき。
—
iprospectの調査では、
「67%の検索行動は、オフラインで何かを見た影響で行われている:
まだまだインターネット以外のメディアも重要。
しかし
「55%のマーケッターが、検索マーケティングとオフラインマーケティングを連動させていない」
(対象データ不明です)
でもある、と。
検索とオフラインまで行かなくとも、検索とディスプレイ広告を連動させるだけでも効果がある、と。実際にバナー広告と検索マーケティングを併用した方が効果的だと言う数字を紹介。
—
次に効果測定の方法について。
・オンラインとオフラインの購買行動の両方をトラッキングしているか?
・キャンセルされた購買をトラッキングのデータに含めているか?
Google Analyticsを使っている人は多いと思うが、正確にトラッキングできているか一階調べた方が良い。実際の購買数と、Analyticsで取得している購買数を定期的に比較すべき。
—
。。。最初の人に比べて、余りに幅広すぎる話題で参考になる情報が無かったです。iProspec、、、かつてのエッジさが無くなったのでしょうか。
—
次にQ&A。
Q.
購買パスのデータはどうやって取得しているのか?
A.
(ニール氏)自社開発したソフト。Cookieを使っている。
Q.
ネット広告の効果測定は余りに大量のデータが取れ、何を指標にしたら良いか分からないことがある。パネリストは何を指標にしているのか?
A.
(ニール氏)ケースバイケースだが、現状の測定方法では購買行動の直近のアクションに評価が集まりやすく、検索に評価が集まりやすい。データに出ないからと言って他の手法を完全に無視しないことが重要だ。説明したように、データの取得方法が無いわけではなく、そこから見えてくるものもある。
(マルセロ氏)僕はこの業界に15年以上、関わっているが時に重要なのはどれだけ単純化して考えられるか、と言うことだ。目的を明確にして余計な情報にまどわされないことも大事。
(マルセロ氏)インターネットが未だにニューメディアと言われることに改めて驚かされる。広告業界は中々進化しない。未だにTVの視聴率ばかり気にしているだけで、効果測定のことは全く考えない。
。。。僕の考えじゃありません!
Q.
購買パスを分析をした後に、効果があるパスが分かるとする。その後にユーザーに効果的なパスを通らせるにはどうしたら良いのか?
A.
(ニール氏)最終的にはユーザーの判断になり、全てコントロールできるわけではないが、出稿する広告媒体や検索キーワードの調整である程度対応することは可能だ。
(マルセロ氏)サイトを改善するのは大変だが、ランディングページで誘導先を絞るなどすることで、ある程度誘導したい遷移を辿らせることはできるだろう。
Q.
購買の評価をする時の「アルゴリズム」はどうやって決めるのか?
A.
(ニール氏)基本的には過去の購買パスを分析して適切と考えるアルゴリズムを研究するしかない。現状、試行錯誤しながら行っているのが現状。
—
以上でした。購買パスの分析と効果測定の考え方は、まさにこれから普及していく考え方でしょうね。繰り返しになりますけど、ソーシャルメディアの効果測定を正しくするには必須の技術・方法である気がします。
15 years 8ヶ月 ago
2010/3/2のcompeteのブログから。
ある車ブランドのディスプレイ広告での調査で、広告を見たグループは、ブランドの純粋想起や広告の記憶で上昇があったが、ブランド好感度は少し下がったという。マーケターはこれをどう解釈すべきだろうかということで、この記事では、実際のネットでのビュースルーや検索件数の上昇といった行動データも使おうと言っている。まあこれだけのことなんだけど、いろんな角度から定量定性データで検証すべしといったところか。
Hiromi.Ibukuro@gmail.com (衣袋 宏美(いぶくろ ひろみ))
15 years 8ヶ月 ago
Webサイトのアクセスログを解析するためには、専用のツールが必要です。今回はこのツールについて、それぞれの特徴と選択のポ...
15 years 8ヶ月 ago
本特集では、2008年に日本コカ・コーラのインターラクティブ・マーケティングを統括する江端 浩人氏にインタビューしました。そ?..
15 years 8ヶ月 ago
昨年 10 月に始動した
ウェブマスターツール Labs 、皆さん、ご利用いただいているでしょうか? ウェブマスターツール Labs には、「
不正なソフトウェアの詳細 」や「
サイトのパフォーマンス 」という機能と共に、「
Fetch as Googlebot 」というツールがあります。このツールをご利用いただくと、Googlebot がクロールしたコンテンツを見ることができます。つまり、Google がどのようにあなたのサイトを見ているかが確認出来る便利なツールなのです。
そんな「 Fetch as Googlebot 」に、Google のモバイルクロールについて確認するオプションを追加しました 。
Fetch as Gooblebot-Mobile
公開当初、「 Fetch as Googlebot 」はモバイルサイトに対応していませんでしたが、公開後、モバイル端末向けサイトを管理しているユーザーの方々から、「 Googlebot-Mobile でページがどのように取得されるか確認する機能が欲しい」という、多数のご要望をいただきました。このような声にお応えし、Fetch as Googlebot に「 Googlebot-Mobile 」 のオプションを追加しました。日本語サイトで使用されることの多い cHTML と XHTML/WML の 2 種類のクローラーに対応しています。
是非この機能を活用して、あなたのモバイルサイトが Google にどのようにクロールされているか確認してみてください。そしてもし、Googlebot がサイトにアクセスできていないなどの問題が見つかった場合は、以前掲載した記事の「
モバイルサイトを正しく Google に認識させるためには 」や「
Google モバイル検索についてのウェブマスター向け情報 ( Google Japan ブログに掲載 ) 」などを参考に、トラブルシューティングしてみてください。
ご意見、ご質問は
ウェブマスターヘルプフォーラム でお待ちしております。
Google のクローラーが、あなたのサイトのウェブページをどのように取得しているか、よりよくご理解いただくために、役立ていただければ幸いです。
Written by 今泉竜一, ソフトウェアエンジニア
15 years 8ヶ月 ago
Posted by 菅谷正樹 プロダクトスペシャリストチーム
平素より Google AdWords および AdWords API をご利用いただきありがとうございます。
AdWords API v200909 への移行期間が残り 50 日を切りました。以前からお知らせしている通り、大部分の v13 サービスは 2010年4月22日 (太平洋時間)をもって、ご利用いただけなくなります。4月22日以降、下記 v13 サービスはアクセスできなくなりますので、まだ移行が完了していないお客様は早めにご対応ください。
下記 v13 サービスにつきましては、同様の機能が v2009 サービスで利用可能になるまでは、継続してご利用いただけます。
上記 3 サービスにつきましては、同様の機能が利用可能になるまで、少なくとも 4ヶ月は猶予期間を設けますのでご安心ください。
既存の v13 サービスと新しい v2009 サービスを同時に利用する場合のサンプルコードを用意しました。お客様のアプリケーションの移行にご活用頂ければ幸いです。
noreply@blogger.com (Google Blog)
15 years 8ヶ月 ago
最終日、午前最後のセッションは「Duplicate Content & Multiple Site Issues」。重複コンテンツとミラーサイトの課題、と言うテーマ。昔からSESであるセッションですが、出たことが無かったのとパネリストが気になったので出てみました。
モデレーターはJoblr.netのアン・F・ケネディ。パネリストはXSEOのマット・ペインズ、deMib.comのミケル・スヴェンセン、オムニマーケティングのシャリー・トゥロゥ(Shari Thurow)、そして再びファントマスター!
ちなみにファントマスターは、クローキングのソフト&サービスを昔から売っている英語圏では有名なSEOのプロです(サイトはこちら)。クローキングと言うどちらかと言うとグレーゾーン~ブラックハットに近いSEO手法(本人はホワイトハットのつもりだと思いますが)を行っており、風貌も体もがっしりしており髭を伸ばして声も低く、ヒッピーと言うかグールー的なので(会場ではZZ Topと紹介されてました)有名な人です。
まずはオムニマーケティングのシャリー氏。この人も昔から本を書いたりセミナーで話しているベテランです。ホワイトハット派の人ですし、見た目も話し方も優しい感じで小学校の先生みたい。
ただし内容は重複コンテンツの危険性や対処法など基本的な話が多かったのでパス。1つ言えば「テンプレートが共通でも特に問題は無いが、実際のコンテンツが違うことが重要。」辺りですかね。逆に言えば、コンテンツが同じか似すぎていたらテンプレートが違っても意味が無い」と言うことでしょうか。
—
次にXSEOのマット・ペインズ。
・重複コンテンツのリスクは、ランキングが下がる可能性があると言うこと。
・通常は最後に認識されたコンテンツが優先して表示されやすい。逆に言えば、このロジックをブラックハット的に悪用すれば、他社のコンテンツページの順位を下げる手法も無いことはない。とは言え、コンテンツへのリンク評価が重要であることには変わりなく、効果は一時的。
・重複コンテンツで削除されたページがあると思った場合はGoogleにcacheが残っているか検索し、cacheが無ければ削除されたと思った方が良い
・アフィリエイトやセッションID等で重複ページが登録されてしまっている場合、ウェブマスターツール上で削除するなどの処置をした方が良い。
・www、www無し、IPの3つのアドレスでページをホスティングしているケースで、まれに順位が下がることがある。ホスティング会社の設定ミスの場合もあるが。www無しか有りのアドレスにそれ以外のケースは転送させた方が無難。
。。。ミニティップスと言う感じでした。最後のはそうなのかな。。?
—
そしてファントマスターの登場。
いきなり画面に変数を含んだHTMLテンプレートを投影。
—————–
#CARBRAND# の自動車販売
#CARBRAND# の自動車に関する情報、 #CARBRAND# の自動車のレビューはこちら。
(適当に訳しました)
—————–
SEO対策用にテンプレートを使えば簡単に大量のページが生成できる。専用ソフトも色々ある。しかし上記レベルの単純な変数の入れ替えでは、全てが重複ページとして判断されてしまう。テンプレートや変数の表示バリエーションを複雑にし、ページ毎の内容を重複コンテンツとして判断されないレベルまで変更する必要がある。
僕らがやる場合は、専用ソフトで文章のほぼ全てにバリエーションを設けてページ毎のコンテンツが全く違う内容に見えるような手法を取っている。
。。。初心者のためのドアページ作成方法、のような内容でしたが、話の内容は重複コンテンツと見なされないページを自動的にどうやって大量生成するか?と言う限りなくグレーゾーンに近い内容。流石のファントマスターでした。
日本もこの辺はワードサラダとかブログの自動投稿ソフトを中心にかなり進んでいますけどね。良いのか悪いのかはともかく。あ、僕の会社ではワードサラダとかブログの自動投稿はやっていませんので。全部が全部クリーンな手法です、とは胸を張りませんが 汗
—
最後にdeMib.comのミケル・スヴェンセン氏。重複ページと重複コンテンツの違いを説明。
重複ページ
・特定のコンテンツに複数のURLが存在する
・技術的な仕様でそうなっている場合が多い
重複コンテンツ
・同じコンテンツが全く違う複数のURLに存在する
・技術的な理由以外でなっている場合が多い
。。。なるほど。
そして重複ページの対処法を説明。
・ドメインはwww有りか無しに統一した方が良い。
・httpとhttpsは特に気をつけるべき、検索エンジンは未だに誤認識する場合がある。
・上記の問題を防ぐには、サイトのグローバルナビゲーションのリンクは絶対パスでhttp://から指定し、検索エンジンに正しいURLを伝えるようにする。
・パンくずナビゲーションのリンクのURLがユーザー繊維で同じページなのに変わってしまうケースはどちらかに統一する。
・セッションIDやアフィリエイトやキャンペーンIDは注意する。検索ロボットがアクセスしてきた場合は、外すか、?を#と入れ替える(Google Analyticsの設定で同一ページと見なせる)。
・ページがリクエストされた際に URL の形式をチェックし、本来と違う形式のURLであれば正しい形式のURLに301転送するスクリプトを作成し、サイトレベルで導入することも手法。
。。。シャリーさん以上にテクニカルなアドバイスを色々教えてくれました。なるほど、と言えばなるほど、なものもありますね。意外とやってませんが。。。と言うか、そこまでやる必要があるのか、と言う気もしますが。
—
最後にQ&A。
Q:
ファントマスターの手法は危険ではないか?インデックス削除されたらどうするんだ?
A:
(ファントマスター)サイトは1つである必要はない。100のサイトを作ればいいだけだろう。
。。。流石ファントマスター。
ここでモデレーターが「1つの高品質のサイトを作る方が良いのでは?」と突っ込み。ファントマスターの答えは:
僕は決してブラックハットの話だけをしているわけではない。この手法は使い方によっては、重複コンテンツと判断されないで効率的にサイトを構築することができる。
。。。でした。さらに今の質問に重ねて次の質問。
Q:
複数のサイトを作るのは結果的に非効率的にならないか?
A:
(ファントマスター)100は言いすぎかもしれないが、要はやり方次第。
。。。それはそうなんですけど。
Q:
海外の支社が別言語のサイトを作る際に、会社情報以外のコンテンツに関しては本社の英語コンテンツを使いたいと言うのだが、重複コンテンツと見なされないか?
A:
(スヴェンセン)結論から言うと、そのまま使わせてはいけない。楽にコンテンツを流用しようとしているだけだし、Googleからのトラフィックを期待しているだけ。どちらにしても検索結果に両方のページが出ることは無い。オリジナルのコンテンツを作ってもらうべき。
—-
上には書きませんでしたが、Q&Aの途中で、シャリーが「今日の内容で私がホワイトハット、ファントマスターはブラックハットと考えるのは止めてほしい。ファントマスターは非常に賢い人。とても尊敬しているし、私も状況によってはクローキングをすることもある。」と言っていたことが印象的でした。ファントマスターが「ブラックハットと言われても気にしないけど。」と答えてましたが 笑
内容は特に得るものがあったわけではないですが、パネリストの話が同じくSEO業界のベテランとしては楽しかったです。
15 years 8ヶ月 ago
タイトルがイマイチですが原題が「Introduction to Information Retrieval on the Web」なので。SES運営会社であるインサイシブ・メディアのコンテンツ部門副社長であるマイク・グレハンがプレゼン形式で。
この人、確か元々結構有名な人な気が。。。数年前にSESで講演聞いたことあるような。ま、いいですか。
—
まずインパクトのある一言。
「Googleは世界中のありとあらゆる情報に簡単にアクセスできるようにする、と言っているが、十分に成功しているとは言えない。」
そしてワールド・ワイド・ウェブや検索エンジンの仕組みを紹介。久々に聞きました。。。内容は細かい&大体の人は知っていると思うのでスキップします。
以下、話の流れに沿ってポイントを。
・Googleは常にウェブの情報を収集し、また更新しようとする。何故ならウェブは常に拡大し続けている。
・検索エンジンのロボットはリンクを辿ってテキスト情報を収集する。それだけ。
・SEOはいかにGoogleに情報を効率的に取得させるかと言う作業。
・検索エンジンの情報解析の仕組みを理解すれば、必要とされるSEOは自然と明らかになる。「検索エンジンに理解されやすいページ」、いわゆる「サーチフレンドリーページ」をコーディングするテクニックは10年前から存在する。キーワードをTITLE、ヘッドライン、ボディコピーに特定のタグに記述する。グローバルナビゲーションを付ける、など。
しかしページの内容は誰でも自由に記述することができる。キーワードを詰め込んだページは簡単に作成できる。どの情報が正しいのか?
クラインバーグと言う科学者がリンク分析の概念を発明した。アルタビスタ(当時人気の検索エンジン)で「Search Engine」で検索してもアルタビスタが結果に出ない。日本の自動車メーカーについて検索してもTOYOTAやHONDAが検索結果に出ない。ページの内容以外の評価指標が必要と考えた。
そこでリンク分析の概念ができた。リンクを受けているページは信頼性が高いのでは?またページ同士の関連性もあるのでは?インターネット全体のリンク分析をしてみると、インターネットには、リンクの中心となるハブやオーソリティ的なサイトがあり、其々に特定の情報に関するコミュニティがあることが分かった。
それを検索エンジンのアルゴリズムに本格的に導入したのがGoogle。
—
そしてリンク対策がSEOの重要な作業となった。
—
そして様々な会社が「クリエイティブなリンクの取得方法」を考えてSEOを実施してきた。
・・・
現在のSEOは、
・HTMLページのテキスト
・リンクデータとアンカーテキスト
に加えて、
・ソーシャルメディア – タギング、ブックマーキング、レビューなど
も重要になってきた。しかしもっと進化していく必要がある。
・・・
ここでインターネットユーザーについて考えてみたい。ユーザーの行動には3種類ある:
1. インフォメーショナル – 情報を収集している
2. ナビゲーショナル – 訪問したいサイトが決まっている
3. トランザクショナル – 特定のアクションを行う
ユーザーの行動データには下記の2種類がある:
・ユーザーの検索キーワード
・ユーザーのページ遷移
Googleは上記を分析して検索結果の有益性を調べることができるまで進化している。
検索エンジン上での検索クエリーや検索結果のクリック率や滞在時間を分析しているだけではない。Googleツールバーを使っている人も多いだろうが、ツールバーがどれだけの情報をGoogleに供給しているか考えたことがあるだろうか?
・・・
さらにユーザーの意図まで理解することができるだろうか?
Googleは例えばこんな仮説を立てることができる。商品購入に関するキーワード検索(例:「パソコン 通販」など)が行われた場合、そもそもオルガニック検索の結果を出す必要があるのだろうか?全てアドワーズの商品広告でも良いのかもしれない。
実際にGoogleはそういう実験をしている。アドワーズの広告にプラスボタンを追加して、それをクリックすると、広告エリアが広がって商品写真とリンクで画面がいっぱいになる。オルガニック検索を出すことにこだわるよりユーザーにとっても便利かもしれない。
・・・
検索の未来はどうなる?
・UGC(ユーザー生成コンテンツ)とプロが作ったコンテンツの比率は5:1。圧倒的にUGCが多い。
・検索体験はもっと進化し便利になる。
・様々な種類の情報への需要が広がる。
・フィードバックのループによる改善が続く。
一番の変化はソーシャルネットワークで情報を探す行動が格段に増えること、かもしれない。既にYoutubeの検索回数はGoogleを超えるかも。ユーザーによるQ&Aサイトもニーズが高まっている(Naverを紹介)。
—
今後、ますます下記が加速化していく:
・ローカル、モバイル、ソーシャル、マルチメディア検索が統合されていく。
・ネット上のソーシャルコミュニティが生み出す情報が一方的なブランドメッセージのカウンターバランスとなる。
・アプリケーションが特定の情報を配信するツールとしてウェブブラウザーに置き換わる。
マーケティング手法も多様化せざるえない。
・・・
最後にYahoo!のサーチリサーチ部門副社長の「「HTMLとHTTPが、現在のコンテンツ流通の仕組みに適しているかは疑問だ」と言うコメントを紹介して終了。
・・・
。。。短期間で一気にウェブと検索エンジンの歴史、そして未来をSEOやマーケティングと関連付けて話してくれました。色々考えさせられることはありますが、まとめる言葉まで消化できてません。ただSEOに限定せずウェブの分野で新しい新規ビジネスを考えたくなるような内容でした!個人的にはキーノートよりはるかに示唆に富んでいて良かったです。
15 years 8ヶ月 ago
さて、いよいよSES London最終日です。今日は長丁場で頑張ろー。最初のキーノートは、ウェブ解析業界の重鎮、ジム・スターン氏による「Social Media Metrics」。ウェブマーケティング系のベストセラーを何冊も書いています。このMetricsと言う単語、日本語でどう訳すのがベストなのでしょうか。。。効果指標?固いのでタイトルは効果測定方法と意訳してみました。
ちなみに同じ名前の本を5月に発売するそうです。色々なトピックについて立て続けに話していったので要点をまとめて。
■マーケティングとは?
マーケティングは、羊とニワトリだ、と。
「羊を買うのにニワトリが一羽では足りない。二羽でも足りない。四羽で足りた。」
そこにはネゴシエーションとコミュニケーションがあった。それがマーケティングだ。
しかし大量生産、流通、マスメディアの現代、マーケティングは、声を荒げて自社の製品サービスを目立たせるだけ目立たす行為に変わった。
■データとは?
インターネットにはサーバーログからアクセス解析ソフト、アイトラッキングまで大量のデータが存在し、取得することができる。現在の技術を使えば、大半の、大量のデータを測定することができる。
より多くのデータを取得することが重要では無い。重要なのはデータの意味を理解し、分析すること。
■ソーシャルメディアの定義
ジム氏の考えるソーシャルメディアの定義。
「コンテンツを簡単に流通させるプラットフォーム全て」
オンラインのツールに限定されない。電話もその一種。駅の掲示板もその一種。
ソーシャルメディアはインターネットで急激に拡大しており、今後、人間のコミュニケーションの中心メディアになる。
■効果測定のゴール
ビジネスには3つのゴールがある。
1. もっと収益を上げる
2. コストを下げる
3. 顧客を幸せにする
そして顧客に対するのサブゴールは下記:
注目させる。
教育する。
広告を打つ。
マーケティングする。
販売する。
助ける。
カスタマーサービス。
関係する。
ソーシャルメディアは「関係」に強いが全てに利用できる。
評価指標の基準は下記:
リーチ – 対象顧客にどこまでリーチできるか
フリーケンシー – 何度、顧客にリーチするか
効果測定はどうする?
高速道路の看板を実際に見られているのか良く分からない。
ネットのバナー広告も同様。
↓
ブロゴスフィアを分析すると、ある程度の測定はできる。
ブログ自身の効果測定もRSSの購読者や記事の閲覧数である程度測定できる。
↓
そしてTwitter。Twittersphere(ツイッタースフィア)の分析でリーチやフリーケンシーの分析もある程度できる。
↓
これらにどれだけの意味があるのか?
■「アウェアネス」(Awareness / 認知度)の分析
・ブランド認知度
・ブランドで喚起される属性と質
ケンタッキー・フライド・チキンだったら、カーネル・サンダースのロゴがケンタッキーのロゴと認知されるか。どんなイメージが一緒に想起されるか。安い、美味しい、手軽、早い、指をなめる、など。
■口コミの力
口コミを活用すると一気にリーチ、フリーケンシーとアウェアネスは、拡げることができる。YouTubeのビデオが代表的。対してお金をかけずに作ったビデオが一か月で何百万人の人に見られる。
しかしその価値はどの程度あるのか?
それがどのように顧客・ユーザーに受け止められたかが重要。
ポジティブか?
ネガティブか?
最新のネット技術やサービスを利用すれば、ブロゴスフィアやTwitterの投稿を分析し、特定のブランドに関する内容の投稿数、そしてそれがポジティブかネガティブな内容か、と言うことまである程度、自動で解析することができる。通常は投稿内容に含まれたキーワードや文章を解析することで判断するが、しかし精度はまだまだ高いとは言えない。
(とある英語の自動解析サービスで「オバマ」についての自動解析を紹介し、半分程度の解析が間違っていることを説明)
様々なテクノロジーが存在し、研究がなされてきたが、文章解析のレベルはまだまだ低く、顧客の「態度」を正しく測定することは難しい。
■インフルエンサーの特定
ソーシャルメディアで重要とされるインフルエンサーを調べる方法もある。ブログであればRSSの購読者数やリンク数で分析できる。Twitterであればフォロワーやリツイート数で分析できる。
これらのデータをマッピングして分析すると、色々面白いデータを見つけることができる。
人の関係にも、話題の分析にも使える。
インフルエンサーは記憶に残り続ける、影響力を持ち続ける人もいるが、多くは常に移り変わる。亡くなっても影響力のあるマイケル・ジャクソンは特別。
■ソーシャルアクションとビジネスアクション
ソーシャルアクションには色々ある:
訪問
クリック
リツイート
ブログの投稿
ブログのコメント
レビュー
ブックマーク
これらをビジネスアクションにつながる必要がある:
購読
登録
購入
リピート購入
・
・
■ソーシャルメディアに参加する価値
10,000人がシャンプーについて会話しているとする。
新しい顧客の生涯価値(ライフタイムバリュー / LTV)が$29(利益)とする。
会話に参加することで、5%が顧客になるとする。
そのうち5%がリピート顧客になるとする。
・
・
・
参加価値があるか計算できる。
・・・
そして最後に締めの一言。
マーケティングは羊と最初に言った。羊をブランディングするか、ダイレクトセールスするか方法は色々あり、効果測定の方法は色々あるが、重要なのは顧客と関係することだ。
—-
。。。余り具体的な話では無く、それぞれ知っていることばかりだったので、正直、あまりピンとくるものが無かったのですが、測定自身が目的では無い、ソーシャルメディアで重要なのは顧客と関係を築いていくことだ、と言う基本的な考えを再認識する上では良かったですかね。
15 years 8ヶ月 ago
原題は「Link Building Methods and Risks」。We Build Pageのジム・ボイキン。CEO兼リード・ニンジャだそうです。SESのイベントで良く話している人ですね。
最初に「会場にGoogleで働いている人はいないよね?」と軽く笑いを誘ってスタート。2002年から7年以上、「Internet Marketing」でGoogle1ページ目のいることが自慢らしい 笑 コンテンツとリンクのスペシャリストだそうです。スタッフが35人いるらしいので、それなりの規模でやっているようですね。
ちなみにジム氏の会社では、2008年末まではリンクを買っていたそうですが、それ以降は買っていないそうです。
とは言え、ビッグワードで上位表示するにはリンクを買わないと無理、とも言い切りました。
。。。アメリカのSEOスペシャリストが言い切るとは。
—
しかし有料リンクにはリスクもある。有料リンクがペナルティを受けるリスクは常にある。正直、リスクは低い。ビッグワードで上位表示されているサイトの被リンクを見れば大半のサイトがリンクを買っていることは明らか。
リンクを買うことのリスクは色々ある:
1. Googleの有料リンクのフィルターに直接ひっかかる
2. 有料リンクのブローカーのネットワーク自身がペナルティの対象になり、リンク購入者までペナルティの対象になる
3. 誰かがブログであなたの有料リンクを公開し、Googleが自身が恥をかかないようにリンクを購入しているあなたのサイトをペナライズする
4. 難関ビッグワードで1位になった結果、競合があなたのサイトをGoogleにSPAMレポートしてペナライズされる
5. 特定のサイトから1,000のリンクを一晩で受けてペナライズされる
6. 自然なバックリンクが一つもなくてペナライズされる
などなど。
。。。正直、都市伝説的な要素も多そうですが・・・?
—
次に仮にペナルティを受けた際の対象方法を説明。
基本はGoogleにレポートするしかない。ペナルティの対象になったと思われるリンクはできるだけ外し、自分が無知だったことを説明する。SEO業者に騙されたと言うのも手。二度とやらないのでペナルティを外してください、と頼み込む。
それでも駄目なら会社の社長があなたを首にして社長自らGoogleに再度頼むしかない、そこまですれば対応してくれるかも。
。。。だそうです。
—
ここで有料リンクに関するQ&A。
Q:
もしも有料リンクを買うならどこで買うべきか?
A:
ブローカーも直接買ってもリスクはある。幾つか多分大丈夫な所もあるが、、、後でお酒をおごってくれたら教えても良いけど 笑(質問者は可愛い女性)
Q:
Yahoo!ディレクトリは有料リンクじゃないのか?
A:
有料リンクに間違いない。Googleが問題視しないのは謎。ネットに存在するほぼ全てのディレクトリはSEO目的で利用されている。ちなみにマット・カッツは数カ月前に、ディレクトリ登録するなら Yahoo! と Best of the Web は安全と言っていた。理由は人がレビューしているからだそう。それが理由で良いのか、と言う感じだが。
。。。日本でもYahoo!も含めてほぼ全てのディレクトリがSEO対策で利用されていますよね。それ言いだしたら全てのサイトが有料リンク買ってることになるけど。
Q:
急にリンクを増やすとペナルティにひっかかるのか?
A:
Googleは1日に何千もリンクが増えれば絶対に判別できる。ただリンクが張られたサイトをペナライズすると言うよりは、リンクの評価をしない対応を取るだろう。リンクの数で言うと僕の顧客で最大の顧客でも自然なリンクは一カ月に80程度。
。。。ソーシャルメディア入れたら一晩で数百リンク獲得も可能とは思いますけどね。ドメイン単位で考えれば上の通りかな。
Q:
ブロガーに記事を書いてもらう手法は効果があるのか?
A:
いろいろ言われているが意外とある。しかしフィルターにかかる可能性もあるし、特にお金を払って書いてもらう時は注意する必要がある。
。。。日本でも一時流行りましたが、もうダメですよね。
Q:
プレスリリースのSEO効果はあるのか?
A:
ある。しかしリンクを大量に得れると言ってもリリースの内容は同じでダプリケイトコンテンツでもある。全てのリリースからのリンクがそのまま評価されるとは思わない。
—
そして有料リンクの締めに再度一言。
最後に言っておくと、有料リンクを買わない決断をした場合は、結論から言うと現状はビッグワードでの上位表示は諦めた方がよい。ロングテールで勝負する覚悟をした方が良い。
。。。全てが全てそうとも限りませんが、、、ただそういう面はあるのも事実。だからうちのようなSEO会社もリンク対策をやる、と言うかやらざるえないんですけど。良くも悪くも
—
次にトラストランクの話。
ドメインが古かったり、古いドメイン、特に教育関係のドメインからリンクを得ているサイトの評価は「トラストランク」が高い。ページランクの概念はもう古い。
トラストランクの高いページを作ることが大事。例えば自分たちがリンクキャンペーンを行った場合、下記のような教育・政府系のリンクを平均的に得ている:
23% edu
21% org
5.5% k12
4% ac.uk
1.5% gov
残りはそれ以外
なんでここまで教育系のリンクが得られるのか?
そこで重要になるのが「トラストベイト」の概念。
皆も知っているであろう「リンクベイト」とは違う。
リンクベイトは、大量にリンクを集めることを意識したブログコンテンツを作成すること。リンクベイトの記事は内容に価値がなく一時的に消費されて終わってしまうコンテンツも多い。
「トラストベイト」はもっと質が高い。
基本的に学生と研究者がターゲット。
リンクの対象は、1998年以前のサイト、ブログ以外のサイト。
ここをターゲットにすることでトラストランクの高いサイトからのリンクを得ることができ、結果的に順位も上がる。
例えばGoogleで「pool safety(プールの安全性)」と言うキーワードの検索結果を見てみる。
#1 – 39リンク
#2 – 89リンク
#5 – 94リンク
#1のサイト程、リンク数は少ないが、トラストランクの高いサイトからのリンクが多い。とは言えどれも元々さほどリンクが多く無い。逆に言うと新たにページを作っても、努力次第でこれ以上のトラストランクの高いサイトからのリンクを得ることは不可能では無い。
実際に行う手順、まずは上位表示されているページより質の良いコンテンツを含んだページを作成し、リンクをしているサイトにメールしてリンクを張ってもらう。一見、大変と思うが、リンク先の数が少ないので作業的にはそれほど大変ではない。
実際に実施した場合、依頼した5%以上のサイトがリンクを張ってくれる。
「トラストベイト」になりうるコンテンツは、特定の情報に関して、ネット上に既に存在する有益な情報ページへのリンクを上手にまとめたページを作成するのが効果的。
。。。ブログのリンクベイトと余り変わらない気もしますが。日本でも最近多いですよね。いわゆる「まとめページ」の範囲でしょうか。リンクを獲得する対象をより検索エンジンの評価が高いと思われる教育系のドメインや古いサイト、つまりトラストランクの高いサイトをターゲットにしている点が違いですかね。しかし、上げたいキーワードによっては難しそうなケースもありそうですが。。。とは言えコンセプトは面白いです。
—
次に内部リンクの話。1ページからリンクの数を張れば張るほど、各ページに伝わる評価は落ちる。重要なページを意識してリンクを張る必要があると。
また同じサイトの複数のページから特定のページにリンクを張る時は可能であればいくつかの違うアンカーテキストで張った方が効果が高いと。
。。。普通の話でした。
—
。。。以上。1時間、ひたすらリンクの話と言うのも珍しいし貴重なセッションですね。有料リンクだけのセッションも聞いてみたい所です。有料リンクを今も買っている・使っている人を別に立ててディベートとか。まぁ、リスクがあるからやるかどうかはその人次第、と言う結論にはなりそうですが。
15 years 8ヶ月 ago
千里金蘭大学(児童学科)によるこどもコラボプロジェクト「世界でひとつの絵本をつくろう!」。絵本に出てくる主人公の気持ちをイメージしてオリジナルストーリーを作成...
15 years 8ヶ月 ago
「アメーバピグ」と「ペプシネックス」がコラボで期間限定「ペプシネックス」キャンペーンをアメーバピグで展開。「ペプシネックス」のオリジナルアイテムが用意されてい...
15 years 8ヶ月 ago
Yahoo! JAPANを運営するヤフー株式会社は4月1日より、ライトメディアが運営するオークションベースのオンライン広告取引プラットフォーム「Right Me...
15 years 8ヶ月 ago
米Googleは3月1日、オンライン写真編集サービスの米Picnikの買収を完了したと発表した。買収総額などの詳細は非公表。買収により、傘下の写真共有サービスP...
15 years 8ヶ月 ago
株式会社電通は、中国市場に事業進出する日系クライアントの事業戦略立案や販売戦略の立案、実施管理などのマーケティング活動支援事業を行う新会社「株式会社電通マーケテ...
15 years 8ヶ月 ago
生活者視点の次世代ソリューションにおけるプランニング実績や知見を持つ専門スタッフを、組織の壁を越え結集させ、複雑化するクライアント企業の悩みにソリューションを提...
15 years 8ヶ月 ago
プロトコーポレーション「Goo」。佐々木希さんの出演するテレビ広告に出てきた謎のキャラクター「鬼店長」のブログがあったりする。
noreply@blogger.com (Kenji)
15 years 8ヶ月 ago
ネットレイティングスのメルマガNielsen Online REPORTER 2010年3月2日号による。 http://www.netratings.co.jp/hot_off/reporter_archive.html
ほぼそのまま転載です。 ブランド物の服を通販サイトで購入したことがあるだろうか?試着ができない、荷物の受け取りが面倒などの理由から服を通販サイトでは...と敬遠している人がいるかもしれない。かくいう筆者もその一人であったが、気に入ったブランドの服を取り扱っていた実店舗がなくなり、最終手段として通販サイトを頼ってからは、服が届いた時の喜びが勝り、利用することへの抵抗感はなくなった。そんな筆者みたいな利用者の状況を反映したわけではないだろうが、ファッションを中心とした通販サイトZOZOTOWNが躍進を続けている。
ZOZOTOWNとはUNITED ARROWS、BEAMS、STUSSY等の若者に人気があるファッションブランドを多数取り揃えたファッション通販サイトである。2010年2月末現在で1,014ものブランドを取り扱っている。(ZOZOTOWNホームページより)----------------------- 利用者数推移(千人) ----------------------
サブドメイン 09年11月 09年12月 10年1月
zozo.jp 1,282 1,717 2,664 --------------------------------------------------------------------Source:Nielsen Online NetView2009年11月~2010年1月 家庭と職場からのアクセスインターネット視聴率でZOZOTOWNの利用者数推移をみると、2009年12月以前より増加していたが、2009年12月から2010年1月にかけて前月比55%とさらに利用者を伸ばしていた。この伸びを見るとテレビCMや Web広告の影響力を感じずにはいられない。そしてもう一つの特徴は利用者数だけでなく利用時間も伸びていたことである。----------------- 1訪問あたりの平均利用時間推移(分) -----------
サブドメイン 09年11月 09年12月 10年1月
zozo.jp 9 8 18
--------------------------------------------------------------------Source:Nielsen Online NetView2009年11月~2010年1月 家庭と職場からのアクセス上記は1訪問あたりの平均利用時間の推移だが、利用者が急増した2010年1月に前月比125%増とこちらも大幅に増加していた。通販サイトが利用者数を伸ばした場合よくあるのが、1訪問あたり平均利用時間が下がることである。これは通販サイトが実施したキャンペーン等により人がたくさん集まるのだが、集まった層の多くはそのキャンペーンに興味がある一見さんで、サイト自体をじっくり見ることなく帰る。結果 1訪問あたりの平均利用時間が短くなるのである。しかしZOZOTOWNは1訪問あたりの平均利用時間も伸びたことから、集まった訪問者はすぐ帰らず、じっくりサイトを利用していったことが伺える。ちなみに2010年1月に最も人気があったページは商品検索ページでZOZOTOWN利用者の7割以上が利用、次いで人気があったのは冬季セール「WINTER BOMB A SALE」のページで約6割に利用されていた。
現在1,014ブランドあるZOZOTOWNだが、今でも毎月いくつものショップがオープンしており、常に利用者を飽きさせない。そういった着実なブランドの増加があったからこそ、今回訪問した人は惹きつけられ、利用時間の増加という結果に結びついたのかもしれない。
※本稿で述べているZOZOTOWNの視聴率データにはZOZORESORT(zozo.jp)へのアクセス数も含まれます。Nielsen Online Reporterより転載。転載許諾No.07012007-001
Hiromi.Ibukuro@gmail.com (衣袋 宏美(いぶくろ ひろみ))
15 years 8ヶ月 ago
2010 年 3 月 1 日
Posted by 武内 啓恵 クライアント サービス
お客様からはよく下記のような、アカウント管理に関するお問い合わせを頂戴します。
質問 A:「現在Google Analyticsを利用しています。先日新しいウェブ サイトを開設したためそちらでも Google Analytics を利用したいと考えています。知人に相談すると新しいアカウントを取得した方がよいと言われたのですが、メールアドレスを別途用意する必要があるでしょうか。」
質問 B:「AdWords アカウントと 2つの Analytics アカウント(UA-XXXXX-3、UA-XXXXX-5。XXXXXは同じ数字) を連携することは可能ですか?」
質問 A はアカウントとログイン メールアドレスを混同なさっているケースです。質問 B はアカウントとプロファイルを混同なさっているケースになります。アカウントの効率的な管理にはこれらの概念の正しい理解が必要になります。そこで今回はアカウントを構成する 3 つの要素について解説させていただきます。
* アカウントの概要Google Analytics におけるアカウントとはアカウント毎に個別につけられる番号で管理されています。具体的には
ウェブ プロパティ ID (UA-XXXX-Y) の XXXX で管理しています。Y の部分はプロファイル番号になります。このプロファイルは 1 アカウントにつき最大 50 まで作成することが可能です。なお、ログインの際にこのウェブプロパティ ID を意識していただく必要はなく、ログイン操作はアカウントに登録されているメールアドレスとパスワードで行います。
[ クリックすると画像が大きくなります ]
* ログイン メールアドレス ( Google アカウント)Google Analytics はログイン用の ID に、Google アカウントに登録されたメールアドレスを使用しています。このGoogle アカウントは、Gmailやカレンダー、Blogger など多くの 製品で、ユーザーを認証するために使用されています。Google アカウントの詳細につきましては
こちらをご覧ください。
Google Analytics では上図のように、このログイン メールアドレスを複数のアカウントに登録することができます。一度 Analytics にログインすれば画面右上のプルダウン メニュー [Analytics アカウント] から登録済みの他のアカウントに切り替える事ができます。
*アカウントアカウントは複数のプロファイルの集合です。1 つのアカウントに最大 50 個のプロファイルを作成することが可能です。また1 つのアカウントにはユーザーとして複数のログイン メールアドレスを登録できます。この際、管理者権限とレポート閲覧権限の 2 つのユーザー権限を選択することができます。管理者権限は全てのプロファイル設定を編集することができます。レポート閲覧権限は、特定のプロファイルのレポートを閲覧することはできますが、諸設定の編集はできません。このユーザーの権限設定の詳細につきましては
こちらをご覧ください。
* プロファイルプロファイルとは、レポートビューとレポートを定義する諸設定を指します。 設定にはコンバージョンの目標やフィルタ、デフォルトのページ等が含まれます。特にコンバージョンの目標やフィルタの設定によって、レポートに表示されるデータは大きく変わります。このプロファイルの詳細につきましては
こちらをご覧ください。
またプロファイルには、新規プロファイルと既存のプロファイルを複製したプロファイルの2種類があります。これはプロファイルを作成する際、下図のラジオボタンで選択することができます。
・新規プロファイル通常 1 つのアカウント内で複数のウェブサイトをトラッキングする場合、サイトごとに新規のプロファイルを作成します。新規プロファイル作成方法の詳細につきましては
こちらをご覧ください。
・複製したプロファイル1 つのプロファイルで 21 個以上の
コンバージョンの目標を設定する場合はプロファイルを複製することで、新たに 20 個の目標をトラッキングすることができます。また、
フィルタ機能を活用してデータを加工する場合は、フィルタ用のプロファイルを複製することをお勧めしています。プロファイルの複製方法の詳細は
こちらをご覧ください。
noreply@blogger.com (Google Analytics Team)