15 years 9ヶ月 ago
午後の二つ目のセッションは原題「Universal & Blended Search Opportunities」。SES Londonでも幾つか話題になったユニバーサル検索の話。モデレーターはSearch Engine Guideのジェニファー・レイコック。パネリストはPerformicsのエリック・パプズン(Papczun)、Dream Systems Mediaのマット・シルタラ、PRWebのジヤン・ウェイ。
まずはDream Systems Mediaのマット・シルタラがブレンド検索の基本を。
特定の質問に対してインターネット上には様々な回答になる・参考になる情報が溢れている。ウェブサイト、Twitter、映像、画像、Q&A、ブログの記事、レビュー、などなど。
検索結果のブレンド・メディア(Blendid Media)。
例えば人の名前で検索すると、ウェブページの結果一覧に加えて、、、その人の写真が同時に表示されることがある。映像が表示されることもある。ニュースの結果が出ることもある。
商品名で検索すると、商品ページが通常の検索結果と個別に表示されることがある。ブログの記事が通常の検索結果と個別に表示されることがある。
書籍の情報が個別に表示されることがある。
地図と近隣の店舗情報が表示されることがある。
Twitterのつぶやきが表示されることがある。
ソーシャル・サークルから友達の写真やブログ、メールが表示されることがある。
。。。と、実際のGoogleの検索結果画面を見せながら一通り説明。最後に下記のコメントで終わりました。まずは基本の紹介ですかね。
通常の検索結果以外の箇所に露出していきたい時は、インターネット上の様々なメディアを活用していく必要がある。
活用のヒントは色々ある。例えばQ&Aサイトでキーワード検索をし、Q&Aに表示される内容からユーザーニーズを考えてみることもできる。
—
次にPerformicsのエリック・パプズン(Papczun)。大手SEMエージェンシーですね。
ユニバーサル検索のトレンドについて。人によってユニバール検索と言う人とブレンド検索と言う人がいますね。明確な違いは無さそうな感じです。
ユニバーサル検索の利用者の調査を行うと、ユニバーサル検索経由で画像や映像を見つけた人は利用率が通常より高い傾向がある。
ローカル検索は確実に店舗への実際の来店を促進している。
ローカル検索をした人の37%が実際の店舗に訪問している。
2008年にモバイル検索の28%がローカル検索だったが、2013年までに35%になると予測している。
ユニバーサル検索を効果的に活用にするには、「ユニバーサル・ブランド・マネッジメント」の概念が重要。特に下記の3指標が重要:
・レピュテーション管理
・ブランド認知
・ローカル検索経由の来店促進
例えばGoogleで「McDonalds」(マクドナルド)で検索してみる。1ページ目で会社のサイトやローカル検索の結果が表示されるが、画像の一部にひどい内容の画像が表示されている(太った水着の女性が二人)。こういうケースではこの画像より優先表示させるマクドナルドの関連画像を用意すべき。
ウォルマートで検索すると、「ターゲット(競合)がウォルマートよりはるかに良い!」と言うTwitterのつぶやきが出てきた。
United Airline(ユナイテド空港)で検索するとネガティブサイトが1位に表示される。
ユニバーサル検索は利用率が増えているにも関わらず、対応がきちんとされていない場合が多い。今後ますます重要性を増していくだろう。
。。。前半のデータは興味深いですね。もう少し掘り下げて聞きたかったです。実は最後に画像&映像検索、ローカル検索、リアルタイム検索、レピュテーションマネッジメントのポイントを10個ずつ3分で紹介してくれたのですがとてもメモれず、、後で資料が入手できればまた紹介します。
—
最後にPRWebのジヤン・ウェイ。PR会社だけあってニュース検索に特化したユニバーサル検索の活用法を紹介。
事実1:
ユーザーはブレンド検索のニュースに気にしている
・・・検索結果に表示されるニュースのクリック率はある程度ある
事実2:
Googleはブレンド検索のニュースを気にしている
・・・Googleの検索結果にニュースが表示される回数は増えている
ニュースを発信することは、より多くのトラフィックを得るのに重要。
とは言え、発信するニュース情報なんて余り無い、と言う人もいるかもしれない。
しかし本当にそうなのか?
そもそもニュースとは何か?
「ニュースは時間軸の中で取り上げられる情報である。」
ネット時代のニュースとは?
例えばティップスでさえ、ニュースに成りうる。例えば「***に成功するための5つのティップス」は立派なニュースに成る。
ニュースであってもキーワードを意識することは重要。ユーザーが検索すると思われるキーワードをニュースの文章、特にタイトルに記述することが露出回数を増やすには重要。
ニュースの寿命は短い。一時的に検索結果の上位に表示されても、長くは続かない。逆に言うと、ニュースを発信するタイミングも考える必要がある。
。。。ニュースと言うか企業にとってはプレスリリースなのでしょうが、確かにユニバーサル検索の時代に企業のニュース、プレスリリースの効果的な活用法と言うのも改めて見直される要素かもしれませんね。
—
続いてQ&A。
Q:
ユニバーサル検索が普及すると、SEOの意味が無くなると言う話があるが?
A:(三者ともSEM会社なので人を特定せずまとめて書きます)
検索結果に一定のウェブ検索の結果は残る。SEOは重要。
今日話したように画像や映像、ニュースのSEOも必要だろう。必要となるSEO施策は広がる。
Q:
モバイル検索の結果はユニバーサル化されていくのか?
A:
スマートフォンやiPhoneの普及で当然そうなっていくだろう。特にローカル検索に関しては進化していくと思う。
Q:
YouTubeのビデオをどうやったらGoogleの検索結果に上位表示できるのか?
A:
YouTubeにビデオをアップロードしたら、必ずブログやサイトに掲載すべき。ビデオの利用回数やコンテンツの関連性が上がって上位表示される確率が高まる。
Q:
ユニバーサル検索の最大のティップスを上げるとすると?
A:
基本的にはビデオでもニュースでも良いコンテンツを作ると言うことだ。発信し続けることが重要。
例えばネガティブな情報がインターネット上に溢れていたとしても自ら情報を発信し続けることで、それらの情報の上位に表示させることができるかもしれない。
Q:
ビデオを上位表示させるには自社サイトにアップロードするのとYouTubeとどっちが効果的か?
A:
サイトにトラフィックを直接呼びたければ自社サイトが良いだろう。ただしSEOはきちんとする必要がある。
YouTubeにアップロードすることで、YouTube自体の検索エンジンの対象になるなどトラフィックを獲得しやすい点もある。両方にアップロードする考え方もある。
Q:
ユニバーサル検索に取り込まれる次の要素は何か?
A:
要素と言うと答えにくいが、ローカル検索はもっと進化していくだろう。また検索キーワードももっと細かいフレーズまで絞り込まれた上で個別のユニバーサル検索結果が表示されるようになっていくだろう。パーソナライゼーションももっと進化していくに違いない。
Q:
ユニバーサル検索の話をすると、ついGoogle中心になるが、Yahoo!やMSNはどうなのか?
個別に対応するには検索シェアが少なすぎる気もするが。
A:
Google中心になるのは分かるが、Yahoo!やMSNからも多くのトラフィックを得ることはできる。特に今回のYahoo!とマイクロソフトの提携でBingはさらに進化していくだろうし、ユニバーサル検索も進化すると思う。対応する側もBingに対応することでYahoo!にもマイクロソフトにも同時に対応できるから今までよりは楽だろう。
Q:
マイクロフォーマットはユニバーサル検索で重要になっていくと思うか?
A:
なると思う。特にローカル検索では重要になっていくのでは。
Q:
レビューサイトの重要性は?
A:
当然重要だ。ローカル検索の地図情報と表示される店舗情報には既にレビュー情報が合わせて表示されている。
Q:
YouTubeのビデオのコメント数は順位に影響を与えるか?
A:
正確には分からないが、一般的に言えばコメント数が多いビデオは表示回数やクリック率も高いだろうし、上位表示される傾向はあるだろう。
—
。。。以上でした。特に目新しい話がある訳ではないですが、検索マーケティングも画像、映像、ニュース、、、と考慮しなければいけない対象範囲が広がるばかりですね。先日のSES Londonでは「ウェブアセット最適化 / Digital Asset Optimization / DAO」のセッションがありましたし。僕もまだまだウェブ検索のSEO中心でやっていますが、少しずつユニバーサル検索対応も取り組んでいきたいと思います。
15 years 9ヶ月 ago
二日目午後のセッションは何だか長い名前の原題「Dealing With Domain Names, URLs, Parameters & All That Jazz ? Technical SEO Tactics」。何となく知っているけど正確な答えは確信が持てなさそうなSEOの技術的な内容が中心です。実用的なアドバイスが聞ければ良いのですが。
モデレーターはSearch Engine Landのバネッサ・フォックス。スピーカーはAntezeta Web MarketingのCEO ショーン・カルロス、iCrossingのSEOディレクター、リチャード・チャベス、ItsTheROIの創立者ヨナ・ステイン、そしてGoogleからシニエ・エンジニアであるマイリー・オーエ。先日のSES Londonにも出ていた人ですね。
—
まずはGoogleのマイリー・オーエから。
■Googleがどのようにドメインを処理するか?
・ドメインが国名の場合(co.jp)は自動的にその国のサイトと判断する
・comやnetの場合はコンテンツの言語を見て判断する
・ウェブマスターツールで設定もできる、効果が出るには1週間程度かかる
・サーバーの所在地も考慮に入れる場合がある
・他の要素も考慮に入れるケースがたまにある
■URLの構造について
サブドメインとサブディレクトリ
。。。プラス・マイナスはあるが、細かいので後でブログに上げるそうです。どっちかと言うと一番Googleから直接聞きたい話でもあるのですが 汗
■同一コンテンツのページ遷移について
・複数ページのオプション以外に、全コンテンツを1ページで表示するオプションを用意している場合は ref=”canonical” をつける、これによりそのページだけが検索結果に表示される
・ただし1ページに全コンテンツを表示させる場合に量が多い場合は、ロード時間も考慮すべき、長すぎると良くない
■URLのエンコーディング
product.php?item=nexus-one&trackingid=1234
product.php?item=nexus-one&trackingid=5678
上記2つの動的URLはクローラーが重複ページと判断する可能性がある
/nexus-one/1234.html
/nexus-one/3456.html
上記2つの静的URLは別のURLとして認識されやすい
複雑なURLであっても、URLのパラメーターを設定するツールがウェブマスターツールに用意されているので上手く活用すれば正確にクローリングされる、既に6万以上のサイトが活用している
複数のパラメータが入った動的URL構造のサイトの事例:
Googleが認識したURL → 1,587,811 URL
実際にクロールしたのは885,482 URL
つまりクロール率は55.77%だった。
↓
ウェブマスターツールで設定
↓
Googleが認識したURL → 887,203 URL
実際にクロールしたURL → 70万以上(正確な数字をメモミス)
クロール率は90%以上に上がった。
↓
クロールしたURL数自体は減っているが、クローリング率が上がり、さらに検索結果には後者の方がより多くのURLが出てきた。Googleが正しくサイト内の個別ページを認識したため。
。。。基本の話でした。最後の部分は実際の検索経由の順位やトラフィックの影響をもう少し詳しく聞きたかったですね。
—
次はiCrossingのリチャード・チャベス。アメリカとヨーロッパに12のオフィス、550人もいるエージェンシーなんですね。ロードバランサーを使った際のSEOの話。
ロードバランサーでホスティングする場合の注意点。
ロードバランサーは使ったケースでURL、サブドメインがサーバー別に違う名前になっているケースがある。例えば www1、www2、www3 など。
コンテンツはどれも同じなので、検索エンジンはどのURLが正しいのか混乱し、インデックスに支障が出るケースがある。
実際の事例で3つの別サブドメインがあったケースでクローリング率は
Google 40%
Bing 72%
Yahoo! 12%
と極めて低かった。SEO的には非常に問題となる。
【結論から言うと、必ずURLは統一すべき】
技術的には、
・URLリライト
・301転送
・TCPラウンドロビン
等がある。設定によっては技術的に難しいケースもあるが、逆にロードバランサーを使う時は、複数のサーバーでもURL(サブドメイン)が変わらないシステムを作るべき。
大型CMSであれば、マイクロソフトのCMSやインターウォーブンは最初から対応している。
どうしても対応ができない場合は、rel=”canonnical” タグを使ってどのURLが正しいか明確に記述するか(導入は簡単だが、確実に検索エンジンが言う事を聞くとは限らない)、ウェブマスターツールで設定する方法もある。Yahoo!やBingも同様の設定ができる。設定が多少面倒だが、正しく設定すれば効果はある。実際に試したケースでも一定の効果があった。
。。。ひたすらロードバランサー使用時の話でした。確かに以前はこういうサイトってありましたけど、、、今もまだあるのかな?
—
次にAntezeta Web Marketingのショーン・カルロス。多言語サイトのドメインとURL対応の話。
多言語・多国籍サイトを構築するサイトの注意点は2つ。
1. 言語
2. 地理
言語・国別にサイトを用意する場合は、
1. ドメイン自体
2. サブドメイン
3. サブディレクトリ
4. パラメーター(例:index.php?lang=en / lang=jp など)
レベルで対応できる。4番目のパラメーターを使う手法はインデックスされなケースもあるのでおススメできない。
検索エンジンはウェブページのドメインやコンテンツから、それがどの国、言語に向けて提供されているコンテンツかを自動で判断する。
その観点から考えると国毎に国別ドメインを利用することが確実。
ちなみに、リンクがどの国・言語のサイトから張られているか、と言うことも1つの基準として使われていると考える。例えば同じ英語圏のコンテンツでどこの国向けのコンテンツか判断する際に指標になるのでは。
ユーザー視点から言っても、マイクロソフトの調査データにもあるが、ユーザーはURLを検索結果でクリックするかどうかの判断基準にしていると言われる。
1. 国別ドメイン
プラス:
・サイト毎に独自のコンテンツを自由に作れる
・ユーザーにも特定の言語、国をターゲットにしていることを明確にできる
・効果測定を個別にできる
マイナス:
・言葉が同じ国なのに個別にドメインを用意すると重複コンテンツの可能性が出てくる
2. サブドメイン
プラス:
・サブドメイン単位で自由にサイトを作れる、サーバーも個別に設定できる
・効果測定も個別にできる
マイナス:
・サブドメインを言語、国別以外の目的で設定したい際、サブドメインのルールが複雑になる
3. サブディレクトリ
プラス:
・全てのリンクが同じドメインに集中し、サイトの評価が上がりやすい
マイナス:
・地域ターゲティングが難しい
。。。改めて整理してくれました。
—
最後にItsTheROIのヨナ・ステイン。ページネーションの話。
ページランクが重要で無くなったとは言え、指標にはなる。
同じコンテンツを複数のページで展開した時、ページランクを分散させることになる。
ページネーションが必要なケースは、例えばディレクトリやリンク集のカテゴリページなど大量の情報を一覧で表示するケース。例えば「カリフォルニア州サンフランシスコの大学一覧」のページは全体で何百ページにもなりうる。
このようなケースでは最初のページの方がページランクが高く、後のページに行くに従いページランクが低くなり、また途中からインデックスされないページも出てくる。特定のサイトで細かく実験したことがあるが、ページランクが最初のページ~後のページに行くに従い順番に低くなるわけではない。論理的に説明できないことも多い。
最後に細かなティップスを:
・ページネション内のページであってもページ毎に個別のTITLEを指定しよう
・パラメーターを使うことは止めて、静的URLにしよう
・1ページ内のリンクは減らした方が個々のリンクの評価は高まる
・ピラミッド構造のサイト構造が効果的
・2-3クリックで最下層のページまで進めるリンクが理想
。。。最後のティップスは基本ですが、途中実際は色々なデータを見せながらいかにサイト内のページ毎のページランクがルールで説明できないか、と言うことを話していたのですが、役に立ったのかどうか分からない話でしたね。
次にQ&A。
Q:
AJAXを使う際に気をつけるべきことは?
A;
(Google)Googleでは、最近、AJAXを使っているサイトでもクローリングが正確にできるソリューションを提示した。サイトに詳細を掲載しているのでAJAXを使う際は制作会社にそのルールを参考にするように伝えてほしい。
。。。あ、これは知りませんでした。URLはこちら。日本語ページを早く公開してほしいですね。まだ出たばかりの情報かな?
Q:
canonicalタグを使う時の注意点は?
A:
コンテンツ自体がマッチングしていることが重要。仮にドメインが違っていても使える。URLが動的でも静的でも関係ない。コンテンツがマッチングしていれば問題無い。
Q:
コンテンツをパートナーサイトに提供する際は、canonicalタグを使うべきか?使わない方がページランクが引き継がれそうな気がするが。
A:
(Google)canonicalタグを使う方が良いとは思う。SEO上、どちらが効果的かと言うことに関しては何とも言えない。
。。。ここで各社が色々意見を言いだしたのですが結局結論が分かりませんでした。ちょっと気になる話題ですね。
Q:
外部サイトにリンクを張るとページランクを外部流出すると言う話があるがどうなのか?
A:
(ItsTheROI)人によって意見が色々あるが、質の高いサイトへ外部リンクを張ることは、サイトの評価を上げる要素にも成りうる。
(Google)問題ない。内部リンクでリンクの張り方でページランクを調整することはあると思うが、外部リンクは余り関係ないと思っていい。そもそも外部リンクでインターネットは成り立っているし、SEOを気にして外部リンクをしないと言うのはおかしな話。ユーザーにとっても良くない。
。。。以上です。大半は知っている話ではありましたが、GoogleのAJAX対応は実際にどこまで普及して効果があるんでしょうね。FLASHのSEO対応は昔から言われており途中でGoogleも多少対応する努力もしてきたりもしましたが、結局未だに対応できてませんよね。AJAXはFLASHよりはやりやすいですかね。今後、ちょっと注目ですね。他の話は基本の再確認と言う感じでした。
。。。ってセッション終了後に検索してみたら去年の10月にAJAX対応していたとは、、、勉強不足ですね 汗。当時はプレゼン資料しか無かったみたいですけど、上記のドキュメントっていつ公開されたのかな?
15 years 9ヶ月 ago
キーノートに続く午前のセッションは「Twitter Marketing Tactics」。Twitterのビジネス活用について企業マーケッターが語ります。モデレーターはお馴染みダニー・サリバン。スピーカーはViatorのマーケティング・ディレクター、ケリー・ギリース、Define Search Strategiesの仕事もしているらしいアダム・シャーク、そしてKeyRelevanceの最適化戦略ディレクターのクリス・シルバー・スミス。
まずはViatorのマーケティング・ディレクターのケリー・ギリース。オンラインの大手旅行代理店だそうです。Twitterを活用している企業の立場からティップスを。
■まずはTwitterの基本から
・とりあえずすることがなくてもブランド名でアカウントを取ろう!
・アカウントを取ったら他人をフォローしよう。
・会話に少しずつ参加しよう。
・ウェブサイトでTwitterをPRしよう。
・Twitterページをパーソナライズしよう。背景画像を変更しよう。
「No Fear」
ノー・フィアー!!
恐れないことが大事。
毎日つぶやくことを義務とする必要もない。まずはマイペースで始めよう。
■既存のコンテンツをTwitterに活用しよう
・ブログの記事
・レビュー
・画像
・プレスリリース
・ニュース
・受賞
・新製品
・メール
■プロモーション&セールスをしよう
・セールス
・コンテスト
・Twitterだけのセールスやディスカウント情報
■レピュテーション管理に活用しよう
・ユナイテド航空はTwitterで顧客の不満を受け付けて答えている
・全てに答えてはいないが(きりがないので当然と思う)顧客の満足度を上げるサービスとして役立っている
■顧客と対話しよう
・Twitter経由で顧客と対話することで、顧客に人間味を感じてもらうことができる
■ブランドのパーソナリティを作ろう
・Twitterを通してブランド自身のブランディングをする
・基本的には楽しいパーソナリティで接した方が良い
■検索結果に登場しよう
・Google、Yahoo!でTwitterの結果が出るようになった
・ニュース検索の結果にもTwitterが出るようになった
・TwitterでつぶやくことがSEOになる
■Twitterを超えて
・Facebookと連携できるアプリケーションが出てきた
・サイトにTwitterの投稿を掲載、例えばハッシュタグを指定することで特定のつぶやきだけを集約して表示できる
。。。基本から応用まで短時間で分かりやすく説明してくれました。まさに理想的な企業のTwitterマーケッターですね。
—
次にDefine Search Strategiesのアダム・シャーク。ニューヨークタイムスの子会社だそうです。ニューヨークタイムスなどメディアサイトのソーシャルマーケティングの活用支援をしているそう。
■ニューヨークタイムスなどメディアサイトへのトラフィック比率
・TwitterとFacebook経由のトラフィックは年々増えている。
・Diggの比率が以前より減っている。
Twitter 0.1% -> 0.5% -> 0.7%
Facebook 0.2% -> 0.7% -> 1.0%
Digg 0.6% -> 1.3% -> 0.5%
(2008年→2009年→2010年)
■メディアサイトのTwitter活用
・まずはブランド名でアカウント開設
・基本は最新ニュースを提供
・ニューヨークタイムスやCNNは200万以上のフォロワー数
・雑誌であればメインのアカウント以外にサブ的なアカウントも開設
・例えばファッション誌 InStyleはメインが150万、別のサブアカウントは38万フォロワー
・シカゴトリビューン誌のパーソナリティを設定したアカウント(ColonelTribune)は88万フォロワー、ブランドがパーソナリティを設定してPRするのはまだ目新しい
・特定のライターやスタッフが個別のアカウントを開設するのも手法、Entertainment Weekly誌は人気ライターが個人的な話をして100万フォロワー獲得
・ニューヨークタイムスではトピック毎(オリンピック、津波、地震、ハイチ、書籍レビュー、ブロードウェイのショー情報、などなど)にリストを作成して情報を提供している、ただしやりすぎは注意
・特定のハッシュタグでユーザーがつぶやけるようにして、その内容をメディアサイトに掲載する、メディアサイトであっても双方向のコミュニケーションを簡単に実現できる
・サイト上でTwitterのアカウントをプロモーションすることが重要、特に複数アカウントを開設している場合は専用ページを設けてプロモーション
・リツイートのボタンは重要、クリックした際に自動的に短縮URLと見出しを同時に表示させると使いやすい(シリコンアレーインサイダーが参考になる)
・効果測定が重要、どんなコンテンツがクリックされるか、何時頃にクリックされるか
■検索とTwitter、SEO
・つぶやきに含めるキーワードは重要
・流行、検索数が急増しているキーワードを意識
・ハッシュタグも意識
・意識することで検索結果でつぶやきが上位表示される、ニュースメディアには特に重要
・元々、質の高いコンテンツを持っているのであれば、少しSEOを意識するだけでより多くのトラフィックが得られる
・ソーシャル検索ではニュースサイトが検索結果に出てくる数が限られている、選ばれる基準が分からないが、そこに入れるかが重要
。。。メディアサイトならではのティップスが色々ありました。
—
最後にKeyRelevanceのクリス・シルバー・スミス。SEM会社ですね。SEOとPPC、SMM(ソーシャルメディアマーケティング)もしているそうです。Twitterマーケティングの基本とテクニックを説明と言うことで。
■Twitter戦略の考え方
1. 消費者が第一
彼らが自分の会社について既に何を言っているか?彼らがどのようにTwitterを使うと考えられるか?ペルソナを想定して考える。
2. 時間と投資
Twitterにどの程度に時間をかけるか?
■企業のTwitter活用
・ピザハットはインターンの学生にフルタイムのTwitter専用のつぶやきと対応をさせた
・マリオットホテルはTwitterで専門のカスタマーサービスを提供
■Twitterにかける時間
・専属のスタッフ
・パートタイムのスタッフ
・自動化
■Twitterのアカウント開設
・ブランド名が重要!
・意識しているキーワードで別アカウントを取ることもあり
・Bio、自己紹介のコメントは重要、キーワードを効率的に含めること
・地域名も明確にしていすることが重要、ローカル検索に効果的、特にスモールビジネスは必須、都道府県名と市区町村名は入れたい
■背景画像の活用方法
・背景にシンプルでプロフェッショナルな画像を入れよう、例えば電話番号
・パワーポイントで画像に文字を入れたり、専門サイトを使うこともあり(http://www.twitter-images.com/、http://www.mytweetspace.com)
・フォロワーのアバター画像を背景に使う、フォロワーとの関係性を作るには面白いかも、ただし自動的に行うとどんな画像が出るか分からないので注意
■Twitterのユーザー名の重要性
・長すぎるユーザー名はリツイートの際に問題になるかも。
・Twitterユーザー名の文字数の統計:
0-6 – 13%
6-9 – 58%
9-12 – 27%
12-16 – 2%
■Twitter検索の活用法
・ターゲットユーザーが使うと思われる検索キーワードで検索して(例:旅行代理店であれば、cheap hotel、格安旅行、など)フォローする、自動化もできる
■リツイートされるつぶやきに含まれる単語
DanZarrella.comで面白い統計が見られる。
■特殊文字の活用
・ハートや顔文字をポイントポイントで使うことも、つぶやきを目立たせるには有効かも、ただしやりすぎは注意
■URL省略のテクニック
・省略URLでもキーワードを入れたい
・bit.lyの有料アカウントだと可能
■Twitterのオートメーション
・TwitterFeed(RSSから自動的にTwitterに配信)
。。。流石エージェンシーだけあって、意外と知らなかったティップスが満載でしたね。短縮URLは興味深いけど日本だとそこまで重要かな。。。背景画像にフォロワーを表示する仕組みも面白いですね。皆がやり出すと微妙かもですが。
—
最後にQ&A。
Q:
オートメーションは危険では?
A:
(ケリー)やりすぎは危険だけど使い方によっては便利。
(アダム)少なくとも時間指定した自動投稿機能は活用できる。複数のアカウントを持っていれば有効。
(サリバン)仕事が終わる金曜夜につぶやいても、見てくれる人が少ないだろう。時間指定して月曜朝に投稿することに誰が文句を言う?!
(クリス)同じつぶやきでも少し内容を変えて何度か投稿することもできる。結果的にクリック率は上がる。やりすぎは注意だが。
Q:
ブログのコンテンツを再活用すると情報が古くならないか?
A:
(ケリー)そのまま投稿するのではなく、それにまつわる最新の進行情報を少し混ぜるなどクリエイティブに投稿しよう
Q:
既にブランド名でアカウントが取られている時はどうすればいい?複数のアカウントを取る時は何に注意すれば良い?
A:
(アダム)複数アカウントを持つ場合は各アカウントの目的をはっきりさせることが大事。
(ケリー)複数アカウントを持ちすぎるとフォロワー数が分散しかねないので注意が必要。まずは1つのメインのアカウントを持った上で、必要であれば特定のテーマに絞った(例:カスタマーサポートなど)別アカウントを持つべき。
(クリス)既に自分のブランド名でアカウントが取られている場合は、もしもトレードマークを持っている場合は、直接相手に問い合わせてアカウントをもらうことも不可能ではない。
(サリバン)Twitterのサイト上でトレードマークに関するページがあるはずだから読み込んでみた方が良い。
Q:
Twitterするのに一番便利なツールはなんだ?
A:
(アダム)Seasmic、TweetLater、などなど色々ある。モニタリングも色々ある。これがベストだと言うのはケースバイケース。
(ケリー)企業の立場から言うと、アフィリエイターがTwitterをスパム的に使っている場合がある。定期的にモニタリングすることが大事。
Q:
クリック率等のトラッキングには何を使っている?
A:
(ケリー)オムニチュアで一括管理している。
(クリス)bit.ly を使っている。ちょっとしたアドバイスだが、URLの最後に@を付ければ通常のURLと別扱いで解析できる。後、301転送をしているURL短縮サービスを使うべき。ページランクを伝えることができる。SEOには重要。
—
。。。以上でした。企業マーケッターからSEM会社まで中々具体的なティップスがたくさん聞けて参考になりました。僕のつぶやきにも活用していきたいと思います!
15 years 10ヶ月 ago
さて、SMXも二日目となりました。昨日はリアルタイム検索、ソーシャル検索とトレンドを追う話が中心でしたが、今日は実用的なセッションが中心。最初のキーノートは原題「An Insider’s Look At Google Research」。Search Engine Landのダニー・サリバンとクリス・シャーマンが、Googleのリサーチディレクター、ピーター・ノーヴィグとGoogleリサーチについて質問しまくる、と言う内容です。
このピーター・ノーヴィグ氏、見た目が白髪でアロハシャツ、還暦を過ぎたようなオジサンでGoogleの人っぽくないのですが、経歴を聞くと相当な天才みたいですね(Wikipedia)。
15分で語るGoogleリサーチの21プロジェクト。
1.
特定の人を探すサービス。災害の時に人を探すのに役立つ。
2.
電力が毎日どれ位消費されているか調べるデバイス。
3.
地球の森林の崩壊度を一目でわかるウェブサービス。
4.
独自開発した三輪車とスノーモビル。
5.
ストリートビューのユーザー写真。
6.
画像の内容を認識して同じ種類の画像を表示。
7.
画像を検索する際に使われた検索キーワードを集約して画像のアノテーションを行う。
8.
読みにくいCaptchaの代わりに、画像を回転させて表示し、ユーザー認識させる仕組み。
9.
Goggles。携帯電話で写真を撮るとその内容を自動認識して詳細情報を説明する仕組み。
10.
写真の一部だけを自動的にリサイズ(例えば写真の中の特定の人だけ)
11.
クラスターデータのシェアリング。テクニカルな内容。
12.
アンドロイドのアプリを小学生でも簡単に作れるウェブサービス。
13.
音声認識アプリ。
14.
棒読みじゃない音声読み上げ機能。
15.
電話の音声を自動翻訳。開発中。
16.
イディッシュ語の翻訳。翻訳が難しい言語の翻訳。
17.
音認識。開発中。例えばYouTubeで鶏の声がする映像だけを表示。
18.
Google Squared。
19.
言葉のクラスタリング。
20.
言語から特性の抽出。
21.
ウェブページのブラウザー別の表示サイズチェックツール。
最後にある哲学者の言葉を紹介して終了。
“You can observe a lot just by watching.”
(見るだけで多くのものを観察できる)
Googleリサーチでは多くの情報を見ることで、多くの情報を得ようと日々努力している。
—
。。。とりあえずGoogleが研究開発している色々なサービスを一気に紹介。良く分からないものもあるのですが、こうやってみると、ホントに様々な分野の研究に取り組んでいるんですね。
次にモデレーターとの会話。
シャーマン:
見せてもらったものの中には商品として完成しているものもあれば、実験的なものもある。その辺の区別はどうつけているのか?
Googleリサーチ:
色々なやり方があるが、最終的にはどれもサービスとしてリリースすることを念頭においている。
サリバン:
20%ルールはどれ位機能しているのか?
Googleリサーチ:
人によって意見は違う。Gmailは20%ルールで良いサービスに仕上がった成功例だろう。ただ担当者に聞くと別に20%ルールを意識していたわけではない、と言っていた。翻訳や音声認識も2002年頃から取り組んでいた新しい分野だったが、厳格に20%ルールの中で仕事をしているわけでもなかった。
シャーマン:
経営サイドからはGoogleリサーチの仕事に関してどれ位口出しされるのか?
Googleリサーチ:
経営サイドからは、中長期的な視点で考えると同時に直近の進歩状況も常に確認されている。
シャーマン:
リサーチの拠点は世界中にあるようだが、どう連携しているのか?
Googleリサーチ:
各地域の拠点はそれぞれの市場に特化した翻訳やローカリゼーションをしてることもあれば、新規サービスを共同開発していることもある。
サリバン:
検索に関して言うと、これまでに色々なトレンドがあったが、今何かトレンドはあるのか?
Googleリサーチ:
何とも言えないが、モバイル分野にもっと力を入れていくのは間違いないだろう。ちなみに多くの人が未だにページランクに幻想を抱いているようだが、あくまで全体の一部に過ぎない。
シャーマン:
リアルタイム検索とウェブ検索の融合は非常に難しい分野と思うが、どう思うか?特にリアルタイム検索でどの情報を重要と判断する技術は難しいのでは?
Googleリサーチ:
リアルタイム検索は確かに難しい。ただ日々進化している。例えば少し前までは1時間置きに情報更新していた。ただラリー・ペイジは「1時間と言う概念は止めてくれ。360秒と言う概念に変えてくれ。そしてもっと短くしてくれ。」と言ってきた。我々は常にチャレンジしている。
シャーマン:
カフェインについてはどうなのか?本格稼働すると言われつつも、結局まだのようだが。
Googleリサーチ:
特定のデータセンターでは既にフル稼働している。これから徐々に普及させていく。
サリバン:
検索の順位を決める要素で、リンク以外に何か興味深い要素はないのか?
Googleリサーチ:
例えば書籍をスキャンしてデジタル化する際、書籍の文章コンテンツにリンクは無いが、他の書籍について触れたり、引用したりしていることもある。それを評価して書籍の評価に使うようなアルゴリズムは考えている。
サリバン:
現状、情報の分析はまだまだ文章ベースと思うが、いずれメディア問わずコンセプトベースで情報を整理するような状態になるのか?
Googleリサーチ:
そのレベルまでもっていきたいと思っている。
シャーマン:
個人として人工知能の研究をしていたようだが音声認識や翻訳の技術は昔からあると思うが、画像や映像認識の技術はどうなのか?
Googleリサーチ:
音声や翻訳技術は20年前と比較して革新的な進化があったわけではないが、少しずつ進化している。画像や映像、特に映像に関する認識技術は情報量が多く、非常に難しい分野だ。しかし少しずつ進化していくはずだ。
サリバン:
電子メールで未だに大量にスパムメールが届くがもっと高機能のフィルタリングができないのか?
Googleリサーチ:
日々チャレンジはしている。例えばメールマガジンであれば、より多くの人が読んだメールだけを読めるようなフィルタリングはあるだろう。ただ電子メールが今後も主要なコミュニケーションツールとして永続的に続いていくのかどうかは分からない。我々も例えばGoogle Waveのような新しいツールを提供しながら実験している。
シャーマン:
Google Waveは余り流行っていないようだが?
Googleリサーチ:
現状、色々なサービスを提供し過ぎていると言うのはあるかもしれない。
サリバン:
映像の分野では誰が勝っていると思うか?
Googleリサーチ:
映像検索の分野ではGoogleはリードしていると思っている。
シャーマン:
大学から新入社員で入社した人をどうやってトレーニングするのか?
Googleリサーチ:
専用のトレーニングプログラムがある。そこで経験を得てもらいつつ、実際の仕事に入る準備をしてもらう。
シャーマン:
例えばマイクロソフトは社員があるプロジェクトから全く違うプロジェクトに移動することを意図的にしていることで有名だが、Googleはどうなのか。
Googleリサーチ:
我々も同じことをやっている。例えばあるプロジェクトに三カ月や半年参加した後、他のプロジェクトに移ることは良くある。逆に一年同じプロジェクトにいることは長すぎるかもしれない位だ。全く別の分野のプロジェクトであっても基本的な会社の仕組みは同じなので、移動しやすい環境だろう。
サリバン:
画像や映像の認識技術が進むと検索の仕組みは根本的に変化すると思うか?
Googleリサーチ:
検索結果がテキスト情報の順位別一覧よりは、新聞の見出しのようになるかもしれないね。
—
。。。以上でした。最初にGoogleリサーチがやっている色々な研究を紹介した後は、制限時間ぎりぎりまでひたすらQ&Aと言う内容でした。
何を学んだ、と言う訳ではないのですが、こういう話を聞くとGoogleって、最先端の企業なんだよな、、、と思わざるえないですね。実際は日本の企業にしてもマイクロソフトにしても最先端の研究はやっているんでしょうけど、出てくる人がアロハだったり、話の内容もプロジェクトの移動が短期間で簡単にできるだったり、20%ルールだったり、Googleで働きたくなる理系の学生が増えそうな内容なのは間違いないですね。実際そうなんでしょうけど、ブランディングも意識しているわけではないのでしょうが、自然とできていて流石でした。
15 years 10ヶ月 ago
モデレーターはダニー・サリバン。スピーカーはGoogleから1人と検索マーケティングの会社から2人。SMXのセッションは1つの時間帯で4つあるのですが、気になったのを選んでいたら全てダニー・サリバンになってしまいました。
彼が元々SEOよりの人&僕もSEO中心にセッションを選んでいることもありますし、僕が今後のトレンドを追う目的でGoogleやマイクロソフト、Yahoo!などメジャー所が参加しているセッションを選んでいる&メジャー検索エンジンの人が出るセッションには大御所のダニー・サリバンが自らモデレートする、と言うのもあるのでしょうか。初日最後のセッションは、原題「The Current State of Social Search」。
—
まずはいきなりGoogleの登場。ウェブ検索製品管理ディレクターのヨハンナ・ライト。
ソーシャル検索について。
ユーザーのソーシャル・サークル(ユーザーが参加しているソーシャルコミュニティの総称)に含まれる関連性の高い情報を検索結果に表示する。結果、ユーザーにより快適な検索体験を提供する。
ソーシャル検索であってもウェブ検索であっても、検索は関連性(relevancy)が全て。
Googleプロフィールの情報を検索結果に融合することで、より最適な検索結果を提供する。ソーシャル・サークルに含まれる友達が発信していた情報に触れる機会。意外とその友達が自分が知りたい情報を発信していたことに気づいていないことが多々ある。そういった予想外の、でも便利で有益な情報に出会う機会を提供する。
情報は文字情報だけではなく写真や画像も含まれる。友達が旅行に言って取った思いがけない写真に出会うことも可能。
ソーシャル検索の基本は、Googleコンタクトの各種情報とGoogleプロフィール、またそれらをソーシャルグラフAPIで拡張した情報。またあくまでパブリックな情報しか対象にしない。
ソーシャル検索のSEOに関して言えば、下記:
・基本的には「良いサイトを作る」ことが全て
・ウェブマスターガイドラインに従う
・ソーシャルグラフAPIを使うことも検討
・ウェブマスターツールでインデックスされているか確認する
ソーシャル検索は、個人によって重みが変わる部分が多く、SEOに直接かかわることは少ない。
—
次にスピーカーはRange Online Mediaのケリー・ディーン。
ソーシャルサーチは検索結果のパーソナライゼーションでもある。
ソーシャルサーチSEOを始めるには、まずGoogleプロフィールに登録すること。次にGoogle Buzzにも参加する。その上でソーシャル検索をすると検索結果が自分の関連している人の情報が表示されてくることに気づく。
ソーシャル検索は大量のトラフィックをもたらすものではないが、確実にやっておきたい作業の1つ。
ネットとプラットフォームの進化でトラフィックを得る機会は増えている。
・ユニバーサル検索
・リアルタイム検索
・ソーシャルメディア
・モバイルウェブ
Googleプロフィール以外にもネット上には様々なプロフィールサービスやソーシャルメディアが存在する。Facebook、Twitter、Yahoo!プロフィール、Flickr、、、可能な限り登録すべき。
リアルタイム検索、ソーシャル検索のアルゴリズムは基本的には既存のウェブ検索と変わらない。基本は:
オーソリティ度 + 信頼性 + 関連性
であることに変わりは無い。
。。。超早口で次から次にネタを披露したのでフォロー仕切れませんでした。。。ただ特別なことは無かったかと。ソーシャルメディアマーケティングの基本を10分で一気に話すような内容でした。
—
最後にDefine Search Strategiesのアダム・シャーク。
Googleプロフィールは現状、個人には良いかもしれないが、企業やブランドにとって使いやすいとは言い難い。個人と企業、ブランドは分けて考える必要があるのでは、と思う。
。。。プレゼン資料も無くかなり雑談的に色々なネタを話したのと、ネタが次から次に飛ぶ人で内容がまとまっていませんでした。途中でメモをギブアップ。しかも上記以外に特にコレ!と言う話は無かったです。元々、Yahoo!の人が参加する予定だったのが急遽キャンセルになってこの人になったようだったので準備不足だったのかな?
—
この後、Q&A。
サリバン:
Googleのソーシャル検索にはGmailで設定されている名前が出てくるか、現状ブランドが既に誰かが勝手にブランド名でGmailに登録していたりして、使えない場合が多い。しかも誰かが一回登録した後、今は使っていないアカウントでも現状のGoogleでは引き継げない仕組みになっている。ソーシャル検索でのブランドの露出方法に関しては、今後色々考えるべき要素が多いだろう。
元々Googleプロフィールは個人用に作られたサービスだとは思うが、ソーシャル検索に活用している以上、企業やブランドがどう活用できるかと言うことは考えていかないといけないだろう。
Google:
ソーシャル検索は、まだまだ試行錯誤の途中。ブランドや企業のニーズも理解している。どのような形で個人を中心とするソーシャル検索にブランドや企業の情報を織り込んでいくかは今後の課題。
会場:
ソーシャルブックマークやソーシャルニュースの評価やリンクはどの程度、現状、影響を与えているのか?
Google:
Googleはできるだけ多くの情報を元により最適な検索結果を提供したいと思っている。もちろんサービス側が情報を提供してくれるか、と言う課題があるが。ただここでどれ位影響があるか、と言うことは具体的に言えない。
会場:
Google Buzz経由のトラフィックは実際どれ位あるのか?
Google以外の2人:
現状はほとんど無いのでは?
—
。。。以上です。初日最後のセッションで睡魔と闘っていたこともあり、ちょっとメモのペースが大幅にダウンしてしまいました m(_ _)m ただ今日の前半のリアルタイム検索やソーシャル検索の話とかなりかぶっていた部分もあり、あえて出る必要も無かったのかな?と言う気もします。内容も正直言って中途半端な感じで今日一番イマイチなセッションでしたね。他のセッションに出れば良かったかもです。ま、初日最後で時差ボケの限界でしたから、良しとしますか。しかしGoogleもBuzzに関しては成功するかどうか全く未知数と言う感じでしたね。Q&Aの途中でGoogleの人が会場にGoogleプロフィールを開設しているか尋ねた時も半分弱の挙手でしたし。ソーシャルに関してはGoogleは苦戦しているようですね。
と言うことで初日のセッションは全て終了です。今日はリアルタイム検索、ソーシャル検索、パーソナライズド検索、Twitter、Bingなどなど最新の話題が豊富でした。明日以降はもう少しSEOよりのセッションも増えてくるかと思いますので、実用的な情報も提供できればとは思います。しかし今思うと、今日の最初のキーノートのスティーブ・バルマーの声の大きさは断トツでしたね。やっぱり迫力あるなぁ。。。ただ何で出たのかな?と言う印象はありますが。やる気はある所を見せたかったのでしょうか。
そんな所でまた明日よろしくお願いします。
15 years 10ヶ月 ago
初日午後2つ目のセッションは「Google’s Personalized Search Revolution」。Googleがパーソナライズド検索について語ります。他にも気になるセッションはあったのですが、何年も前から言われているパーソナライズド検索の最先端の話を聞きたくて参加してみました。
モデレーターは前回と同じダニー・サリバン。Googleからはパーソナライズドサーチ部門のエンジニア、ブライアン・ホーリングが参加。
まずはサリバンが一言。
「昨年末からパーソナライズド検索はまさに【革命的】に変わった。ログインしなくても勝手に検索結果がパーソナライズされるようになった。」
。。。いや、僕もこれ最初は驚いたんですけどね。。。先日もGoogleでSEOで検索してSEO Japanは2位だから喜んでたら、勝手パーソナライズドのせいと気付いてガックリ 汗
と言うことで、ブライアンのプレゼンテーション。
—
Googleで「SMX」で検索した時に何を表示すべきか?
イギリスにはSMXと言うバイクのクラブがある。カリフォルニアのサンタマリア市にはSMXと言う空港がある。ホンダのミニバンでS-MXと言うのもある。映画のスクリーン技術にSMXもある。人によってそれぞれ求めている結果が違う。
多くの検索キーワードはその意図がキーワードだけでは不明。
パーソナライゼーションは検索結果に存在する
・地理
・趣味嗜好
・パターン
・ソーシャル
等の差異を改善する。
パーソナライゼーションは、
・透明・意識せず機能する
・コントロールできる
ことが理想。
例えばGoogleでは国レベルのパーソナライゼーションがある。同じ英語圏だが例えば「tax」(税金)で検索した時にアメリカとイギリスでは提供する結果が違うべき。
地理で言えば都市レベルでも調整できる。「bus schedule」(バスのスケジュール)で検索された時、それぞれの都市のスケジュールを最初に表示する。しかし余りに地域にこだわると一般的な検索ニーズにこたえられないので大手のバス会社の結果も含めたりする。
検索のディテールでパーソナライズも可能。例えば「hardware store」(ハードウェアの店)で検索された時、何を表示すべきか?Gogleでは検索履歴をベースに最適な結果を出すオプションも用意している。Google Mapsではデフォルトの地域を指定できる。検索結果に出てくる地図も設定できる。地域はIPで判断している。
最近リリースした検索ツールのオプションでは英語圏の場合、地域でも絞り込めるようにしている(日本語はまだ)。
ユーザーがログインした状態で検索していれば、そのウェブの検索履歴を記録して、そこから最適と思われる検索結果を表示するパーソナライズド検索も提供している。当然、検索履歴は削除したり中断することもできる。
またサリバンが言ったように、現在はログインしなくともある程度パーソナライズ検索を行うようにしている。検索履歴はCookieで記録し、過去180日のデータを元にしている。またこの機能自体は検索ページの右上のウェブ履歴のリンクから無効・有効の設定はいつでもできる。
。。。デフォルトで有効ですよね。大半の人はそのまま使うだろうな。。。確かにこれは大きな変更ですよね。
—
。。。まずは一気にパーソナライズド検索のパターンを説明してきました。特に目新しことは無いのですが、今後どんな展開になりますか。
—
次にソーシャルサーチのパーソナライゼーションについて説明したい。
ソーシャルウェブにおいて各ユーザーは自分のネットワーク( Social Cicle 、ソーシャル・サークルと説明)を持っている。そのネットワークの中のコンテンツを優先的に扱うなど、より関連度の高い検索結果を提供するニーズは確実にある。自分が関係しているソーシャルネットワーク上のユーザーの発言やコンテンツは優先的に表示する。
ソーシャル・サークルの範囲は下記のデータが元になる:
・Googleのコンタクトリスト
・Googleのプロフィール
・ソーシャルグラフAPIでコンタクトの範囲は拡大される
・Googleリーダーの購読者もケースバイケースで対象とする
プライバシーの問題も当然あるため、基本的にパブリックなコンテンツしか検索結果には表示しない。
—
パーソナライズド検索はどれ位、通常のウェブ検索に変化をもたらしているか?
・全てのユーザーの検索結果に影響を与える、ただしそれぞれ違った形で
・5回の検索に1回、パーソナライゼーションの要素が含まれている
・パーソナライズドされた検索結果であっても、全ての結果を変えることはない、あっても1ページで2-3、変え過ぎても混乱が起こる
—
パーソナライズ検索でSEOはどう変わる?
・単にキーワードで上位表示できれば良いと言うだけではない、、、ユーザーの検索意図にあった形で上位表示されることが重要。
・特定のキーワードで世界中のサイトと競合になる回数が減り、同じ地域のサービスサイトと順位を競う回数が増える。例えばタクシーで検索された場合、同じ地域のタクシー会社が競合になる。
—
パーソナライズドサーチに効果的なSEO対策は?
・まずは説得力のある、魅力的なコンテンツ
・検索エンジンでなく、ユーザーにアピールすべき
。。。一般論すぎ 汗。
—
簡単なティップスだが、検索URLの最後に &pws=0 と言うパラメータをつければパーソナライゼーションは解除される。
—
。。。以上でした。続いてQ&A。
サリバン:
FirefoxとGoogle Chromeで検索結果が違うことがあるらしい。ブラウザーでパーソナライゼーションをしているか?
Google:
全くしていない。他の要素が影響した結果だろう。
サリバン:
じゃあFirefoxのシェアを奪うために何かやっているわけではないんだね 笑
Google:
しかしプラットフォームのパーソナライゼーションはありうる。例えばMacで検索しているユーザーにはMacの情報を優先的に見せることは有効だろう。
サリバン:
検索広告が検索履歴に基づいて出るんだっけ?出た気がするが?
Google:
僕は部門が違うから分からない。
サリバン:
(会場にインタビュー)
パーソナライズド検索は、問題があると思う人はどれ位いる?
Google:
(会場が挙手する前に割り込み)
パーソナライズド検索はユーザーの検索体験をより便利にするために行っていることは理解してほしい。
サリバン:
パーソナライズ検索の結果毎に検索順位を教えてくれるような機能がウェブマスターツールに用意されれば便利なんだけど。
Google:
確かにそうだね。検討します。
サリバン:
パーソナライゼーションはドメインレベルで行われるのか?例えば一度ユーザーが見たサイトのドメインを記憶して、そのドメインの結果を優先的に出すなど。
Google:
実験していたこともあるが、現状はまだ試行錯誤中。
サリバン:
パーソナライゼーションはオプトアウトのオプションを常に持つべきと思うか?
Google:
当然そう思う。
サリバン:
Googleのパーソナライズド検索でオプトアウトした人の比率は分かる?
Google:
正確な数字を今答えられない。具体的な数字は基本的に答えられない 笑
サリバン:
Googleが定義する「良いユーザー体験」とは何か?
Google:
個人的な意見だが、ソファーに座って快適な気分で時間を過ごすような気持でいられることじゃないか。
サリバン:
Cookieが利用できない場合、パーソナライゼーションはIPに頼るしかないのか?
Google:
基本的にはそうなる。その場合は地理ベースのパーソナライゼーションが中心となるだろう。
サリバン:
アダルト関連の検索やサイト閲覧は自動的に記録しないようなオプションを開発できないのか?
Google:
なるほど。要望リストに入れておきます 笑
サリバン:
リアルタイム検索にパーソナライゼーションの要素は含まれていくのか?
Google:
僕の口からは何とも言えない。
会場:
ログイン無しのパーソナライゼーションで、SEOのクライアントが上位表示したいキーワードで自分のサイトが上に表示されて、ぬか喜びしていることがあるが。。。
サリバン:
SEO会社には良いんじゃないか 笑
—
。。。以上です。最後にやっぱりその話題出ましたか。Googleの人が真面目なエンジニアだったので、いまいち盛り上がりに欠けた感じでしたが(答えられない、ばかりでしたし。ま、これは誰であっても、かもですが)、Googleのパーソナライズド検索の現状は理解できました。技術的に特に新しい発見は無かったのですが、元々それ程期待もしてませんでした。と言うか、現状これ以上は技術的にも難しいと思いますし、必要性も無い気が。
逆に今後Googleがどの位、どの分野のパーソナライゼーションに力を入れていくか、と言う話をもう少し聞きたかったですけどね。ただ結構SEOの話をしてくれたので、それは参考になりましたが。しかしアダルト検索の排除機能はパーソナライゼーションの普及には意外と重要な気も。
サリバンも頑張って次から次に質問をしてくれましたし、何となくの知識が今回のセッションを通じて明確になった部分も多く良かったですかね。ちなみに質問は他のセッションもそうですが、サリバンが全て考えた訳ではなく事前にTwitterやSNS経由で質問を受けていたようですね。こういう手法は有効かもです。
15 years 10ヶ月 ago
昼の最初のセッションは午前に続いてリアルタイム検索の話題から。時差ボケでかなり眠くなりつつありますが(日本は早朝6:15)頑張ります。。。原題は「Real Time Search: Beyond The Majors」。
モデレーターは同じくダニー・サリバン。Q&AモデレーターにNine By Blueのトッド・ネメット。スピーカーはCollectaのゲリー・キャンベル、SEO Japanでも利用中のTopsyのリシャブ・アイエル・ゴッシュ、CrowdEyeのケン・モス、OneRiotのトビアス・ペグス。OneRiot以外は、確かTwitterが昨日過去のつぶやきデータへのアクセスを開放したベンチャーですよね。さてどんな話になるやら。
—
まずはOneRiotのトビアス・ペグス。初耳の会社です。
リアルタイム検索&最初にリアルタイム検索広告に取り組んだそうで。
メジャー検索エンジンのウェブ検索でも20%-40%の検索はリアルタイム性が求められている検索と言うデータがある。
OneRiotはリアルタイムの検索エンジン。ニュース、画像、映像、Twitterのつぶやきなど最新の情報を表示することに特化している。Twitterの検索とは全く違う。Twitter検索ではひたすらtweetが結果に出てくるが、OneRiotでは無駄なつぶやきを排除するアルゴリズムを導入している。リアルタイム検索のページランク的なアルゴリズムとして、
PulseRank / パルスランク
と言う概念を導入している。より重要なつぶやきを優先表示する。
OneRiotは無名だが、それも当然。97%の検索はAPIを通じてパートナーサイトで行われている。携帯電話やiPhoneの検索や、PCのメタ検索エンジンに追加検索情報と言う形でデータを提供している。またイギリスのガーディアン紙のサイトにコンテンツと言う形でデータ提供もしている。
リリースから1年で既にかなりの検索数を毎月得るにいたっているが、今後はマネタイズが鍵となる。
ポイントはいかにユーザーの検索意図に合っている広告を表示できるか? 適切な広告を表示できれば、それはユーザーにとっても役立つ情報となる。
例えば「Sea World」(どこかの水族館?)でシャチにトレーナーが殺される事件があった時、リアルタイム検索では時間軸の中で検索数が変わっていく。一時的に検索数が増大する。我々のシステムは広告主のコンテンツを自動的にクローリングし、関連すると思われるページからテキスト広告を自動的に生成する技術を持っている。
。。。面白いですね。コンテンツサイトの広告には良いのでしょうが。。。ECサイトに使えるのかな?上の例で言うとAmazonから何の商品ページを表示すればよいのやら。シャチの図鑑、シャチのビデオ、、ですか?
—
CrowdEyeのケン・モス。同じくリアルタイム検索エンジン。設立から1年半。
とにかくTwitterが熱い。マイケル・ジャクソンが亡くなった時、1時間で30万回のつぶやきがあった。ソーシャルコミュニケーションは人間のコミュニケーションの新しい形だ。
しかしTwitter検索は現状、かなり混沌としているのも事実。従来の検索エンジンでは対応できない。
例えばiPhoneのTwittter検索。大量のつぶやきが次から次に表示される。何が、誰が重要か分からない。無駄な時間だけ過ぎてしまう。
CrowdEyeでは、検索キーワードに対して最も適切なつぶやきを見つけるアルゴリズムを持っている。フォロワー数やリツイート数など様々な要素を考慮している。
Twitterのつぶやきがポジティブかネガティブかを判断するアルゴリズムも導入している。
またつぶやきのリンクも追っていき重要なニュースソースへのリンクを提供したり、タグクラウドを作ったりもしている。
最後に、TwitterのFirehoseプログラムに選ばれたので今後もっと色々な機能を導入していく予定!APIへのアクセス回数の制限が無くなったので、サイト上でTwitter検索が自由にできる。
自分がフォローしているユーザーをベースに、パーソナライズされた検索結果を提供できることもやっていきたい。
。。。とにかく色々やっている感じでしたね。
—
次にTopsyのリシャブ・アイエル・ゴッシュ。
まずは懐かしいアルタビスタの話から。
アルタビスタはウェブの情報をインデックシングすると言う革命的なことを行った。
Googleがその情報をネットワークとして理解し、解析することを行った。その結果、情報の質を判断し、より使いやすい検索結果が提供できるようになった。
ウェブページの質とは言え、コンテンツ自体は元々人によって作られている。コンテンツを産みだす人に注目する。この考え方をリアルタイム検索に当てはめた。
ソーシャルウェブのコンテンツの特徴は全ての情報にタイムスタンプ、時間の情報があること。
Topsyはリアルタイム検索エンジンでは無いが、その情報を整理して見やすい形で表示するサービス。時間軸やリツイート数で情報の重要性を決めている。
特に便利なのが写真。例えば最新の自動車ショーの写真を見たい時にはGoogleの画像検索より適切な結果を返す。画像もTwitterのリツイート数をベースに関連性が高いものから優先表示させているから可能。
。。。技術的にどこまで凄いのか不明ですが、良くまとまったサービスですよね。SEO Japanも活用させてもらってます(この記事の最初にあるtweetボタンをクリックしてみてください)。記事がどの程度Twitter上で取り上げられたかを見るには現状一番便利な気がします。
—
最後に、Collectaのゲリー・キャンベル。
Twitterの普及で、情報の流通がより民主化された。誰でも情報をリアルタイムで発信でき、皆で共有できる。
大量のリアルタイムコンテンツが存在し、その中で共有されるリンクがある。もちろんTwitterだけでなく、Facebookもある。他のSNSもあれば、画像や映像など様々なコンテンツもある。
Collectaのリアルタイム検索は従来のウェブ検索と違う。クロール&インデックス型の検索ではなく、プッシュされる情報にフィルターをかけて、リアルタイムな情報をストリーミング表示する。このアプローチを取っているのは我々だけではないか?
リアルタイム検索には大きなマネタイズの可能性がある。検索の15%は情報検索だけでなくトランザクション目的の検索。リアルタイム検索にも大きな可能性があるはず。
アルタビスタが第一世代の検索とすれば、Googleは第二世代。そしてリアルタイム検索が大さん世代だ。
最後に Collecta のデモをしてくれました。ベータ版が見られますが確かに中々面白いですね。ウィジェットも配布しているそうですが、短期間で大量に利用されているようです。MySpace検索のデモも見せてくれましたが、MySpaceはTwitter以上に見られていることを意識していない感情的な発言が多い、とのことでした。
。。。アプローチ自体は見ていても一番面白かったですね。最終的にどうサービスとして成り立つのかは、まだ何とも言えませんけど。
—
次にQ&A。
サリバン:
君たちの未来は何?買収されることかな?
Collectca:
大企業と僕らはアプローチが違う。リアルタイム検索を活用しているユーザーはまだ一部。僕らは最先端の分野でイノベーションを起こそうとしているが、大企業はより多くのユーザーにアピールするサービスを最優先している。
CrowdEye:
僕は長年マイクロソフトで働いていたが少人数で働くベンチャーの環境は大企業と全く違う。成功できるかは分からないが、エキサイティングだ。
OneRiot:
ガーディアン紙に提供しているリアルタイムコンテンツは、Yahoo!やGoogleが提供していない革新的な内容だったと思う。もちろん僕らの基本は検索エンジンではある。ガーディアン紙との提携を通して多くの検索クエリーを得る機会を得た。このデータを生かしてもっとサービス改善していきたい。
Topsy:
リアルタイム検索が普及するに連れ、リアルタイム検索が現状のウェブ検索で対応仕切れない状況がより明らかになる。朝のセッションで、メジャー検索エンジンの連中が既存のウェブ検索にリアルタイム検索を融合していく話をしていたが、実際問題、中々効果的な結論は出していけないだろう。何かを変えるということは現状のマネタイズの仕組みを崩すことでもある。僕らのようなリアルタイム検索に特化した会社はその辺に勝機があると思う。
サリバン:
画像のリアルタイム検索は、確かに今朝も余り話題にならなかった。Topsyの話を聞いて確かにニーズがあると思う。画像のリアルタイム検索は例えばメディアにライセンス提供することもできるかもしれない。例えば最新の竜巻の写真などは需要があるだろう。
CrowdEye:
リアルタイム検索の結果は色々なことに二次利用できると思うし、マネタイズの可能性は色々あると思う。
OneRiot:
色々あるが、ベンチャーとしては何かに特化することが成功するには大事だと思っている。僕らはTwitter以外のリアルタイムコンテンツを検索対象としているが、これを外部にAPI提供することでマネタイズする機会を作っていきたい。
Collecta:
従来の検索サービスでは、ジャンルを特化したバーティカル検索エンジンと言うものがあったが、リアルタイム検索でもその考えはあると思うが、よりセマンティックな分析を行うことで多様性のある情報を提供したい。
サリバン:
リアルタイムの検索結果に広告を表示する場合の問題がある。例えばToyota(また・・・汗)関連の検索で、それまでポジティブな話題が中心だったのに急にネガティブな話題に変わった場合があるとする。このようなポジティブだった話題がネガティブな話題に変わった時、それまで掲載していた広告主は掲載を取り止めたい場合もあるだろう。どう対応するのか?
Collecta:
トランザクション目的の検索がされた際に、広告を出す、と言うアルゴリズムを強化することが重要。大被害が起きた際に広告が表示されるようなことは避けられる。
サリバン:
ウェブマーケッターに何か一言ある?
OneRiot:
従来のウェブ検索では良いコンテンツを作ってリンクを増やせばそこそこ上位に表示できるだろう。リアルタイム検索ではそうはいかない。ランキングアルゴリズムが全く違う。リアルタイム検索に参加するには、積極的に情報を発信し、発信者の質自体を高める、高く評価される必要がある。
CrowdEye:
参加することには100%賛成だが、つぶやきの内容を無視してTwitterのフォロワー数だけにこだわる人が多いが、重要なのはあくまでつぶやく内容。
Topsy:
リアルタイムコンテンツの口コミ効果は上手くいった場合、非常に高い。ウェブ検索でも同じことが言えると思うが、逆に同じアプローチがリアルタイム検索でも使える。質の良いコンテンツを発信することが大事。
Colectta:
広告主自身もリアルタイム検索の広告は、ユーザーの検索意図を良く考えた上で掲載していく必要がある。またリアルタイムウェブの世界では会話を積極的に行っていくことが重要。結果、それがリアルタイム検索のSEOにもつながる。
—
。。。以上です。リアルタイム検索で注目を集めているベンチャーが勢揃いした、と言う感じですね。それぞれ特徴や考え方があって面白かったです。
Q&Aは答えになっていない回答が多かった気もしますが、皆、未来について色々考えていて熱く語っていましたし(先ほどのメジャー検索エンジンのリアルタイム検索より熱かった!)やる気はもちろん、示唆に富んだ意見も幾つかありました。この分野に真剣に取り組んでいる日本のベンチャーって余り無いような。日本からも何か出てくると良いですね。
15 years 10ヶ月 ago
初日午前のセッションは、旬なリアルタイム検索の話題から。最初のセッションは原題「Real Time Search & The Major Search Engines」。3大検索エンジン勢揃いです。
モデレーターはSearch Engine Landのダニー・サリバン。Q&Aモデレーターは同じくSearch Engine Landのマット・マッギー。スピーカーはGoogleのサーチプロダクトマネージャーのディラン・カセイ、Yahoo!のサーチプロダクトマネージャーのイワン・ダビチェフ、マイクロソフトのサーチテクノロジーセンターマネージャーのシーン・サッター。
まずは各検索エンジンの人がプレゼンを。
最初はマイクロソフトのサーチテクノロジーセンターマネージャーのシーン・サッター。アルファベット順で他意は無いそうです 笑
—
リアルタイム検索の重要性は?
地震が起きた時に最新情報を知りたい、最新のスポーツの試合結果が知りたい、、、リアルタイムの検索のニーズは元々あった。
そこにTwitterやソーシャルメディアの登場・普及により、大量のリアルタイム性を持ったコンテンツが生成される時代になっている。
例えば先日シリコンバレーエリアで地震があった。普通に検索してもB/G/Yどれでも出てこない。しかしソーシャルネットワークで瞬時に話題になった。Twitterでもつぶやかれた。現状はソーシャルメディアやTwitterから直接検索しないといけない。
現在、ネットには様々なメディアがあり情報が産み出されている。主要な所では:
電子メール
Facebook(SNS)
Q&A
Twitter
ウェブ
がある。上に行く程、プライベート、下に行く程公共性がある。
リアルタイム検索で最適な情報が何かを判断する技術は、Googleが広めたリンクポピュラリティのアイデアだけでは足りない。
情報の関連性、リンク関係を見ていくと、自然なリンクは非常に複雑。スパム的なリンクはリンクの種類や関係は非常に単純。
検索結果でリアルタイム検索の結果をどのように表示させるかは試行錯誤している所。通常の検索結果にTwitterのつぶやきやリンクが共有されたウェブページ+つぶやき等、ミックスして表示する実験をしている。
—
次にYahoo!のサーチプロダクトマネージャーのイワン・ダビチェフ。
Yahoo! NewsにTwitterのつぶやきを表示したり、検索結果に直接Twitterを表示する実験をしている。リアルタイム検索の課題は下記:
1. 素早いインデックス
2. 検索キーワードの意図を分析(新しい情報を出すことが良い場合は少数)
3. ランキングアルゴリズム
検索キーワードが、リアルタイム検索に適したキーワードがどうか、どのように判断するかが重要。
Yahoo!ではタイムセンスという概念を持っている。まだパブリックじゃない情報だ。簡単に言うと言語モデルをベースにしている。
言語 = 言葉の集合体
言語モデル = コンピューターにボキャブラリーを説明する方法
特定の検索キーワードがリアルタイム検索に適しているかどうかを判断する際、そのキーワードの登場比率が以前と比べどうだったかと言うことを言語モデルに落として判断する。
。。。アルゴリズム的には分かる気もするけど何故に言語モデルなのか良く分かりませんでしたぁ。。。涙 でも会場の人も大半分かってなかったような(と、期待)。
今後の課題は下記:
・リアルタイム検索、ランキングとインデックスのリアルタイム性を高める
・ニュース以外にもリアルタイム検索を積極的に導入していく
最後に注意として
・複数のバズワード、流行語を含んだ投稿
・ハッシュタグの使いすぎている投稿
はしない方が良い。スパムと自動判断して検索対象から排除される。
—
最後にGoogleのサーチプロダクトマネージャーのディラン・カセイ。
SNSやTwitterの普及でリアルタイムの情報が大量にウェブ上で溢れるようになった。元々リアルタイム検索のニーズは存在していた。
リアルタイム検索は昨年12月にリリースした。現状、マイスペース、Facebook、Google Buzzまで対象にできている。英語以外にロシア語と日本語に対応している。リアルタイム検索で検索されたキーワードに関する情報は、同様にリアルタイムでウェブ上でコンテンツが生成されている。
現在、例えば検索結果の最下部でTwitterのつぶやきをリアルタイム表示している(例で「Toyota Sales」と言うキーワードでデモしてました・・・)。リアルタイム検索の専用ページではTwitter以外にも他のSNSも表示している。またニュースも表示している。
。。。会場の誰かが早速Toyota Salesで検索して最初に表示されているのに笑いました。
リアルタイム検索のアルゴリズムには様々なウェブ検索の技術を応用している。
難しい部分は、検索キーワードが検索結果でリアルタイム性を求められているキーワードであるかどうか、と言う判断。
現在、全てのSNSやリアルタイム性がある情報を発信しているサービスが、リアルタイム検索の結果に表示されるような共通フォーマットを考えている。
リアルタイム検索で取り上げられるには、書く内容は情熱を持って沢山書くこと。SEOも重要だが、基本は守りつつ、やりすぎないこと。
—
三者三様ではありますが、取り組んでいることは課題も含めてどこも同じですかね。
—-
次にダニー・サリバンが質問。
サリバン:
リアルタイム検索でどうマネタイズするのか?リアルタイム検索に広告を差し込むのは難しくないか?Googleも今は広告を出していない。
Google:
僕らは検索に100%フォーカスしている。リアルタイム検索に多くのマネタイズのチャンスは確実にあると思っている。
マイクロソフト:
広告を出す時はセンシティブな要素がリアルタイム検索は色々ある。例えば人が死んだ時。マイケル・ジャクソンが検索された時、広告を出して良いのか、など。
Yahoo!:
ローカル検索とからめるとマネタイズの機会はあるのでは?
。。。確かにこれはサービス提供者の課題ですね。ローカル検索とからめるのが自然な気がします。マイケル・ジャクソンが亡くなった話題を検索している時にマイケルのDVD一覧が表示されてもね。。。買うかもですが 汗
サリバン:
リアルタイムのコンテンツをクローリングする課題は?
Google:
確かに通常のクローリングではTwitterは上手くクローリングできない。リアルタイム検索でもTwitterとSNS、ニュースでは微妙に違う。どのように意味を判断し、最適な形でユーザーに表示できるかが課題。
マイクロソフト:
コンテンツと検索のエコシステムは、リアルタイムコンテンツの増加でバランスが崩れてきているが、皆が満足できるエコシステムを作ることが大事。
Yahoo!:
品質の高いコンテンツにライセンス料を支払って検索対象にすることもあるだろう。
サリバン:
リアルタイム検索は実際に利用されているのか?
マイクロソフト:
使われている。今後もっと使われていくだろう。何故ならユーザーがリアルタイム性のコンテンツを大量に産みだしており、その量も増えていくだろうから。
サリバン:
リアルタイム検索と通常のウェブ検索は統合されるのか?
マイクロソフト:
最終的にはそうなる。
サリバン:
Facebookは?(マイクロソフトがFacebookを買収するか?と言うことを示唆して)
マイクロソフト:
それはノーコメント 笑
サリバン:
Yahoo!ではリアルタイム検索は使われているのか?
Yahoo!:
まだまだ発展途中だが、利用はされている。今後もっと機能を充実させていく。
サリバン:
Googleはどうか?検索結果の一部でTwitterのつぶやきがリアルタイムでスクロール表示されるのは目につくのは確かだが。
Google:
実際に使われている。やはりどのキーワードで検索された際にTwitterの結果を表示すべきかと言うことが、つまりユーザーニーズにマッチングした結果を提供できるか重要。
サリバン:
リアルタイム検索で情報の新規制と信頼性はどちらが重要なのか?
Google:
2つのコンビネーションと言うしかない。まだ完全な答えは出ていない。現状でも様々な検索オプションを提供している。
マイクロソフト:
信頼性自信もリアルタイム検索ではリアルタイムで変わる。例えばリンクを受けている情報源はその時その時リアルタイムで変わる。
サリバン:
例えばtoyotaで検索すると現状はネガティブな話題ばかり出る。未来のSEOはネガティブSEO対策でトヨタ自身が永遠にTwitterでポジティブな話題をつぶやかないといけなくなるのか?
マイクロソフト:
1つの情報発信源が、検索結果を独占することはリアルタイム検索でもできない。
Yahoo!:
ウェブ検索で使われるオーソリティ評価のアルゴリズムはリアルタイム検索にも適用される。スパム的な利用は難しくなる。
サリバン:
1つのつぶやきの寿命はどれ位なのか?つぶやきによっては評価が高くしばらく結果に出てきそうだが。
Google:
リアルタイム検索の結果表示の仕方にもよるが、評価の高いつぶやきはより多くのケースが表示されることにはなるだろう。ただその期間がどれ位続くのか、と言うのは現状最適な答えは無い。同時に、例えば大地震が起きて1,000のつぶやきがされた時、全てのつぶやきを表示していては意味の無い検索結果になりかねない。重要な情報やつぶやきが見過ごされる可能性もある。非常に難しい課題にチャレンジしている。
サリバン:
もしもYahoo!のスパムフィルターにTwitterアカウントがひっかかったらどうなるのか?元に戻せるのか。
Yahoo!:
現状、明確な答えは無いが、もしもそうなったら僕に直接言ってくれ 笑 ただアカウント自体がスパムかどうか、と言うこと以上に、その時点でスパム的な行為を行っているかどうかがより重要。
Google:
同感。リアルタイム検索ではその時点でスパムに対する対応をしていく必要がある。
サリバン:
リアルタイム検索はローカルサーチとどう融合されるのか?
Yahoo!:
僕らは既にチャレンジしている。どのようにリアルタイムコンテンツのローカル性を判断するか、と言う課題はあるが。アカウントそのもののローカル性、またはつぶやきそのもののローカル性等、判断基準は色々ある。いずれにしても取り組んでいきたい分野だ。
サリバン:
文字情報以外にも映像や写真、、大量のリアルタイム性がある情報があるが、どのように統合していくのか?
Google:
現状はリアルタイム検索は第一段階に過ぎない。例えばMySpaceにはリアルタイム性も高い大量のメディアや音楽に関する面白いコンテンツがある。数年後にはリアルタイム検索のプラットフォームは今とは相当変わって進化していると思う。
—
。。。以上です。
。。。最後に少し会場とのQ&Aがありましたが、一番リアルタイム検索で欲しい機能は?と言う質問があった時に「リアルタイム検索からオプトアウト(検索対象から外す)の機能がほしい」と言う意見が多かったのが印象的と言うかナルホド、と言う感じでした。
後はダニー・サリバンが全ての話題を「toyota」を事例にしていたのが日本人としては辛かったです。。。とは言え大企業が危機的状況になった際にリアルタイムの検索結果がこうなる、、、と言う実例を見るには確かに参考になりますけどね。ウェブ検索以上にネガティブ対策が必要になる、、、と言うかそもそもできそうもない気もしますが。ある程度影響力があることをしようとすると全てスパム的になりそうな。
後、3社の中でGoogleの人が一番話していましたね。次にマイクロソフト、最後にYahoo!と言う感じでした。この辺り、何か各社の状況を表しているようでどこか悲しかったですね 笑
15 years 10ヶ月 ago
さてさて、始まりましたSMX(Search Marketing Expo)。先々週ロンドンで行われたSESに参加したばかりですが、興奮、と言うか時差ボケ冷めやらぬうちにアメリカ西海岸はシリコンバレーで行われるSMX Westに参加です。GoogleやYahoo!の本社もあるネット企業の総本山で行われるSMX、今年最初のSEM関連の最大イベントと思われますから参加しないわけにはいきませんでした。
初日のキーノートはなんとマイクロソフトのCEO、スティーブ・バルマーが登場。検索関連のイベントに登場するのは初めてじゃないでしょうか。Yahoo!との検索エンジンのパートナーシップもアメリカ、ヨーロッパで法的に認められたばかりで、いよいよGoogleとの全面戦争?!前夜を予感されるまさに旬な時期に登場。時差ボケによる睡眠不足でテンション低めですが、気合いで早速レポートしていきます。
サリバン:
まずはマイクロソフトとYahoo!の検索パートナーシップについて教えてくれる?
バルマー:
マイクロソフトとYahoo!の検索ボリュームが統合することで、スケールのあるデータを解析できる。検索結果の質をより高めていくことができる。これはユーザーに対してもよりメリットのある検索体験を提供できると考えている。
サリバン:
検索の世界に大きな変化は起こるか?全てを変える「ゲームチェンジャー」は現れるか?
バルマー:
ゲームチェンジャーが何かを探している所だ。
サリバン:
Bingは米国でNo.1になれるか?
バルマー:
それについて正しい答えはない 笑 Yesと言っても何か言われるし、Noと言っても何か言われる。。しかしここではYesと言っておこう(拍手)。しかし我々がやらなければいけないことは大量にある。競争は簡単ではない。
サリバン:
No.2のポジションでも満足できるか?
バルマー:
明日No.2からNo.1になれるわけではない。長期的なゴールでNo.1になりたいと思っている。
サリバン:
Yahoo!は検索サービスにおいてプレイヤーとして意味を持って残っていけるのか?
バルマー:
我々の検索エンジンがそれを助けるだろう。検索シェアを徐々に上げていくことを期待している。
サリバン:
でもマイクロソフトを同じことをやろうとしているんじゃないのか?
バルマー:
BingがNo.1になればそれでいい。
サリバン:
Googleに関して法的に問題があるサービスが色々あり問題になっているがそれについてどう思うか?
バルマー:
マイクロソフトが考えることではなく、最終的に法によって決められていくことだ。
我々としては極端な話、ユーザーや広告主にプラスになるのであれば様々なデータをGoogleと共有しても良いと思っている位だが、Googleはそれはやらないだろう。ただデジタル書籍にしてもGoogleがその圧倒的なポジションを利用してマーケットを独占することに関しては懸念している。
。。。。それって自分たちのことでは。。。汗
サリバン:
過去数年でBingの提携パートナーを多数獲得してきたと思うが、iPhoneについてはどう思うか?
バルマー:
Bingも対応させたいと思っている。とにかくBingのパートナーをたくさん増やすことが大事だと思っている。
サリバン:
Bingの検索数は他のモバイルプラットフォームより既にiPhoneが最大と聞いているがそうなのか?
バルマー:
商用的なキーワードに関して言うとそうだ。iPhoneは携帯電話など他のモバイルとは違う使われ方をしている部分はあると思う。
サリバン:
モバイルのサーチについてはどういう印象を持っているか?
バルマー:
利用率は毎年増えていくだろう。PCを超えるまで成長するかは分からないが。モバイル特有の検索ニーズはあると思うし、特有の検索行動はもっと増えていくだろう。
サリバン:
Googleとマイクロソフトで検索に対して会社としての姿勢の違いがあるか?カルチャーに違いがあると良く言われるが。
バルマー:
僕はGoogleで働いていないので分からない。Googleのカルチャーについて良くポジティブに取り上げられるが、マイクロソフトも負けないくらい優秀なスタッフがおりイノベーションを起こしている。
サリバン:
マイクロソフトは検索で利益を産んでいくことができるのか?
バルマー:
何年かかるか分からないが、そうなるよう努力している。5年~10年後にもしかするとマイクロソフトがNo.1になっているかもしれない。でも検索エンジン自体が5年~10年後にどういうビジネスになっているかは誰も予測できない。とにかく取り組んでいくだけだ。
サリバン:
検索のビジネスモデルについてはどう思うか?
バルマー:
広告主、特にオークション型広告にサポートされたビジネスと言うのは非常に面白い。広告主間で競争を産む極めてダイナミックなモデルであり、素晴らしい。
サリバン:
検索ビジネスにどれ位力を入れていきたいのか?
バルマー:
7-8の主要ビジネスと、付随する多数の関連ビジネスがある。次のフロンティアとなるビジネスが何になるか常に模索している所だ。検索もそうだし、デジタルテレビも可能性がある。リアルタイム検索も面白い。バスケットボールの結果を知るにはTwitter以上のツールはない。
サリバン:
Twitterと言えば、Twitterを買収する気はないのか?
バルマー:
買収するのが良いのか何とも言えない。我々は既にTwitterと関係を持っているし、何でも買収するのが良いわけではない。独立性を持った会社の方が上手くいくこともある。
ちなみにバスケットボールのつぶやきをするための秘密のアカウントも持っている 笑
サリバン:
検索して最近最も役に立った経験は?」
バルマー:
「キーライムパイ」だね。妻に言われて検索したんだけど。特に今のBingは便利だよ 笑(レシピ検索のこと?)
サリバン:
子供にBingって名前を付ける気がある?
バルマー:
それは微妙だが、、、50年後に子供がBingを使っていることを願うね。
サリバン:
Bingをこれ以上改善していくのに何が必要か?
バルマー:
色々考えているアイデアをもっと統合していきたい。また検索結果についてももっと品質を上げていきたい。特にロングテールのテールの部分はかなり改善されてきていると思うがもっと質を上げていきたい。Bingをサービス提供する国も拡げていきたい。
サリバン:
検索で最大のビジネスチャンスは何だと思うか?
バルマー:
最大のチャンスはユーザーがしたいと思うことに答えてあげる、と言うことだ。例えば僕が国の負債について検索したいと思っても、現状は様々な結果が出てきて本当にほしい負債情報が中々見つからない。ヘルスケアについて調べようと思っても同様。検索結果はまだまだ混乱した情報の塊だ。もっと整理された使いやすい結果を提供していきたい。
まとめると最大の検索ビジネスのチャンスは下記の2点:
1.
ユーザーの検索意図を理解する
2.
整理されていないデータをいかに整理するか
これがどこまでできるかが大きなビジネスチャンスを産むし、まだまだできることは多い。
。。。なるほど。シンプルながら分かりやすい。
。。。キリが良い所で、会場とのQ&A。
会場:
モバイルのWindows 7はかなり高性能だと思うが、それを有料で売るライセンスビジネスに固執するのはどうなのか?Googleのように長期的な視点で例えば無料で提供するなどできないのか?
バルマー:
例えばAppleにしても基本的にライセンス費でかなり収益を上げている。とは言え検索結果の広告費等で成立させるモデルも無くはないだろう。色々ミックスしながらビジネスモデルを考えていく。
会場:
シルバーライトについては今後どうなのか?
バルマー:
今後も普及の努力をしていきたい。モバイルもPCも同様。とは言えAdobeとの協業も考えていきたい。
会場:
モバイルで検索広告が成り立つのか?僕は全く使わないが。
バルマー:
現状のPC型の形がそのままモバイルで成り立つとも思っていない。それがユーザーにとって有益な内容であれば、広告を表示することが悪いわけではない。デザインやインターフェースなど今後進化していくだろう。
会場:
ユーザーのプライバシーについてはどう思うか?
バルマー:
ユーザーのプライバシーやニーズに対する意識は、サービスの進化と共に常に進化している。ユーザーが情報を公開することで、より便利なサービスを受けられることもある。非常にセンシティブな問題だが、常にユーザーの意識を気にしながら取り組んでいくべきだろう。
。。。以上でした。
ひたすら、サリバンとバルマーがQ&A形式で会話していったので、追うだけで手いっぱいでした。ちなみに上の文章はかなり要約していますので実際の発言と思わないでください。意図は間違っていないと思いますが。
感想としては、何か大きな発表でもしてくれるかと思いきや、正直余り対した話も無かったのですが 汗 、検索のビジネスチャンスを2つで言い切る辺りは流石だな、、、と思いましたね。しかし後半モバイルの話が多すぎました。逆にアメリカだとAppleのiPhone、iPad含めて注目されている分野なんですかね。
ま、マイクロソフトのCEOが検索マーケティングのイベントに出る時代になったと言うこと自体が凄いですけど!
15 years 10ヶ月 ago
さて、SEO Japan復活&SES Londonのレポートが思ったより好評だったことに調子に乗ってしまい、SMX Westもレポートすることにしました。
ロンドンから帰国して1週間でアメリカ西海岸と言う僕的には強行スケジュールなのですが、SMXはSES以上に内容が充実しているのでは?と思われる検索エンジンイベントですし、頑張ってレポートしたいと思います。
先ほど、ホテルにチェックインしたばかりです。このホテル、会場はシリコンバレーのコンベンションセンターの隣ですが、しかしこのサンタクララと言う町、恐ろしい程、何も無い所です。おかげでレポートに集中できそうな予感 笑
三日間あるのですが、初日のキーノートに何故かマイクロソフトのスティーブ・バルマーが登場。別にマイクロソフトは好きでもありませんが、Yahoo!と組んでGoogleの唯一の対抗馬であることは確かですし、どんな内容になるか楽しみですね。
他にもSES以上に具体的、実用的、先進的なセッションがスケジュール見る限りは満載な感じですので、気合い入れて書いていきたいと思いますっ。
SESでかなり書き慣れたこともあり、前回以上に有益な内容にしたいとは思っていますが、唯一の懸念点は、今回&今後のレポートのために購入したばかりの長時間駆動型(公称14時間!)の新ノートパソコン。今も使っていますがキーボードに慣れておらず入力に時間がかかる&タイポミスの連続です。記事はリアルタイム性を重視して、多少のミスは気にせずにアップしていきますので(後で気づいたら直します)ご了承くださいませ。
それではこれから三日間、お付き合いくださいませ。記事の更新情報はTwitterで随時発信していきますので登録がまだの方はこの機会に是非!
http://twitter.com/ioixseo/
15 years 10ヶ月 ago
SES London以来の投稿です。SEO Japanではイベントのレポート記事しか書かないつもりでしたが、面白かったので書いちゃいます。
ここ数日、英語圏のTwitter上で、「もしもSEOに関する映画ができたら・・」と言うネタで過去の映画にもじった映画名を投稿するのが軽いブームになっています。皆、ハッシュタグに #seofilms と付けているので検索すると色々出てきます。ちなみにPPC版もあります。結構、笑ってしまったので、面白かったモノを幾つか紹介。
301 Dalmations(原題:101 Dalmations)
101匹ワンちゃん → 301匹わんちゃん
。。。まずは軽くジャブ。
The Wizard of DMoZ(原題:The Wizard of Oz)
オズの魔法使い → DMoZの魔法使い
。。。お互いにクラシック。Wizard of seoMoz ってのもありました&今はこっちかも?
Schindler’s Keyword List(原題:Schindler’s List)
シンドラーのリスト → シンドラーのキーワードリスト
。。。ここに入りたい。
iRobots.txt(原題:iRobots)
アイ・ロボット → アイ・ロボット.テキスト
。。。面白くないけどナルほど。
One Missed Call To Action(原題:One Missec Call)
ワン・ミス・コール → ワン・ミス・コール・トゥ・アクション
。。。ジャパニーズ・ホラー「着信」のリメイク。コール・トゥ・アクションなら1回で済まなさそうですが 汗
Minority Search Query Report →(原題:Minority Report)
マイノリティ・レポート → マイノリティ・クエリー・サーチ・レポート
。。。大事です。
Cache me if you can(原題:Catch me if you can)
キャッチ・ミー・イフ・ユー・キャン → キャッシュ・ミー・イフ・ユー・キャン
。。。切実な声。
White hats can’t jump(原題:White men can’t jump)
ホワイト・メンはジャンプできない → ホワイト・ハットじゃジャンプできない
註:正確な日本名は「ハード・プレイ」
。。。かなりウケた。元々黒人と白人のバスケ映画で白人は飛べないだろう、と言う話で。英語圏も有料リンクしないとビッグワード上がらないって言ってたしなぁ。。
Malcom XML(原題:Malcom X)
マルコム X → マルコム XML
。。。影響力ありそう。
Miracle on 34th Visit to Purchase(原題:Miracle on [...]
15 years 10ヶ月 ago
さて明日帰国ですが、テンションが覚めないうちにSES London参加の総括でもしておきますか。
まず最初に一言、今回はホント、書きました。。。SES開催中に書いた文字数を合計すると、メールを別にすれば過去3~4年に書いた文章を全部足した以上の文章量だったと思います 笑 最初からセッションのリアルタイムレポートすることは決めていたとは言え、正直書けるか不安だったのですが、やってみると意外と書けるものですね。セッションが次から次にあり、次のセッションの前に文章アップしないとリアルタイムレポートが崩壊してしまう、と言う雑誌の原稿の締め切り以上の強迫観念が結果的にプラスに働いたかもです。
個人の話はともかく、今回のSES Londonですが、イベント名がSES(Search Engine Strategies)、直訳すると「検索エンジン戦略」を考えるイベントにも関わらず、効果測定やサイト改善の話が多かったのが印象的でした。3日間の最初のキーノートは全てサイト分析&改善の話だったのが象徴的です。
SEO業界10年の古参者からすると、もう少し検索マーケティングの未来の話が聞きたかったな、、と思う所もあります。もちろんPPCやSEOのテクニック的な話は各セッションで行えば良いわけですけど。PPCのみのセッションは参加しなかったのですが、最新のキーワード広告管理ツールの話など最先端の話は幾つかあったみたいです。SEOに関して言うとグレーゾーン~ブラックハットな話や伝説のブラックハットのSEOマスターがセッションで出てきて面白かった、と言うのはあるのですが、余り最新のテクニックどうこう、、と言う話題はほぼ無かったですね。ユニバーサルやローカルサーチで少し、程度で。
全体的に、何かこの業界にいてモーティベーションを感じる話がもっと聞きたかった気はします。全体通して、幾つか新しいトレンドはあるものの、数年前に僕が参加したアメリカで行われたSESと比較して、さほど内容変わっておらず「検索マーケティングの未来ってあるのか?!」と思いたくもなるような印象さえ受けました。
もちろん、キーノートやセッション中の話で部分部分には未来を感じる話題や意見もあったのですけどね。例えばリアルタイム検索やローカルサーチなどトピックとしては色々あったのですが。何かこう、「この業界に居続けてメディアやマーケティングの進化を体感したい!」と言う未来の可能性を感じる話があればな、、、と感じました。僕がそういうことを重視する人間だからかもですが。SESのために言っておくと、参加した人のブログとかTwitterを見る分には大半の人が満足していたようでした!
後、ソーシャルメディア、特にTwitterに関するセッションや話題が多かったのは正に今の時代、と言う感じです。数年前のSESではブログのセッションは少しありましたが、ソーシャルメディアなんて言葉さえ出てこなかったですからね。ソーシャルメディアは企業やエージェンシー・代理店が対応する以前に確実に普及してしまった分野ですから当然と言えば当然かな、と。ソーシャルメディアマーケティングと検索マーケティングが切っても切れない関係になりつつあるのは疑いは無いです。
ポジティブな意見が少なく恐縮ですが、同時にリアルタイム検索、ローカル検索、ユニバーサルサーチ(何故か最後だけサーチにしてますが・・・)など新しい技術やトレンドも登場し確実に普及しつつあるのは感じました。この1年でSNS、Twitterを主軸にソーシャルメディアがネットの中心メディアに躍り出る状況まで達し、またそこで新たな検索ニーズが発生し、従来型の検索エンジン、検索アルゴリズムだけでは対応仕切きれない状況があるのもまた事実。
今はまだ何とかなってるとは思いますが、今後その分野の検索サービス側の進化は確実に問われるわけで、世界で圧倒的シェアを誇るGoogleがその位置を維持し続けられるか、と課題は当然Googleも感じていると思いますし、逆にYahoo+マイクロソフト陣営はまだまだ現状に対して勝負できる余地があると考えているのかもしれません。
検索サービスはより進化を求められ、当然進化していくでしょうし、企業やエージェンシー、代理店も対応が求められていくのは間違いありません。
。。。だからこそ、もっと夢のある話を聞きたかったのですが。。。
最後に、少し客観的に考えてみたのですが、世界と比較した日本のSEOの問題点としては下記があるのかな、と感じました。SEOに特化して考えているのは僕がSEMでは無くSEOのプロですのでお許しください:
—
日本のSEOの問題点:
1. リンク対策中心のSEOに偏り過ぎ
2. ユニバーサルサーチ対応が遅れ気味
3. ローカルサーチ対応が遅れ気味
—
まず 1 に関してですが「お前が言うな!」と言うツッコミは覚悟してます。僕の会社でもリンク対策が中心になっているのは事実。言い訳がましくて恐縮ですが、やろうと思えばSEOに関するサービスは全て業界トップクラスの内容で提供できる自信はありますし、実績もそれなりにありますが、現状の検索市場と重要性、また事業上の判断からか全体の比率的にはリンク対策中心のSEOになっているのが現状です。SEOを補完するサイト解析やLPOも頑張っていますけど(半分PR)。
世界の中でも日本は最も多種多少なリンク対策サービスが存在する国と思いますし、正直な所、その80%はサービス提供者が意識するかどうかはともかくブラックハットなサービスと思います。僕自身もその現状を決して良いとは思っていませんが、リンク対策無しには順位が上がらないこともまた事実。ある意味、必要悪と割り切って取り組んでいる部分もあるのですが、今回のSES参加を通して、それに甘んじず常に広い視点でSEOや検索マーケティングを考えていくことが重要だな、と改めて感じています。
2 に関しては、ユニバーサルサーチが特にGoogleにおいては実際かなりの確率で検索結果に導入されているにも関わらず、企業や代理店、SEO会社の対応レベルが低すぎると言うのは感じます。ただこれは日本の場合、Yahoo!が検索シェアを未だにGoogleより持っており、Yahoo!のユニバーサルサーチの対応度はGoogleより多少低い、と言うのもあるとは思いますが。
しかしマイクロソフトとYahoo!の提携がヨーロッパ、アメリカで法的に認められたこともありますし、Bingはかなりユニバーサルサーチを意識した検索エンジンになっていると思いますし、今後、BingがYahoo! Japanの検索エンジンになるにつれ、状況は一変するかもしれません。この観点から、検索マーケティングに取り組む人はユニバーサルサーチへの意識を現状から持っておくべきとは思います。目の前の仕事に忙しくなりがちですが、実際、Googleで色々実験できるわけですし、きっとそこで得たノウハウが後でYahoo!でも生きてくると思います。
最後に 3 ですが国土の広いアメリカや多数の国が存在するヨーロッパではよりニーズがあるのかな、と言う気もします。僕も地方出身ですし、地方を無下にするわけじゃないですけど日本は良くも悪くも東京中心の市場がありますからね。とは言え地方の主要都市はそれなりに人口もいるわけですし、ローカルサーチが進化・普及することで、生活者の人にとってももっと便利な検索サービスが出来上がる気もします。
日本市場でもGoogleは素早く、またYahoo!も負けずとローカルサーチ市場は深堀りしてくるでしょうが、日本の場合、ローカルサーチの進化にローカルの企業やサービスプロバイダーが対応していけるのか・活用仕切れるのかが心配だったりします。逆にそこにビジネスチャンスが存在するのは間違いないなく、競合の多い東京で頑張るより特定の地方都市で高品質のサービスで圧倒的なシェアを誇る地域ネット代理店などが出てきてもおかしくはないですよね。頑張れローカル!頑張れ地方!って感じです。
—
さて最後に締めのコメントを少し。
今回のSEO Japan再開は事前に全くPRもしておらず、とりあえずセッションの記録をつけていこう、、、と言う趣旨から記事執筆を始めたのですが、思った以上に多くの方に読んでいただき、SEO Japanを再開して本当に良かった、と思っています。
もちろん、これは多くの方にブログやTwitter、ソーシャルブックマークでご紹介いただいた結果であり、皆さんには本当に感謝しています。特にSEO業界の重鎮である住さんとTwitterで初日の深夜に語り合った結果、一気にTwitterフォロワー数&当サイトのアクセス数増加につながったのが大きかったですね。改めて住さんありがとうございましたm(_ _)m。ご覧になった方は滝日と住さんって相当仲良いのかな、と思った方も多いと思いますが、最後にあったのは3年前 汗 ただ、なんと言うか、いつ会ったり話したりしても素直にコミュニケーションできる方です。性格は180%違うと思いますけど 笑
他にはSEO業界の御意見番である渡辺さんに取り上げてもらったのも大きかったですね。お二人と違って情報発信活動を完全休止していた僕ですが、相手をしていただき本当に感謝です。
後、諸々ブログやTwitterで今回のSES Londonレポートを取り上げていただいた方、本当にありがとうございます。またTwitterのフォロワーになっていただいた方、僕は現在、リアルタイムの情報収集活動から引退した人間なので(かつてRSSの本を書いた人間が言うのもなんですが)リフォローほとんどしておらず恐縮です。
また今回のSEO Japan再開後、早速「いつまで続けるの?どうせすぐ止めるでしょ。」と言う声を幾つかいただいていますが、少なくとも今年2010年は定期的にこの種の海外カンフェレンスに参加してリアルタイムレポートを行っていく覚悟です。自分自身や会社のPRもありますが、包み隠さない、限りなくリアルタイムに近い情報提供を通して日本のウェブマーケッター(僕自身や僕の会社のスタッフ含む)の方に参考になる、未来に期待を持って日々の仕事を頑張ろうと思えるようなレポートを少しでも伝えていければ、と思います。
海外情報を発信しつつ言うのも何ですが、今回改めて確認しましたが、日本はSEO、PPC、ブログ、Twitter、、、マーケティング手法レベルでは海外に全く負けていません!Googleがアメリカ発なのでどうしても遅れを取る、感じる部分もありますが、SEOのテクニック、ブログ、Twitter等、むしろ日本が最先端な分野も多い。それを再確認し、自信を持っていただければと。もちろん、海外の情報は部分部分で参考になる点は多々ありますし、日本人ってテクニックに走って本質を見失いがちな傾向もありますから、このレポートを通してその辺を振り返る機会にしていただければ良いのかな?と。
なんか偉そうな締め方になってしまいましたが、僕にできることはせいぜいこの程度ですので、、、。帽子の色はその時その時使い分けますが、SEO、SEM、ウェブマーケティングの未来に向かって皆様と走っていきたいと思っています。
と言うことで、次回のカンフェレンス参加までしばし沈黙。
15 years 10ヶ月 ago
最終日、最後のセッションは「Automating Twitter」。SESの最後のセッションがTwitterと言うのも時代の流れですか。
モデレーターはRank-Mobileのシンディ・クラム。パネリストはCrea8 New Mediaのポール・マッデン、Pierrefar.comのピエール・ファー、Freestyle Interactiveのトレーシー・ファルケ、そしてファントマスター!
—
まずはいきなりファントマスターの登場。「Twitterの話だけど、どちらかと言うとブラックハットなSEOで知られています」と自虐的な自己紹介。
ファントマスターはTwitterで1日$500稼いでいると。顧客の生涯価値、ライフタイムバリューに換算すると、と言うことですが。
—
Twitterのオートメーションはスパム以外の目的でも使える。
まずは便利なツールを紹介したい。
SocialOomph
このツールはかなり色々なことができるのだが、例えば投稿の時間指定投稿ができる。自動投稿はもちろんヨーロッパからアメリカにマーケティングしたい場合は有効だろう。
投稿内容も事前に設定してランダム投稿までできる。Twitterにスパム認定されてブロックされないための工夫が色々できるようになっている。
例えば同じ投稿を15時間毎に投稿できたりする。
。。。と言ってここで実際の設定画面を見せてくれたのですが、引用的な文章以外に、いかにもユーザーと会話しているような内容の文章が全部設定されている 汗 さき程ちらっと見た時は実際の会話もたまにしているのかな、と思ったのですが全くのウソと判明 汗
http://twitter.com/fantomaster
このツールを上手に使えば小遣い稼ぎには十分使えるだろう。ただし「Low Tone / ロートーン」、目立たせないことが大事。
他にはTweetMinerも便利。
TweetMiner
リツイートしたい相手を探す時に使える。
—
URL短縮サービスは Bit.ly 他色々あるが、オススメなのは、
zi.ma
まずドメインが短いのが良い。
—
完全にオートメーションの話でした。Twitterは今回のSES Londonからまともにやり出したので知識が無くて恐縮ですが、どれも知らなかった。。。でも、既に結構進化したオートメーションツールが出ていますね。後でそれぞれ調べてみよう。
最後にモデレーターに「オートメーションで他に注意することは?」と聞かれて答えたのが「アバターには注意。興味をひくために女の子の画像を使うようなことは止めた方が良いかも。」と言うことでした。
。。。しかし1日$500稼ぐってどうやって計算したのか謎は残る。
—
次はCrea8 New Mediaのポール・マッデン。
まず
「オートメーションは誰でもできる。ボットや人工知能の歴史は長い。」
と言う一言から。
Twitterをオートメーション化する場合、大事なのは:
・ひたすらブランドのPRしか話さないボットは無意味
・顧客のサポートをするボットが有益
と言うこと。また実際に効果的なボットを作るには、プログラムで処理する部分と、実際に人が発言・反応するハイブリッドモデルが有効と考えている。全部オートメーション化することは無理。
実現するにはTwitterのキャラクター設定も非常に重要。例えば
「ケイティはブリストル大学に通う新しいことに興味がある最近彼氏と別れたばかりの女子大生」
など。具体的であればある程良い。
他には:
・自動化する際は色々なパターンのセリフを用意すること。
・リプライやリツイートも重要。
・実際のセリフを大量に用意するのは大変なので、Twitter上に存在する発言を拾ってきてアレンジして使うのが現実的。
・対象ユーザーがネットでアクティブな時間を調べ、それに合わせていつ人が実際に対応するか決める。
などなど。
。。。ハイブリッドモデルの半オートメーションモデルって面白いですね。実際の事例を見てみたいです。
—
次はPierrefar.comのピエール・ファー。フリーのプログラマーだそうで。
まずはオートメーションの重要性を説明。
オートメーションは、マーケッターにマーケッターの仕事をより効率的に行う手助けをするためにある。
Twitterマーケティングは、分析、モニタリング、エンゲージメント(実行)の繰り返し。
—
■モニタリングのオートメーション
・アグリゲーション
・・自社のドメインにリンクしているツイート
・・特定のキーワード(ブランドやユーザー名)を含むツイート
・特定のランディングページにリンクしているツイート
。。。下記のURLから自動モニタリングボットのサンプルコードをダウンロードできるそうです!興味ある方は是非:
http://perrefar.com/ses-2010/
(試したらリンクが切れているようです。記録ミスか、後でアップされるのか。確認できたら更新します。)
—
■エンゲージメントのオートメーション
・定期的な自動ツイート
・特定のキーワードを含むツイートを自動でフォロー
・フォローしてくれたユーザーを自動フォロー
・新しいフォロワーに自動でDM送信
・ブログやプレスリリースを自動ツイート
・リプライの自動化
&
・「Nag Followig」(ナグ・フォローイング)
自動でフォローを行い、相手もフォローしてくれない場合は数日後にフォローを外す。これを何度か繰り返してフォローを促す。
どれも注意して使う必要がある。特に最後のナグ・フォローイングは危険。相当注意しないとブロックされる可能性大。
。。。最後のは凄いですね 笑
—
■分析のオートメーション
・Google Analytics
・・どこから実際に来たかパラメーターを挿入するなどして分析する
・フォロワー分析
・・フォロワーの言語、地域
・・リツイートしてくれるフォロワー
・・・最重要なので得点を与えることも可能
・ランディングページのA/Bテスト
・ソーシャルメディアのクリックをトラック
取得できるデータはできるだけ取得して、クリエイティブな分析をしよう。
。。。分析の部分は一気に流したので細かく追えませんでした m(_ _)m
—
最後にFreestyle Interactiveのトレーシー・ファルケ。ここで会場にTwitterのオートメーションを既にしているかアンケート。200人弱中、20人弱、いました。範囲にもよるでしょうが、既に結構やってるんですね。
Freestyle Interactiveはイギリスで結構大手のエージェンシーのようで顧客もかなりいるようです。ソーシャルメディアは数年前から普及していたが、Twitterに関しては企業から相談が激増している、と。
オートメーションに関して注意すべき点を事例と共に話してくれたのですが、逐一メモれませんでした。ポイントのみ、まとめます。
・Twitterのコミュニケーションで一番重要なのは、人。オートメーションは人との人とのコミュニケーションをより円滑に行う手段。
・100%のオートメーションは不可能。80%のオートメーションと20%の実際のコミュニケーション。
・現状、余りにスパム的なオートメーションが多すぎる。有名企業のTwitterにも数多く存在する。明らかにロボットが自動投稿・返信している内容は逆に引いてしまう。
・カスタマイズされたコンテンツデータベースをどこまで作りこめるかが重要。
・・ルールとトリガー
・・UGC
・・属性データ
・・カスタムパラメーター
・・キャンペーン
などなど。
・効果測定も重要。既存の解析ツールに独自のTwitter専用の解析ツールを開発して利用している。
・投資が必要と思われるだろうが、プラットフォームよりコンテンツにより投資すべき。
。。。クライアントに大企業が多いだけあり、かなりお金をかけて取り組んでいるようですね。大手?がここまで既に取り組んでいるとは。日本でここまで取り組んでいく代理店は出てくるのでしょうか。
—
。。。以上です。ブログのオートメーションとメールのオートメーションの両方の要素が合わさったような感じですね。まだまだ進化の過程にあるとは思いますが。オートメーションと聞くと、ついスパム的な発想をしてしまいますが、メール会員に登録した際に送るThank youメールもオートメーションですし。部分的に使えばかなり効率的かもですね。と言うか、Twitterがもっと普及すればオートメーションって範囲はともかく絶対に必要になってきそうです。
僕のTwitterの知識、特にオートメーションに関してはかなり足りないこともあり、知識を吸収しながらメモを取っていたので非常に疲れました。。。参考になる記事になっているか不安ですが、内容は豊富だったので幾つか小ネタはあればと。
あ、これでSES London終了です!数日以内に別途、全体の感想を記事にまとめようと思います。余り推敲もしていない記事ばかりでしたが、リアルタイム感を伝えたく。読んで下さった皆さま、ありがとうございましたm(_ _)m
15 years 10ヶ月 ago
午後のセッション「Why Does Search Get all the Credit?」。モデレーターはFoviance applied insightsのニール・メイソン。パネリストはClearSaleingのアダム・ゴールドバーグ、iProspectのマルセロ・サンチアゴ。iProspectってかつて世界最大のSEM会社の1社だったと思います。どこかの大手広告会社に40億位で買収されて話題になりました。もちろん最先端を走っている会社なんでしょうけど、久々に聞きましたね。
まず最初にニール・メイソン氏。初めに
「The Purchase Path」(購買パス)
と言う概念を紹介。トレードマーク取ってます。
購買パスを調べて問題点を明らかにし、問題点を改善していくことが重要と。購買パスには心理的には最終的な購買までに4つのプロセスを踏む。
興味
↓
検索
↓
検討
↓
購買決定
↓
購買
実際のネット上の遷移は色々ある。実際に購買までに実例のパターンには色々ある。
Froogle → アドワーズ
直接訪問 → 比較サイト
メール→メール→検索
などなど。
購買パスの遷移を実例分析すると色々なことが見えてくる。
例えば下記のデータがある:
—
パスパターン 22
検索で始まる 5
検索で終わる 11
パスのステップ 66
パス中の検索 26
—
パスパターン 10
最後がブランド検索の検索 7
最後がブランド以外の検索 3
—
最後が検索、特にブランド検索で終わるパターンが多い。
また別に実例を見てみると下記のデータがある;
—
パスパターン 22
検索で始まる 6
検索で終わる 61
パスのステップ 73
パス中の検索 11
直接訪問で終わる 11
—
この種の分析で言えることは、バナー広告は見られているしれないがクリックされずにデータに残るケースもある、と言うこと。この点は注意しないといけない。
また別のデータ:
—
購買数 31
ブランド検索で終わる 17
ブランド以外の検索で終わる 13
—
最終的に検索で購買するパターンが大半。途中でバナー広告を見ていたケースもある。しかし最終行動の時点ではクリックされないケースが多い。
また別のデータ:
—
パス 22
検索で始まる 5
検索で終わる 8
パスのステップ 47
パス中の検索 14
アフィリエイトで始まる 0
アフィリエイトで終わる 9
—
アフィリエイトのトラッキングの関係で始まった数値が測定されていない可能性がある。
—
この種の効果測定の手法は現在、進化し続けている。
最後のクリック
↓
全クリックを均等に評価
↓
特定のクリックを排除(例:30日以前)
↓
ルールベース(最後のクリックが50%、他は均等、など)
↓
より高度なアルゴリズム
この分析ができればできる程、広告の費用対効果が正確に測定できる。
—
最後に、何故検索が全ての評価を得るのか?を再度まとめ。
1) 最後のクリック vs 購買パス
2) 技術的な課題
3) ブランド検索が何故全ての評価を得るのか?
4) アフィリエイトが何故全ての評価を得ないのか?
5) 革命ではなく進化が必要
—
。。。以上でした。最後のまとめは良く分かりませんでしたが、、、、効果測定をどのように行うべきか、と言う話題は、初日のキーノートでもこの話題は出ていました。海外はもちろん、日本でもまだまだ最後のクリックをベースに効果測定を行っている会社がほとんどとは思いますが、今後重要になっていく分野なのは間違いないですね。特にソーシャルメディアの影響力を測るには不可欠の要素になっていくと思います。
—
さて次はiProspectのマルセロ・サンチアゴ氏。iProspectのブラジル支社の代表だそうです。
最初に広告業界の教祖?ジョン・ワナメーカー氏がかつて語った名言「広告費の半分は無駄になっている。しかしどの半分が無駄なのかは分からない。」を紹介。
—
そして「What Sticks」(何が刺さるか)アプローチが重要、と話します。
このアプローチに重要なのは下記:
・ゴールを共通化する
クライアントとエージェンシーの間で、またクライアントの組織間でもゴールを共通化することが重要。マーケティングキャンペーンの評価をする時に共通化されたゴールを元に、評価しなければ正しい評価が行えない。
・プランB、つまりバックアッププランを用意する
最初の施策がそのまま通じるとは限らない。常に別プランを用意すること。
・お金の価値を知ること
費用対効果、投資価値を常に念頭に置きながらキャンペーンを行うべき。
—
次にiProspectが考えるニューメディアのパラダイムを紹介。
メディアには3種類あると。
Bought / 購入メディア – いわゆる広告として購入するメディア。既存メディア含む。
Owned/ 所有メディア – 自社のウェブサイト。
Earned / 獲得(?)メディア – ソーシャルメディア。ブログやSNS、Twitterの記事、レビュー。
メディアをこの3つの観点から考えるでき。
—
iprospectの調査では、
「67%の検索行動は、オフラインで何かを見た影響で行われている:
まだまだインターネット以外のメディアも重要。
しかし
「55%のマーケッターが、検索マーケティングとオフラインマーケティングを連動させていない」
(対象データ不明です)
でもある、と。
検索とオフラインまで行かなくとも、検索とディスプレイ広告を連動させるだけでも効果がある、と。実際にバナー広告と検索マーケティングを併用した方が効果的だと言う数字を紹介。
—
次に効果測定の方法について。
・オンラインとオフラインの購買行動の両方をトラッキングしているか?
・キャンセルされた購買をトラッキングのデータに含めているか?
Google Analyticsを使っている人は多いと思うが、正確にトラッキングできているか一階調べた方が良い。実際の購買数と、Analyticsで取得している購買数を定期的に比較すべき。
—
。。。最初の人に比べて、余りに幅広すぎる話題で参考になる情報が無かったです。iProspec、、、かつてのエッジさが無くなったのでしょうか。
—
次にQ&A。
Q.
購買パスのデータはどうやって取得しているのか?
A.
(ニール氏)自社開発したソフト。Cookieを使っている。
Q.
ネット広告の効果測定は余りに大量のデータが取れ、何を指標にしたら良いか分からないことがある。パネリストは何を指標にしているのか?
A.
(ニール氏)ケースバイケースだが、現状の測定方法では購買行動の直近のアクションに評価が集まりやすく、検索に評価が集まりやすい。データに出ないからと言って他の手法を完全に無視しないことが重要だ。説明したように、データの取得方法が無いわけではなく、そこから見えてくるものもある。
(マルセロ氏)僕はこの業界に15年以上、関わっているが時に重要なのはどれだけ単純化して考えられるか、と言うことだ。目的を明確にして余計な情報にまどわされないことも大事。
(マルセロ氏)インターネットが未だにニューメディアと言われることに改めて驚かされる。広告業界は中々進化しない。未だにTVの視聴率ばかり気にしているだけで、効果測定のことは全く考えない。
。。。僕の考えじゃありません!
Q.
購買パスを分析をした後に、効果があるパスが分かるとする。その後にユーザーに効果的なパスを通らせるにはどうしたら良いのか?
A.
(ニール氏)最終的にはユーザーの判断になり、全てコントロールできるわけではないが、出稿する広告媒体や検索キーワードの調整である程度対応することは可能だ。
(マルセロ氏)サイトを改善するのは大変だが、ランディングページで誘導先を絞るなどすることで、ある程度誘導したい遷移を辿らせることはできるだろう。
Q.
購買の評価をする時の「アルゴリズム」はどうやって決めるのか?
A.
(ニール氏)基本的には過去の購買パスを分析して適切と考えるアルゴリズムを研究するしかない。現状、試行錯誤しながら行っているのが現状。
—
以上でした。購買パスの分析と効果測定の考え方は、まさにこれから普及していく考え方でしょうね。繰り返しになりますけど、ソーシャルメディアの効果測定を正しくするには必須の技術・方法である気がします。
15 years 10ヶ月 ago
最終日、午前最後のセッションは「Duplicate Content & Multiple Site Issues」。重複コンテンツとミラーサイトの課題、と言うテーマ。昔からSESであるセッションですが、出たことが無かったのとパネリストが気になったので出てみました。
モデレーターはJoblr.netのアン・F・ケネディ。パネリストはXSEOのマット・ペインズ、deMib.comのミケル・スヴェンセン、オムニマーケティングのシャリー・トゥロゥ(Shari Thurow)、そして再びファントマスター!
ちなみにファントマスターは、クローキングのソフト&サービスを昔から売っている英語圏では有名なSEOのプロです(サイトはこちら)。クローキングと言うどちらかと言うとグレーゾーン~ブラックハットに近いSEO手法(本人はホワイトハットのつもりだと思いますが)を行っており、風貌も体もがっしりしており髭を伸ばして声も低く、ヒッピーと言うかグールー的なので(会場ではZZ Topと紹介されてました)有名な人です。
まずはオムニマーケティングのシャリー氏。この人も昔から本を書いたりセミナーで話しているベテランです。ホワイトハット派の人ですし、見た目も話し方も優しい感じで小学校の先生みたい。
ただし内容は重複コンテンツの危険性や対処法など基本的な話が多かったのでパス。1つ言えば「テンプレートが共通でも特に問題は無いが、実際のコンテンツが違うことが重要。」辺りですかね。逆に言えば、コンテンツが同じか似すぎていたらテンプレートが違っても意味が無い」と言うことでしょうか。
—
次にXSEOのマット・ペインズ。
・重複コンテンツのリスクは、ランキングが下がる可能性があると言うこと。
・通常は最後に認識されたコンテンツが優先して表示されやすい。逆に言えば、このロジックをブラックハット的に悪用すれば、他社のコンテンツページの順位を下げる手法も無いことはない。とは言え、コンテンツへのリンク評価が重要であることには変わりなく、効果は一時的。
・重複コンテンツで削除されたページがあると思った場合はGoogleにcacheが残っているか検索し、cacheが無ければ削除されたと思った方が良い
・アフィリエイトやセッションID等で重複ページが登録されてしまっている場合、ウェブマスターツール上で削除するなどの処置をした方が良い。
・www、www無し、IPの3つのアドレスでページをホスティングしているケースで、まれに順位が下がることがある。ホスティング会社の設定ミスの場合もあるが。www無しか有りのアドレスにそれ以外のケースは転送させた方が無難。
。。。ミニティップスと言う感じでした。最後のはそうなのかな。。?
—
そしてファントマスターの登場。
いきなり画面に変数を含んだHTMLテンプレートを投影。
—————–
#CARBRAND# の自動車販売
#CARBRAND# の自動車に関する情報、 #CARBRAND# の自動車のレビューはこちら。
(適当に訳しました)
—————–
SEO対策用にテンプレートを使えば簡単に大量のページが生成できる。専用ソフトも色々ある。しかし上記レベルの単純な変数の入れ替えでは、全てが重複ページとして判断されてしまう。テンプレートや変数の表示バリエーションを複雑にし、ページ毎の内容を重複コンテンツとして判断されないレベルまで変更する必要がある。
僕らがやる場合は、専用ソフトで文章のほぼ全てにバリエーションを設けてページ毎のコンテンツが全く違う内容に見えるような手法を取っている。
。。。初心者のためのドアページ作成方法、のような内容でしたが、話の内容は重複コンテンツと見なされないページを自動的にどうやって大量生成するか?と言う限りなくグレーゾーンに近い内容。流石のファントマスターでした。
日本もこの辺はワードサラダとかブログの自動投稿ソフトを中心にかなり進んでいますけどね。良いのか悪いのかはともかく。あ、僕の会社ではワードサラダとかブログの自動投稿はやっていませんので。全部が全部クリーンな手法です、とは胸を張りませんが 汗
—
最後にdeMib.comのミケル・スヴェンセン氏。重複ページと重複コンテンツの違いを説明。
重複ページ
・特定のコンテンツに複数のURLが存在する
・技術的な仕様でそうなっている場合が多い
重複コンテンツ
・同じコンテンツが全く違う複数のURLに存在する
・技術的な理由以外でなっている場合が多い
。。。なるほど。
そして重複ページの対処法を説明。
・ドメインはwww有りか無しに統一した方が良い。
・httpとhttpsは特に気をつけるべき、検索エンジンは未だに誤認識する場合がある。
・上記の問題を防ぐには、サイトのグローバルナビゲーションのリンクは絶対パスでhttp://から指定し、検索エンジンに正しいURLを伝えるようにする。
・パンくずナビゲーションのリンクのURLがユーザー繊維で同じページなのに変わってしまうケースはどちらかに統一する。
・セッションIDやアフィリエイトやキャンペーンIDは注意する。検索ロボットがアクセスしてきた場合は、外すか、?を#と入れ替える(Google Analyticsの設定で同一ページと見なせる)。
・ページがリクエストされた際に URL の形式をチェックし、本来と違う形式のURLであれば正しい形式のURLに301転送するスクリプトを作成し、サイトレベルで導入することも手法。
。。。シャリーさん以上にテクニカルなアドバイスを色々教えてくれました。なるほど、と言えばなるほど、なものもありますね。意外とやってませんが。。。と言うか、そこまでやる必要があるのか、と言う気もしますが。
—
最後にQ&A。
Q:
ファントマスターの手法は危険ではないか?インデックス削除されたらどうするんだ?
A:
(ファントマスター)サイトは1つである必要はない。100のサイトを作ればいいだけだろう。
。。。流石ファントマスター。
ここでモデレーターが「1つの高品質のサイトを作る方が良いのでは?」と突っ込み。ファントマスターの答えは:
僕は決してブラックハットの話だけをしているわけではない。この手法は使い方によっては、重複コンテンツと判断されないで効率的にサイトを構築することができる。
。。。でした。さらに今の質問に重ねて次の質問。
Q:
複数のサイトを作るのは結果的に非効率的にならないか?
A:
(ファントマスター)100は言いすぎかもしれないが、要はやり方次第。
。。。それはそうなんですけど。
Q:
海外の支社が別言語のサイトを作る際に、会社情報以外のコンテンツに関しては本社の英語コンテンツを使いたいと言うのだが、重複コンテンツと見なされないか?
A:
(スヴェンセン)結論から言うと、そのまま使わせてはいけない。楽にコンテンツを流用しようとしているだけだし、Googleからのトラフィックを期待しているだけ。どちらにしても検索結果に両方のページが出ることは無い。オリジナルのコンテンツを作ってもらうべき。
—-
上には書きませんでしたが、Q&Aの途中で、シャリーが「今日の内容で私がホワイトハット、ファントマスターはブラックハットと考えるのは止めてほしい。ファントマスターは非常に賢い人。とても尊敬しているし、私も状況によってはクローキングをすることもある。」と言っていたことが印象的でした。ファントマスターが「ブラックハットと言われても気にしないけど。」と答えてましたが 笑
内容は特に得るものがあったわけではないですが、パネリストの話が同じくSEO業界のベテランとしては楽しかったです。
15 years 10ヶ月 ago
タイトルがイマイチですが原題が「Introduction to Information Retrieval on the Web」なので。SES運営会社であるインサイシブ・メディアのコンテンツ部門副社長であるマイク・グレハンがプレゼン形式で。
この人、確か元々結構有名な人な気が。。。数年前にSESで講演聞いたことあるような。ま、いいですか。
—
まずインパクトのある一言。
「Googleは世界中のありとあらゆる情報に簡単にアクセスできるようにする、と言っているが、十分に成功しているとは言えない。」
そしてワールド・ワイド・ウェブや検索エンジンの仕組みを紹介。久々に聞きました。。。内容は細かい&大体の人は知っていると思うのでスキップします。
以下、話の流れに沿ってポイントを。
・Googleは常にウェブの情報を収集し、また更新しようとする。何故ならウェブは常に拡大し続けている。
・検索エンジンのロボットはリンクを辿ってテキスト情報を収集する。それだけ。
・SEOはいかにGoogleに情報を効率的に取得させるかと言う作業。
・検索エンジンの情報解析の仕組みを理解すれば、必要とされるSEOは自然と明らかになる。「検索エンジンに理解されやすいページ」、いわゆる「サーチフレンドリーページ」をコーディングするテクニックは10年前から存在する。キーワードをTITLE、ヘッドライン、ボディコピーに特定のタグに記述する。グローバルナビゲーションを付ける、など。
しかしページの内容は誰でも自由に記述することができる。キーワードを詰め込んだページは簡単に作成できる。どの情報が正しいのか?
クラインバーグと言う科学者がリンク分析の概念を発明した。アルタビスタ(当時人気の検索エンジン)で「Search Engine」で検索してもアルタビスタが結果に出ない。日本の自動車メーカーについて検索してもTOYOTAやHONDAが検索結果に出ない。ページの内容以外の評価指標が必要と考えた。
そこでリンク分析の概念ができた。リンクを受けているページは信頼性が高いのでは?またページ同士の関連性もあるのでは?インターネット全体のリンク分析をしてみると、インターネットには、リンクの中心となるハブやオーソリティ的なサイトがあり、其々に特定の情報に関するコミュニティがあることが分かった。
それを検索エンジンのアルゴリズムに本格的に導入したのがGoogle。
—
そしてリンク対策がSEOの重要な作業となった。
—
そして様々な会社が「クリエイティブなリンクの取得方法」を考えてSEOを実施してきた。
・・・
現在のSEOは、
・HTMLページのテキスト
・リンクデータとアンカーテキスト
に加えて、
・ソーシャルメディア – タギング、ブックマーキング、レビューなど
も重要になってきた。しかしもっと進化していく必要がある。
・・・
ここでインターネットユーザーについて考えてみたい。ユーザーの行動には3種類ある:
1. インフォメーショナル – 情報を収集している
2. ナビゲーショナル – 訪問したいサイトが決まっている
3. トランザクショナル – 特定のアクションを行う
ユーザーの行動データには下記の2種類がある:
・ユーザーの検索キーワード
・ユーザーのページ遷移
Googleは上記を分析して検索結果の有益性を調べることができるまで進化している。
検索エンジン上での検索クエリーや検索結果のクリック率や滞在時間を分析しているだけではない。Googleツールバーを使っている人も多いだろうが、ツールバーがどれだけの情報をGoogleに供給しているか考えたことがあるだろうか?
・・・
さらにユーザーの意図まで理解することができるだろうか?
Googleは例えばこんな仮説を立てることができる。商品購入に関するキーワード検索(例:「パソコン 通販」など)が行われた場合、そもそもオルガニック検索の結果を出す必要があるのだろうか?全てアドワーズの商品広告でも良いのかもしれない。
実際にGoogleはそういう実験をしている。アドワーズの広告にプラスボタンを追加して、それをクリックすると、広告エリアが広がって商品写真とリンクで画面がいっぱいになる。オルガニック検索を出すことにこだわるよりユーザーにとっても便利かもしれない。
・・・
検索の未来はどうなる?
・UGC(ユーザー生成コンテンツ)とプロが作ったコンテンツの比率は5:1。圧倒的にUGCが多い。
・検索体験はもっと進化し便利になる。
・様々な種類の情報への需要が広がる。
・フィードバックのループによる改善が続く。
一番の変化はソーシャルネットワークで情報を探す行動が格段に増えること、かもしれない。既にYoutubeの検索回数はGoogleを超えるかも。ユーザーによるQ&Aサイトもニーズが高まっている(Naverを紹介)。
—
今後、ますます下記が加速化していく:
・ローカル、モバイル、ソーシャル、マルチメディア検索が統合されていく。
・ネット上のソーシャルコミュニティが生み出す情報が一方的なブランドメッセージのカウンターバランスとなる。
・アプリケーションが特定の情報を配信するツールとしてウェブブラウザーに置き換わる。
マーケティング手法も多様化せざるえない。
・・・
最後にYahoo!のサーチリサーチ部門副社長の「「HTMLとHTTPが、現在のコンテンツ流通の仕組みに適しているかは疑問だ」と言うコメントを紹介して終了。
・・・
。。。短期間で一気にウェブと検索エンジンの歴史、そして未来をSEOやマーケティングと関連付けて話してくれました。色々考えさせられることはありますが、まとめる言葉まで消化できてません。ただSEOに限定せずウェブの分野で新しい新規ビジネスを考えたくなるような内容でした!個人的にはキーノートよりはるかに示唆に富んでいて良かったです。
15 years 10ヶ月 ago
さて、いよいよSES London最終日です。今日は長丁場で頑張ろー。最初のキーノートは、ウェブ解析業界の重鎮、ジム・スターン氏による「Social Media Metrics」。ウェブマーケティング系のベストセラーを何冊も書いています。このMetricsと言う単語、日本語でどう訳すのがベストなのでしょうか。。。効果指標?固いのでタイトルは効果測定方法と意訳してみました。
ちなみに同じ名前の本を5月に発売するそうです。色々なトピックについて立て続けに話していったので要点をまとめて。
■マーケティングとは?
マーケティングは、羊とニワトリだ、と。
「羊を買うのにニワトリが一羽では足りない。二羽でも足りない。四羽で足りた。」
そこにはネゴシエーションとコミュニケーションがあった。それがマーケティングだ。
しかし大量生産、流通、マスメディアの現代、マーケティングは、声を荒げて自社の製品サービスを目立たせるだけ目立たす行為に変わった。
■データとは?
インターネットにはサーバーログからアクセス解析ソフト、アイトラッキングまで大量のデータが存在し、取得することができる。現在の技術を使えば、大半の、大量のデータを測定することができる。
より多くのデータを取得することが重要では無い。重要なのはデータの意味を理解し、分析すること。
■ソーシャルメディアの定義
ジム氏の考えるソーシャルメディアの定義。
「コンテンツを簡単に流通させるプラットフォーム全て」
オンラインのツールに限定されない。電話もその一種。駅の掲示板もその一種。
ソーシャルメディアはインターネットで急激に拡大しており、今後、人間のコミュニケーションの中心メディアになる。
■効果測定のゴール
ビジネスには3つのゴールがある。
1. もっと収益を上げる
2. コストを下げる
3. 顧客を幸せにする
そして顧客に対するのサブゴールは下記:
注目させる。
教育する。
広告を打つ。
マーケティングする。
販売する。
助ける。
カスタマーサービス。
関係する。
ソーシャルメディアは「関係」に強いが全てに利用できる。
評価指標の基準は下記:
リーチ – 対象顧客にどこまでリーチできるか
フリーケンシー – 何度、顧客にリーチするか
効果測定はどうする?
高速道路の看板を実際に見られているのか良く分からない。
ネットのバナー広告も同様。
↓
ブロゴスフィアを分析すると、ある程度の測定はできる。
ブログ自身の効果測定もRSSの購読者や記事の閲覧数である程度測定できる。
↓
そしてTwitter。Twittersphere(ツイッタースフィア)の分析でリーチやフリーケンシーの分析もある程度できる。
↓
これらにどれだけの意味があるのか?
■「アウェアネス」(Awareness / 認知度)の分析
・ブランド認知度
・ブランドで喚起される属性と質
ケンタッキー・フライド・チキンだったら、カーネル・サンダースのロゴがケンタッキーのロゴと認知されるか。どんなイメージが一緒に想起されるか。安い、美味しい、手軽、早い、指をなめる、など。
■口コミの力
口コミを活用すると一気にリーチ、フリーケンシーとアウェアネスは、拡げることができる。YouTubeのビデオが代表的。対してお金をかけずに作ったビデオが一か月で何百万人の人に見られる。
しかしその価値はどの程度あるのか?
それがどのように顧客・ユーザーに受け止められたかが重要。
ポジティブか?
ネガティブか?
最新のネット技術やサービスを利用すれば、ブロゴスフィアやTwitterの投稿を分析し、特定のブランドに関する内容の投稿数、そしてそれがポジティブかネガティブな内容か、と言うことまである程度、自動で解析することができる。通常は投稿内容に含まれたキーワードや文章を解析することで判断するが、しかし精度はまだまだ高いとは言えない。
(とある英語の自動解析サービスで「オバマ」についての自動解析を紹介し、半分程度の解析が間違っていることを説明)
様々なテクノロジーが存在し、研究がなされてきたが、文章解析のレベルはまだまだ低く、顧客の「態度」を正しく測定することは難しい。
■インフルエンサーの特定
ソーシャルメディアで重要とされるインフルエンサーを調べる方法もある。ブログであればRSSの購読者数やリンク数で分析できる。Twitterであればフォロワーやリツイート数で分析できる。
これらのデータをマッピングして分析すると、色々面白いデータを見つけることができる。
人の関係にも、話題の分析にも使える。
インフルエンサーは記憶に残り続ける、影響力を持ち続ける人もいるが、多くは常に移り変わる。亡くなっても影響力のあるマイケル・ジャクソンは特別。
■ソーシャルアクションとビジネスアクション
ソーシャルアクションには色々ある:
訪問
クリック
リツイート
ブログの投稿
ブログのコメント
レビュー
ブックマーク
これらをビジネスアクションにつながる必要がある:
購読
登録
購入
リピート購入
・
・
■ソーシャルメディアに参加する価値
10,000人がシャンプーについて会話しているとする。
新しい顧客の生涯価値(ライフタイムバリュー / LTV)が$29(利益)とする。
会話に参加することで、5%が顧客になるとする。
そのうち5%がリピート顧客になるとする。
・
・
・
参加価値があるか計算できる。
・・・
そして最後に締めの一言。
マーケティングは羊と最初に言った。羊をブランディングするか、ダイレクトセールスするか方法は色々あり、効果測定の方法は色々あるが、重要なのは顧客と関係することだ。
—-
。。。余り具体的な話では無く、それぞれ知っていることばかりだったので、正直、あまりピンとくるものが無かったのですが、測定自身が目的では無い、ソーシャルメディアで重要なのは顧客と関係を築いていくことだ、と言う基本的な考えを再認識する上では良かったですかね。
15 years 10ヶ月 ago
原題は「Link Building Methods and Risks」。We Build Pageのジム・ボイキン。CEO兼リード・ニンジャだそうです。SESのイベントで良く話している人ですね。
最初に「会場にGoogleで働いている人はいないよね?」と軽く笑いを誘ってスタート。2002年から7年以上、「Internet Marketing」でGoogle1ページ目のいることが自慢らしい 笑 コンテンツとリンクのスペシャリストだそうです。スタッフが35人いるらしいので、それなりの規模でやっているようですね。
ちなみにジム氏の会社では、2008年末まではリンクを買っていたそうですが、それ以降は買っていないそうです。
とは言え、ビッグワードで上位表示するにはリンクを買わないと無理、とも言い切りました。
。。。アメリカのSEOスペシャリストが言い切るとは。
—
しかし有料リンクにはリスクもある。有料リンクがペナルティを受けるリスクは常にある。正直、リスクは低い。ビッグワードで上位表示されているサイトの被リンクを見れば大半のサイトがリンクを買っていることは明らか。
リンクを買うことのリスクは色々ある:
1. Googleの有料リンクのフィルターに直接ひっかかる
2. 有料リンクのブローカーのネットワーク自身がペナルティの対象になり、リンク購入者までペナルティの対象になる
3. 誰かがブログであなたの有料リンクを公開し、Googleが自身が恥をかかないようにリンクを購入しているあなたのサイトをペナライズする
4. 難関ビッグワードで1位になった結果、競合があなたのサイトをGoogleにSPAMレポートしてペナライズされる
5. 特定のサイトから1,000のリンクを一晩で受けてペナライズされる
6. 自然なバックリンクが一つもなくてペナライズされる
などなど。
。。。正直、都市伝説的な要素も多そうですが・・・?
—
次に仮にペナルティを受けた際の対象方法を説明。
基本はGoogleにレポートするしかない。ペナルティの対象になったと思われるリンクはできるだけ外し、自分が無知だったことを説明する。SEO業者に騙されたと言うのも手。二度とやらないのでペナルティを外してください、と頼み込む。
それでも駄目なら会社の社長があなたを首にして社長自らGoogleに再度頼むしかない、そこまですれば対応してくれるかも。
。。。だそうです。
—
ここで有料リンクに関するQ&A。
Q:
もしも有料リンクを買うならどこで買うべきか?
A:
ブローカーも直接買ってもリスクはある。幾つか多分大丈夫な所もあるが、、、後でお酒をおごってくれたら教えても良いけど 笑(質問者は可愛い女性)
Q:
Yahoo!ディレクトリは有料リンクじゃないのか?
A:
有料リンクに間違いない。Googleが問題視しないのは謎。ネットに存在するほぼ全てのディレクトリはSEO目的で利用されている。ちなみにマット・カッツは数カ月前に、ディレクトリ登録するなら Yahoo! と Best of the Web は安全と言っていた。理由は人がレビューしているからだそう。それが理由で良いのか、と言う感じだが。
。。。日本でもYahoo!も含めてほぼ全てのディレクトリがSEO対策で利用されていますよね。それ言いだしたら全てのサイトが有料リンク買ってることになるけど。
Q:
急にリンクを増やすとペナルティにひっかかるのか?
A:
Googleは1日に何千もリンクが増えれば絶対に判別できる。ただリンクが張られたサイトをペナライズすると言うよりは、リンクの評価をしない対応を取るだろう。リンクの数で言うと僕の顧客で最大の顧客でも自然なリンクは一カ月に80程度。
。。。ソーシャルメディア入れたら一晩で数百リンク獲得も可能とは思いますけどね。ドメイン単位で考えれば上の通りかな。
Q:
ブロガーに記事を書いてもらう手法は効果があるのか?
A:
いろいろ言われているが意外とある。しかしフィルターにかかる可能性もあるし、特にお金を払って書いてもらう時は注意する必要がある。
。。。日本でも一時流行りましたが、もうダメですよね。
Q:
プレスリリースのSEO効果はあるのか?
A:
ある。しかしリンクを大量に得れると言ってもリリースの内容は同じでダプリケイトコンテンツでもある。全てのリリースからのリンクがそのまま評価されるとは思わない。
—
そして有料リンクの締めに再度一言。
最後に言っておくと、有料リンクを買わない決断をした場合は、結論から言うと現状はビッグワードでの上位表示は諦めた方がよい。ロングテールで勝負する覚悟をした方が良い。
。。。全てが全てそうとも限りませんが、、、ただそういう面はあるのも事実。だからうちのようなSEO会社もリンク対策をやる、と言うかやらざるえないんですけど。良くも悪くも
—
次にトラストランクの話。
ドメインが古かったり、古いドメイン、特に教育関係のドメインからリンクを得ているサイトの評価は「トラストランク」が高い。ページランクの概念はもう古い。
トラストランクの高いページを作ることが大事。例えば自分たちがリンクキャンペーンを行った場合、下記のような教育・政府系のリンクを平均的に得ている:
23% edu
21% org
5.5% k12
4% ac.uk
1.5% gov
残りはそれ以外
なんでここまで教育系のリンクが得られるのか?
そこで重要になるのが「トラストベイト」の概念。
皆も知っているであろう「リンクベイト」とは違う。
リンクベイトは、大量にリンクを集めることを意識したブログコンテンツを作成すること。リンクベイトの記事は内容に価値がなく一時的に消費されて終わってしまうコンテンツも多い。
「トラストベイト」はもっと質が高い。
基本的に学生と研究者がターゲット。
リンクの対象は、1998年以前のサイト、ブログ以外のサイト。
ここをターゲットにすることでトラストランクの高いサイトからのリンクを得ることができ、結果的に順位も上がる。
例えばGoogleで「pool safety(プールの安全性)」と言うキーワードの検索結果を見てみる。
#1 – 39リンク
#2 – 89リンク
#5 – 94リンク
#1のサイト程、リンク数は少ないが、トラストランクの高いサイトからのリンクが多い。とは言えどれも元々さほどリンクが多く無い。逆に言うと新たにページを作っても、努力次第でこれ以上のトラストランクの高いサイトからのリンクを得ることは不可能では無い。
実際に行う手順、まずは上位表示されているページより質の良いコンテンツを含んだページを作成し、リンクをしているサイトにメールしてリンクを張ってもらう。一見、大変と思うが、リンク先の数が少ないので作業的にはそれほど大変ではない。
実際に実施した場合、依頼した5%以上のサイトがリンクを張ってくれる。
「トラストベイト」になりうるコンテンツは、特定の情報に関して、ネット上に既に存在する有益な情報ページへのリンクを上手にまとめたページを作成するのが効果的。
。。。ブログのリンクベイトと余り変わらない気もしますが。日本でも最近多いですよね。いわゆる「まとめページ」の範囲でしょうか。リンクを獲得する対象をより検索エンジンの評価が高いと思われる教育系のドメインや古いサイト、つまりトラストランクの高いサイトをターゲットにしている点が違いですかね。しかし、上げたいキーワードによっては難しそうなケースもありそうですが。。。とは言えコンセプトは面白いです。
—
次に内部リンクの話。1ページからリンクの数を張れば張るほど、各ページに伝わる評価は落ちる。重要なページを意識してリンクを張る必要があると。
また同じサイトの複数のページから特定のページにリンクを張る時は可能であればいくつかの違うアンカーテキストで張った方が効果が高いと。
。。。普通の話でした。
—
。。。以上。1時間、ひたすらリンクの話と言うのも珍しいし貴重なセッションですね。有料リンクだけのセッションも聞いてみたい所です。有料リンクを今も買っている・使っている人を別に立ててディベートとか。まぁ、リスクがあるからやるかどうかはその人次第、と言う結論にはなりそうですが。
15 years 10ヶ月 ago
原題「SEO: Where to Next?」。名前だけなら最も期待したいセッションの1つです。パネルディスカッション形式。モデレーターはSESを主催しているインサイシブメディアの方。
パネリストは下記:
MSNのSEO総責任者ダン・コーエン。MSNのSEO対策責任者。Bing以外の対策もしていると 笑
Googleのシニアエンジニアのマイリー・オーエ(Maile Ohye)。ウェブマスターツールやAPIの仕事をしているそう。ウェブマスターセントラルブログも書いているとか。
Verve Searchのリサ・マイヤーズ。SEO会社のCEO&有名ブロガー。
Telegraphのジュリアン・サンブルズ。会社のSEO / ソーシャルメディア担当。
今回は、モデレーターが話題をして皆が答える形。
■組織組織の中でSEOにどう取り組んでいるか?
MSN(分かりやすいので企業名にします):
大量にサイトがあり、言語も大量。マネッジメントは非常に大変。しかしコンテンツが重要なのは変わりない。
Telegraph:
大企業がコンテンツを発信し続けるのはチャレンジ。ブログで情報発信しているが内容は気を使う。
Verve:
中小企業にとってもチャレンジ。リンクを獲得するのも以前に比べて難しくなっている。ソーシャルメディアでリンクのバリエーションは増えているが、小さい会社がリンクを得ていくことは難しい。
Google:
今年はソーシャルメディアの重要性がかつてない程増した。エージェンシーならクライアントに重要性を説明して、Twitterやブログ、SNSに参加してもらうべき。リアルタイム検索が普及すればさらに重要度を増す。また効果測定も重要。
MSN:
独自プログラムでMSNにアクセスしてくるユーザーの検索キーワードを解析し、コンテンツエディターに参考にさせている。逆に言うとランキング自体は余り気にしていない。より多くのコンテンツを作っていくことに力を入れている。結果的にランキングも上がり多くのトラフィックを得る結果につながる。
Verve:
検索されているキーワードのためにコンテンツを作ると言うアプローチには危険性があると考えている。価値はあると思うが、キーワードを意識しすぎて実際にサイトに訪問したユーザーに価値がある情報を提供しきれていないケースもある。本末転倒だ。
。。。確かに。
Telegraph:
キーワードを意識してトピックページを作ることもあるが、画像や映像を含めるなどして、できるだけ豊かなユーザー体験ができるコンテンツになるよう工夫する。
■GoogleはSEOをどう思っている?
モデレーター:
以前に比べてSEO業界に対してGoogleのアプローチは厳しいのでは?昔はSEO業者を集めてシリコンバレーで無料のカクテルパーティとかやっていたのにもうやっていないし 笑
Google:
正しいSEOを行ってもらうことは非常に重要と考えている。ウェブマスターセントラルで必要な情報はできるだけ提供している。ウェブマスターツールでも様々なツールを提供している。
その一方、毎日より多くのウェブサイトが誕生している。全てのサイトに正しいSEOを期待するのは無理。そこでSEOのサービス会社の需要があるのも分かっている。SEOを敵視しているつもりは全く無い。
Verve:
以前に比べてGoogleのSEO業界に対するアプローチは変わっている気はするが、質が変わっただけでネガティブになったとは思わない。最もロンドンで無料パーティは一度も無かったけど 笑 ただウェブマスターツールは便利だが、ユニバーサルサーチに対するサポートが少なすぎると思う。何をしたら良いか情報も無く試行錯誤しなければいけないケースが多すぎる。
Telegraph:
Googleにトラフィックをかなり依存している現状(イギリスのGoogleシェアは90%)、Googleは重要だし、うまくやっていくしかない。
ここでモデレーターが会場にGoogleとSEOの関係はどう変わったかアンケート。悪くなったと思う人は少数派でした。僕的には、、、昔も今も変わらず、と言う印象でしょうか。
■SEOの基本
モデレーター:
従来からある H1 や TITLE 等の記述方法など、基本的なSEOのテクニックはユニバーサルサーチの時代に意味があるのか?
MSN:
新たに重要な要素は増えているが、基本は基本で重要。SEO担当とは言え、最近はTwitterなど新たな対策手法が増えた。
Verve:
コンテンツが最重要、と言われるが、TITLE や H タグ、内部リンクなど基本的なSEOテクニックは重要。コンテンツの価値を引き出してくれる要素。逆に未だにコンテンツが足りなくとも TITLE だけでSEOができることもあるが。。。
Telegraph:
従来はコンテンツをウェブ(ブログ含む)に掲載するだけで良かったが、今はTwitterがある。Twitterとどうコンテンツを配信しわけるかバランスが難しい。
Google:
今でも基本は重要。しかし今は例えばワードプレスなど簡単に基本的なSEOを行ってくれるツールが増えた。例えば記事ページの TITLE や META に自動的に記事のタイトルを挿入してくれる。前ほど、意識しなくて良くなったのは事実。
■モバイルのSEO対策
モデレーター:
ガジェットやモバイル等の新規アプリケーションにSEOをどう対策していけばいいのか?特にモバイル。
MSN:
コンテンツをRSS等で効率的にシンディケーション配信をする必要がある。もちろんコンテンツはアプリケーション毎に最適化する必要がある。
Google:
8年前はデスクトップのメールアイコンをダブルクリックしてアプリケーションを立ち上げてメールを送っていた。今はウェブから直接、例えばGmailにアクセスしてメールを送れる。ウェブでできることが今は格段に広がっている。モバイルなどアプリケーションは広がっているが、Googleはウェブにかけている。アプリケーションが何であってもウェブにアクセスできれば利用できるようにする。
ここから会場からの質問に答える形。
■Googleが独自にコンテンツの出版サービスやに乗り出す話がある。ちょっとやりすぎでは?
MSN:
どうでしょう 笑 そういえばEコマースもやると言う話も。Googleの動きは常に注目している。
Telegraph:
AmazonのKindleやAppleのiPadなど新規のアプリケーションが続々と増えている。これらの変化にどこまで対応していけるかが企業の課題。より多くのアプリケーションで自分たちのコンテンツが見られるようにする必要がある。
■Googleは1年に400以上、検索アルゴリズムを更新していると言うが皆どこまで把握しているのか?
Verve:
Googleは更新の内容を教えてくれないから、自分たちで調べる必要がある。一般的にはブラックハットの人たちの方が変化には敏感と思う。
モデレーター:
様々なSEO関連のフォーラムやブログをRSSリーダーで毎朝読んでいるけど、それである程度の変化は分かる。
Verve:
400の変更が全部分かるわけではないが、多くの変更は検索エンジンの質が上がって我々にもプラスになることが多い。もちろん順位が落ちるケースもあり、その時に色々な噂が飛び交うのだけど。
MSN:
定期的にトラフィックを分析してSEO対策は立てている。特定のアルゴリズムに仮説を立てて、それに頼りすぎることは危険。
。。。400、、、僕も半分も把握してないと思います 笑
■Googleはどうやって有料リンクを認識しているのか?
(会場 笑)
Google:
有料リンクはお金を持っている企業が有利になる。全てのコンテンツ、サイトに共通の機会を与えたい。その評価がリンクが基本となっている。だから有料リンクに賛成できない。認識の仕方は、、、えーと、、、ここでは話せません 笑 少し言うと、有料リンクのパターンを見つける努力はしている。
基本はGoogleのSEOガイドラインに反するサイトは評価しない。しかしできるだけウェブマスターツールやブログを通してできるだけ多くの情報を伝えようとしている。ただ全てに対応するのは難しい面もある。
有料リンクと判断した場合は、そのリンクの評価を下げることが基本。サイト全体、ページレベル、リンクレベルなど色々な評価指標はある。
。。。ま、こういう答えになりますよね。
■400の更新のうち、スパム対策系の更新はどの程度占めているのか?
Google:
検索の品質向上チームは、ユニバーサルサーチも含めた様々な面を見ている。マット・カッツのチームが主にスパム対策をやっていると思うが、それは全体の一部にすぎない。
。。。オルガニック検索の品質向上に限定したらどうなるんですかね。
■Googleの利益はPPCに依存しており、PPCにお金をもっと投じてほしいのは分かる。ユニバーサルサーチが普及するに従い、広告メニューももっと増えるだろう。SEOで対応できる個所は限られてくるのでは?
Verve:
非常に問題と考えている。このまま行くとオルガニック検索の結果が1ページ目から消えてしまう日が来るような気さえする。
Google:
ローカルサーチに関していえばまだマネタイズしていない。画像や映像もそう。オルガニックのSEO対策でできることはまだまだある。
ユニバーサルサーチで有益なコンテンツを持っているサイトをユーザーから遠ざけることはしたくない。ユニバーサルサーチはまだまだ発展途上。
。。。ここで時間切れ。最後はもう少し聞きたかったのですけど。SEOのパネルディスカッションを真面目にするとこうなると言う感じ。とは言え、Googleの人がいるとそれなりに盛り上りますね!
15 years 10ヶ月 ago
今日2つ目のセッションは「Digital Asset Optimisation」。SEO-PRのグレッグ・ジャーボー氏がモデレーター。Local.comのジェフ・ファーガソン、SAPのサーチマーケティング担当のクリスピン・シェリダン、Joblr.netのアン・F・ケネディ、Idealo Internetのマーティン・シンナー。
まずはパネリストがデジタルアセットの重要性を説明。
最初はJoblr.netのアン・F・ケネディ氏。「デジタルアセット最適化でオルガニックの検索結果をスーパーチャージ」と言う内容。
■DAO(Digital Asset Optimization)とは?
検索エンジンはユーザーが探している情報(ニュース、画像、映像)へのリンクを1枚の検索結果ページに集約する。その結果を最適化するのがDAO。
検索結果のアイトラッキング調査をすると大体上部を集中してみた後に、下の結果を少し見る、と言う流れだった。
2005年後半から、Googleが検索結果、それも上部に画像を差し込んでくるようになった。
さらに2010年現在は、画像が最上部に、そして映像が最下部に挿入されるようになった。
いかに意図的に画像や映像を検索結果に表示させられるかが重要になりつつある。
■オンサイトDAOでやるべきこと
1. 自社のデジタルアセットをレビューする。
2. 各ファイルのファイル名を意味のある名前に変更する。保管フォルダはシンプルは名前にする。
3. 画像のALT属性に画像の説明文をつける。画像が一般的過ぎる場合は、TITLE属性に追加の説明を記述する。
4. データベース管理している場合は、キーワードリッチな説明文を記述しておく。
5. xml&htmlでサイトマップを作成する。
6. ウェブページ上に関連するテキストが記述されている個所に映像や画像を挿入すること。現状、これがベストなティップス。
。。。DAOの基本を短く上手にまとめてくれました。
—
次はドイツの技術会社、Idealo Internetのマーティン・シンナー氏。自社で行ったGoogleのユニバーサルサーチの分析を行った結果を紹介。
大量の商用キーワードのデータベースを作成し、其々のワードでGoogle検索を行い、検索結果の状況を分析した。
2010年1月の時点で、40%の検索結果がユニバーサルサーチだった。
ニュース、画像、地図、映像等もあるが、特に伸びているのが、商品情報。
またアメリカとドイツを比較すると、アメリカで検索した結果の方がユニバーサルサーチになっている場合が多い(スピーカーはドイツの会社です)。ただし地図に関してはドイツの方が出るケースが多かった。地図が整備されているせいか?と推測。
。。。日本はどうなんでしょうね。
またキーワードの種類で比較すると
メジャーキーワード → 82%がユニバーサルサーチ
ロングテール → 15%がユニバーサルサーチ
だった。
結論としては、DAOは今後もっと重要になっていくだろう、と言うことで。
。。。淡々と研究結果を説明してくれるドイツの研究者的な方でした。改めてこういうデータを見ると納得感はありますね。
—
次はLocal.comのジェフ・ファーガソン、ローカルサーチの最適化のコツをと言うことで。最近のローカルサーチの検索結果は、
1. 最上部がアドワーズ
2. その下にアドワーズのエクステンション広告(地図リンクへの青いアイコンボタン付
)
3. 地図&地図の右にローカル検索結果7つ
になっている。2は実験中で無くなることもあるが。オルガニックの検索結果がスクロールしないと見れない状態。
エクステンション広告は、基本的に地図版アドワーズ。検索結果には地図リンクへのマーカー(青いアイコンボタン)が出る。最終的にどういう仕様になるかは不明。
地図の隣の7つの結果に載るかどうかオルガニック検索結果に近い部分もあるが、場所も重要。Googleは基本となる店舗情報を様々なソースから取得している。地元のローカルビジネスセンターに登録すれば確実に掲載される。他の最適化方法は下記:
・正しい住所を登録すること
・・ローカルビジネスセンターに登録
・・サイトにも同じ住所掲載。
・・できればサイトの全ページに同じ住所を掲載。
・・PO Box(私書箱)は駄目
・電話番号
・・電話番号を統一すべきかどうかは微妙、効果測定で別に番号を用意することは現状大丈夫
・・トールフリー(無料)の電話番号は掲載されるか微妙な現状
・登録すべきサイト
・・Local.com
・・Hot Frog
・・InfoUSA
・・Localeze
・・MerchantCircle
・・TrueLocal
・・Superpages
・・重要なのは住所を統一すること!
・他のティップス
・・名前にビジネスの種類が入っていた方が掲載されやすい(例:花屋ならFlowersとか)
・・名前に住所・地域名が入っていることも効果的(例:Londonとか、もっと細かく区名とか)
・・市庁の近くの住所が表示されやすくて有利かも
・・レビューがあることも重要(Yelpなどのレビューサイト、ただしサクラは危険)
・今後重要になりそう
・・画像や映像
・・クーポン
。。。ローカル検索って、かなり進んできてるんですね。全部やるの、相当大変そうですけどね。一回時間取ってやればいいだけか。
—
最後にSAPのシェリダン氏。DAO全般について。
ユニバーサルサーチの普及で、従来の検索結果のアイトラッキングの流れが変わりつつある。画像や映像の最適化は重要だと。
ファイル名を決める時は、最も重要なキーワードに絞ることが効果的。SAPであれば、sapやcrmなど。
SAPではサイトで使用されているデジタルファイルを全て調べて名前を着け直した。
その結果、、、
・ビデオの視聴回数とビデオ経由の問い合わせが大幅に上がった。
・Google Maps経由のアクセスが大幅に上がった。SAPの各支社の情報が的確に登録された結果と考えている。
—
最後にQ&A。特筆すべき内容は無し。「ローカルサーチやDAOで、マイクロフォーマットは重要になってくるか?」と言う質問でパネリスト&モデレータがマイクロフォーマットと言う言葉自体を知らなかったのが、まだまだ進化の途中だよな、と言う印象でした。ま、僕も対して分かってませんが。
—
。。。DAOとは?的な内容でしたが、正直余り研究していない分野なので参考になりました。デジタルアセット最適化、、、DAOか。ニーズは今後ありますよね。英語圏だと、DAOって言葉自体はかなり使われてきているようです。検索してみたら日本はまだっぽい。来週新サービスのプレスリリースでも出そうかな 笑
ローカル検索はアメリカの取り組みはかなり進んでいるのかな、、、と言うかスピーカーのLocal.comもですがローカル検索のサービス会社が多いんですよね。あれだけ土地が広いんだし日本以上のローカル検索の需要はあるのかもです。ローカル検索を対象にしたGoogleの広告オプションはさらに増えてきそうですが、運営側はそれ程でもですかね。サイトを作る時、守るべき基本ルールは増えそうですけど。
SEO Japan フィード を購読