15 years 11ヶ月 ago
いよいよ、SMX West最後のセッションです。原題は「Ask The Link Builders」。
モデレーターはダニー・サリバン。Ontoloのガレット・フレンチ、Covarioのマイク・グラクセン、SEOmozのランド・フィシュキン、MartinBuster.comのロジャー・モンティ。一般的には知られてない人が多いのが逆にリンクのプロな予感。しかしSEOmozはどこでも出てくるな・・・。いると盛り上がりますしね。
では頑張っていきましょうー。
Q:
アーティクルマーケティングは効果があるのか?
(アーティクルマーケティング、日本語で記事マーケティングは人気が出そうな記事を書いてそれを色々なサイトにシンディーケーション配信して多数のリンクを得る手法です。英語圏ではその種のアーティクルだけを集めてディレクトリも多数存在しており、一時リンクを集めるための手法としてかなり使われていました。最近はディレクトリ登録に関してはスパム的なコンテンツが多いので検索エンジンの評価が下がって効果が無い、と言う認識ができています。)
A:
ディレクトリ登録が効果があるかは分からないが、記事コンテンツを作成してシンディケーション配信する方法自体は効果があるだろう。
(すみません、幾つか意見があったのですが上の補足説明を書いていたらメモできませんでした)
Q:
SEOのために静的な有料リンクを買いたいが同時にトラッキングもしたい。どうしたらいい?
A:
リンクタグにjavascriptを仕込む形で静的リンクでもトラッキングはできなくはないだろう(SEOmozのランド・フィシュキン)。
クライアントンは同時に効果測定を行うことは難しい、全体で判断するしかない、と素直に言う。(Covario)。
Q:
URL短縮サービスでおススメのものはあるか?
A:
転送の仕組みが301リダイレクトなのを選ぶべき。Bit.lyは良い。Ow.lyはそもそも仕組み的におかしい。自社サイトの短縮サービスには使わない方が良い(SEOmozのランド・フィシュキン)。
URL短縮サービスはサービスが停止するリスクが常にある。去年も2つのサービスがサービス終了するかどうかで揉めた。自分で短いドメインを取って独自でできるなら理想。ドメインが短いとは言え、アメリカ以外の国のドメインを使うのはカントリーリスクもあり少し不安(ダニー・サリバン)。
Q:
Twitterのリンクは効果があるか?
A:
Twitter経由のリンクが増えるとランキングが上がる傾向はあるんじゃないか(SEOmozのランド・フィシュキン)。
Q:
GoogleのSEOで外部リンクと内部リンクとどっちが重要?
A:
弱小サイトからの外部リンク1つでも、内部リンク50分の価値がある(SEOmozのランド・フィシュキン)。
内部リンクの場合、PDFファイルにサイトのトップへのリンクを張った方が良い。PDFファイルにロボットがアクセスして、そこでクローリングが止まるのを防げる(MartinBuster.com)。
外部リンクの方がはるかに重要なのは間違いない。それがあって初めて内部リンクの効果が出る(Covario)。
Q:
SEO会社に発注した場合、SEOの情報はどこまで公開してもらえるのか?もらうべきか?
A:
契約したうえで一定の情報は公開させるべきだろうが、一部の作業がノウハウもあり、SEO業者の立場から言うと完全に公開できないと思う(MartinBuster.com)。
僕はSEOの作業を全てオープンにできるのは素晴らしいと思う。SEOがここまで普及したにも関わらず、SEO業界が未だに怪しいと思われている面があるのは作業内容を全て明らかにしない点が大きい(SEOmoz)。
僕は反対だけどね。君(SEOmoz)も昔はText Link Ads(有料リンクのサービス会社)を勧めていたじゃないか。僕はちなみに使っていなかったけど。有料リンクを支持しなくなってから、そういうことを言いだすのはどうかと思うね(MartinBuster.com)。
隠すことを否定しているわけじゃない。有料リンクの件も意見が変わっただけだ(SEOmoz)。
。。。熱い議論が 汗
Q:
Wikipediaのリンクは意味があるのか?
A:
リンクジュースとしての意味は無いかもしれないが、Wikipediaは検索エンジンの上位に表示されるし、そのページからリンクが張られるのはトラフィック的にはプラスだろう(今度は皆が同意見)。
Q:
競合サイトのバックリンクを調べることにどれ位時間をかけるべきか?そもそも意味があるのか?
A:
オーソリティサイトを探すのは意味がある(SEOmoz)。
競合のバックリンクを調べてそのまま真似しようとするのは余り意味が無い(Covario)。
バックリンクを研究してそれを超えるリンクを獲得していけば、、競合が大型サイトであってもリンクによって小型サイトが順位を抜くことができる(MartinBuster.com)。
Q:
リンクスカルプティングについてはどう思うか?マット・カッツは気にしなくて良いと言っていたが。本当にそうか?
A:
Googleの言うことが常に全て正しい訳では無い。全てが理論通りに機能する完璧な検索エンジンは存在無い。自分で色々実験して検証することが大事(SEOmoz)。
Q:
Diggをリンクにどう活用すれば良いか?
A:
ソーシャルブックマークの前にソーシャルニュースサイトに登録することを考えた方が良い気がする(Ontolo)。
リンクベイトな記事でDiggから一時的な大量のトラフィックを得るよりは、他のより関連性の高いソーシャルメディアからリンクを得る努力をした方が良い(MartingBuster.com)。
Digg経由のトラフィックはまず数が一時的でも圧倒的に多い。Digg経由のトラフィックは一時的かもしれないが、そこからまたブログで取り上げられることもある(SEOmoz)。
人気ブックマーカーにコンサルを依頼して、Diggのトップページに載せる努力をすることも可能。お金はかかるだろうが(Covario)。
Q:
Text Link Ads(有料リンクのマーケットプレース)に掲載メディアとして参加することはSEO的にマイナスにならないか?
A:
以前は支持していたが、今はリスクがあると思っている(SEOmoz)。
有料リンクを求めるクライアントは、競合もやっているからやり必要がある、と言うアグレッシブと言うよりはデフェンシブな意味合いが強い(Covario)。
有料リンクはお金がかかる。継続的にかかる。ROIがマイナスになる可能性もある(SEOmoz)。
ちなみにもうすぐとある有料リンクの会社について記事を書くつもりだ。最悪の会社だよ 笑(サリバン)。
最近もコメントスパムで順位を上げているバカな(実際に stupid って言ってました)会社が僕のブログにコメントスパムを投稿してきて相当頭に来た、コメントスパムで順位が上がってしまう現状もあるのだが、、ただその会社のサイトは既にインデックス削除されてるけど(サリバン)。
関連性があれば有料リンクは良いと思うのだが。Googleも許容する範囲では?(MartinBuster.com)
その意見は反対だな。Googleは有料リンクを見つければいつでもサイトをインデックス削除することはできる(サリバン)。
Q:
一番、効果的な有料リンクの使い方は?
A:
ここでこの質問か 笑(サリバン)
リンク戦略で一番重要なのは、対象ユーザーが求めているコンテンツをどこまで提供できるか、と言うことだ。結果的により多くのユーザーがリンクを張ってくれる(Covario)。
Facebook、Twitterなどソーシャルメディアもリンクを獲得するには効果的(サリバン)。
Q:
プレスリリースは一種の有料リンクじゃないか?そもそもSEOにプレスリリースは効果があるのか?
A:
プレスリリースはSEOに効果があると思う。SEOを考えなくともプレスリリースは配信するだろう。せっかくだからコンテンツは最適化しておくべき(Covario)。
Q:
相互リンクについては?
A:
相互リンクをする場合は、相手が悪質のリンクファームに参加していないか確認した方が良い(Covario)。
関連サイト同士で相互リンクをし合うことはリスクもある。以前、大量の不動産業者同士が相互リンクをし合ってGoogleの上位表示を独占していたことがあったが、Googleから問題視されて順位を落とされた(SEOmoz)。
相互リンク自体がマイナスの影響を与える確率は低いと思うが、効果が無くなることはあるだろう(Ontolo)。
—
。。。以上です。リンクに特化したセッションだけあって、中々マニアックな話題が多くて同じくリンクのプロ?!の僕としては楽しめました。しかも、モデレーターの立場のダニー・サリバンが途中から盛り上がって、どのセッションよりも熱く語っていたのが面白かったです。
しかしSEOの中でもリンクの話はさらに絶対的な正解が無い分野のこともあり、人によって意見が違いますね。議論も盛り上がりました。
さて三日間に渡ってレポートしてきたSMX Westもこれで終わりです。過去に何回も海外のコンフェレンスには参加しましたが、一回もセッションをさぼらなかったのはこれが初めてですね 笑 このブログを書くプレッシャーがあったのが大きいです。。。どうにか終えることができました。
何か衝撃的な情報を得た訳ではないのですが、様々なテーマのセッションに参加してそれなりに得るものはありましたね。帰国後、また総括記事を最後に書こうと思っています。レポートを読んでいただいた皆様、三日間、おつきあいいただき、ありがとうございました!
15 years 11ヶ月 ago
三日目午後のセッションは「***に聞こう!」シリーズ第二弾、今回は有名SEO業者が勢揃い。原題は「Ask The SEOs」。
ブルース・クレイ、SEO Bookのアーロン・ウォール、High Rankingsのジル・ウォーレン、SEOmozのランド・フィシュキンなど有名SEO会社・プロが壇上に並ぶ光景は滅多に見られません。何故かマット・カッツも最前列で座ってます。赤色のノートパソコン使ってますね。ブラックな発言ができなくなりそうで怖い・・・。ではQ&A形式にて。
Q:
ページネーションの際に理想的なリンクやTITLEの設定方法は?
A:
そもそもページネーションでトップページ以外がインデックスされる必要があるかどうかをまず考えたい。
全ページのTITLEを全て一緒にしたら全ページがインデックスから消えたことがあった。少なくともTITLEにページの順番位は記述したい。
アンカーテキストも数字を記述した方が良い。
そもそもページネーションで何十ページも遷移しないと目的に辿り着けないのはユーザビリティ的にまずいだろう。
サリバン:
今日はユーザビリティの話は無しだよ 笑
Q:
SEOの初心者はどこから始めるべきか?
A:
私のメールマガジンを読んで 笑(ジル・ウォーレン)
SEO Bookが良いだろう(SEOmozのランド・フィシュキン)。
SEOmozも良いかも(Search Engine Landのバネッサ)
。。。完全に褒め殺し状態 笑
Q:
GoogleのSEOレポートカードは参考になるの?
A:
あれは技術的な要素を強調し過ぎ。SEOが戦略的なマーケティング手法じゃない、と言っているように見える(ランド・フィシュキン)。
。。。相変わらず過激なことを平気で言う人ですね。
今日のパネリストは皆長年SEO業界にいて、皆知っている。皆良いコンテンツを情報発信している。これからSEOを学ぶのであれば、どの情報でも有益と思うが、余り薦めないのは掲示板やフォーラムでSEOを学ぼうとすることだ。余りに混乱した情報が多すぎる(ブルース・クレイ)。
各検索エンジンが提供しているSEOガイドやブログは読んでおくべきだろう(SEO Bookのアーロン・ウォール)。
Q:
大型のサイトで様々な情報を提供するのと、情報毎にサイトを分けるのとどっちが効果的か?
A:
ケースバイケース。オーソリティサイトになっていない大型サイトよりはテーマを特化した小型サイトの方が上位に表示される場合が多いこともある。
マイクロサイトを乱立している業界もあるが、ブランドコントロールは難しいかもしれない。ただマイクロサイトが上位表示しやすいのも事実だが。できればページランクの高い大型サイトを1つ確率し、サブディレクトリで各コンテンツを発信していった方が良いとは思う(ブルース・クレイ)。
Q:
ブログの更新頻度が検索結果に影響を与えるのか?
A:
更新頻度はそもそも読者がいなければ全く関係ないが、いずれにしても更新頻度よりコンテンツの質だろう(3 Dog Mediaののグレッグ・ボーザー)。
ブログを半年更新しなかったら、私の名前で検索した時、ずっと1位だったのが4位に落ちた。多少関連性があるかもしれない(Search Engine Landのバネッサ)。
BIGワードで上げる訳でもないし、ブログを書く際は余りSEOを意識しなくても良いのでは(ジル・ウォーレン)。
ニューヨークタイムズのライターでさえ、ブログの記事名に検索されそうなキーワードを入れることを意識している。重要じゃないかな(Position Technologiesのトッド・フリーセン。)
ニュースならそうかもね(ジル・ウォーレン)。
ブログの更新頻度は昔は1日1回だったが、今は1日2回になりつつある。更新頻度もだが、実際に読者に読まれるには更新時間も重要だ(ランド・フィシュキン)。
ブログの記事に画像や図、映像をより多く入れると、ユニバーサル検索での露出も増えて全体的にトラフィックが増える傾向がある気がする(アーロン・ウォール)。
Q:
多言語のサイトを作るのであれば、どの方法が一番良いのか?別ドメインか、サブドメインか、サブディレクトリか?
A:
昨日のセッションでもこの話題があったが、結論から言うと其々に善し悪しがある。多言語サイトは言語以外にも例えば通貨やローカルサイトからのリンクなど考慮すべき点が他にもある(Search Engine Landのバネッサ)。
英語のサイトを他の言語のサイトにSEOを意識して作り替えるのは、キーワードを翻訳し、コンテンツを翻訳するだけで良い訳ではない。ターゲットマーケットのコンテンツに最適化する必要がある。例えばアメフトのコンテンツはアメリカ以外では通じないだろう。多言語サイトをきちんと作りこむのは英語サイトの数倍の手間暇がかかる(ブルース・クレイ)。
。。。日本進出で苦労したのかな?!
Q:
BingとYahoo!については?Yahoo!は無視すれば良いのか?
A:
個人的にはBingの順位が良いから早く変わってほしい 笑(グレッグ・ボーザー)。
BingのSEOは今はかなり簡単じゃないか(Position Technologiesのトッド・フリーセン)。
Bingは独自ドメインのサイトを評価する傾向がある。昔、Googleで有効だった時に使っていた今は使わなくなったドメインを復活させることを考えて良いかも(グレッグ・ボーザー)。
BingもYahoo!もまだまだスパムが通じるのが実態。トラフィックの比率的には低いが、そのために既存サイトを危険にさらしてまでSEOするべきかは判断が難しい(ジル・ウォーレン)。
BingとGoogleの対決の結果は2通りある。Bingがシェアを伸ばすか、そうじゃないか。僕はBingとGoogleは基本的に似ているとは思うが、、、その結果によりSEO対策のあり方も変わるかもしれない(ランド・フィシュキン)。
根本的にはSEO対策に違いは無いだろう。Bingはスパムに弱いと言う話があるが、Yahoo!にはスパム対策のエキスパートが沢山いる。その人達がBingの改善に参加すればBingもスパムに強くなっていくだろうし、是非そうなってほしい(バネッサ・フォックス)。
Q:
映像コンテンツはYouTubeか自社サイトかどちらに上げるべきか?
A:
YouTubeは世界No.2の検索エンジン。答えは明快(バネッサ・フォックス)。
ブランディングでビデオをアップロードするのなら、絶対にYouTubeだろう。ただし映像から実際のアクションにつなげたい場合は、自社サイトの方が効果的な場合もあるだろう。ケースバイケースだ(ランド・フィシュキン)。
。。。以上でした。流石にこれだけ揃うと、色々な意見があって結構盛り上がりましたね。細かな話で上に書けなかったモノも多いのですが。。。特に参考になる情報があった訳ではないですが、皆業界10年以上のベテランばかりなだけに、それぞれに自分の意見を持っていましたね。SEOは結局絶対的な正解は無い世界でもありますし、プロ同士が意見を激突させる風景は日本では中々無いので楽しかったです。
15 years 11ヶ月 ago
さてこれからは「**に聞こう!」シリーズ。決して主催者の手抜きセッションではありません。最初は原題「Ask The Search Engines」、検索エンジンに聞こう!から。
モデレーターはダニー・サリバン。スピーカーは三大検索エンジンが勢揃い。Yahoo!のサーチテクノロジー&エンジニアリング部門のアルナブ・バタチャレ?(Arnab Bhattacharjee)、マイクロソフトのBingからプログラム・マネージャーのサシ・パーササラシー(Sasi Parthasarathy)、そしてGoogleのマット・カッツ。ただのソフトウェア・エンジニア、と言う肩書きなんですね。全てQ&A形式。
そういえば最初にマット・カッツが少し話しましたが、昨日のセッションで話題になったAJAXのSEO対策の件は、今回が公式の最新ドキュメントだそうです。古い情報じゃなくて良かった!ではQ&Aにて。
Q:
Googleは検索クエリーを自動的に送信することを禁じているが、SEO会社としては非常に困るのだがどうにかならないのか?
マット・カッツ:
ケースバイケースだが、ウイルスがクエリーを自動送信していることもあるし、不正な使い方をされている場合もあるので、全て許可する訳にはいかない。
Q:
Yahoo!サイトエクスプローラーは今後どうなるのか?
Yahoo!:
何とも言えないがユーザーに便利なサービスは維持しようと思っている。
Bing:
ユーザーに有益なサービスを提供することが第一と考えている。
サリバン:
と言うことは、止めるかもしれないってことだよね 笑(Bingのサービスに引き継がれることを示唆して)
Q:
Googleの検索結果にページに記述してある日付が出てしまうのだが、実際の検索時の日付と違って違和感があるが削除できないのか?
マット・カッツ:
ユーザーはいつの情報か判断できるから便利だと思っているんじゃないか。
Q:
マット・カッツの映像インタビューでAJAXベースの検索サービスが使われているのを見たがリリースされるのか?
マット・カッツ:
Googleではユーザーができるだけ早く目的の結果にアクセスできることを考えている。AJAXを使うと何度も検索結果ページとウェブサイトを行き来する手間を省ける。ただしAJAXは全てのブラウザーが完全にサポートしているわけではないので、まだ完全な段階では無い。
Q:
サイト内でnofollowを活用してリンクジュースを調整する(ページランクスカルプティング)の意味はあるのか?
マット・カッツ:
nofollowは数年前にGoogleが提唱したアイデアだが、nofollowに頭を悩ませるよりはサイト構造自体の最適化を考えた方が効率的とは思う。nofollowを使うのであれば、例えばログインページやショッピングカートページへのリンクには使えるのでは。
。。。ログインページはどうなんでしょうね。「Mixi ログイン」の検索回数って「Mixi + キーワード」の組み合わせじゃ一番多い方ですよね。Mixiの場合はログインがトップなので関係ないですけど、専用ログインページがある場合はnofollowじゃなくても良いのかも。
Q:
ページランクの意味が無いと言っているのに何故ツールバーからページランク機能を削除しないのか?
マット・カッツ:
SEOのプロであればページランク機能を削除しても驚かないかもしれないが、いきなりページランク機能を削除したら何となくページランクを参考にしている一般ユーザーから大量の文句が来るだろう。それを考えると、中々取り外すことができない。
。。。納得できるけど納得したくない理由ですね。
Q:
canonicalタグは301リダイレクトと全く同じ処理がされるのか?
マット・カッツ:
ほぼそう考えて良いが、たまに既に存在しないページや間違ったURLに
canonicalタグのURLが設定されていることもある。そういう時は既存のURLを残すなど多少の追加処理はしている。
Q:
特定分野でオーソリティサイトを運営しているが、何故、Wikipediaより低い位置に表示されるのか?
マット・カッツ:
実際は他の検索エンジンと比較すると、Wikipediaの順位は低いケースが多いんだよ!ランダムの社内調査だけど。まず大型サイトだから上位に常に表示されるわけではない。WIkipediaはサイトとして巨大だから上位表示されやすい。
Yahoo!:
アルゴリズムの結果だからね。特にバイアスがかかっているわけでは無い。
Bing:
ユーザーの意見と検索エンジンのアルゴリズムは違う。検索エンジンのアルゴリズムはWikipediaを評価しがち。
Q:
SEOが完璧なサイトを作ったつもりだが、AJAXでSEOができると言うことを聞いてAJAX対応すべきか悩んでいる。
マット・カッツ:
順位が良いのであれば、SEOのルールに従ってサイトを作りなおす必要はないだろう。
Q:
FLASHはどうなんだ?Yahoo!とAdobeは仲が悪いのでは。
Bing:
取り組んではいるがまだまだ。
サリバン:
AdobeはYahoo!をパーティに招待しないよね。でもAdobeはAppleと仲が悪いから(iPadのFlash非対応を示唆)まだ大丈夫じゃないかな。
マット・カッツ:
FlashのSEO対応はまだまだ完全では無いが少しずつ良くなっている。
Q:
ルール通りに301設定をしているつもりなのに検索結果でどうしても意図した通りに表示されない。どうしたらいいんだ?
マット・カッツ:
キャッシュページを見てその内容が古ければ、新たにクロールされるまで待てば変わるかもしれない。またウェブマスターツールに fetch as googlebot と言う機能がある。Googlebotが特定のページにアクセスした際にどういう理解をするか簡単に分かる。設定が間違っている可能性もあるので、この機能を活用した方が良い。
Q:
Yahoo!の人は来年参加するのか?その必要があるのか?
(会場笑)
Yahoo!:
それは何とも言えないな。。笑 ただ我々はユーザーにより良い体験を提供できる努力は続ける。
Q:
Yahoo!のウェブ検索の結果はBingと全く同じになるのか?何かYahoo!独自のフィルターをかけるのか?
Yahoo!:
その予定は無い。追加の支援機能等は付けるかもしれないが、基本の結果は変わらない。
マット・カッツ:
そうなの?知らなかった!
Q:
CSSを使ってコンテンツをページソースの上位に記述することは今のSEOで意味があるのか?
マット・カッツ:
Googleではそれ程重要では無い。普通の人がウェブページを作ると必ずしもコンテンツがソースの上位に来る訳ではない。以前は1ページのソースを最高100kまでしかクロールしなかったが過去の話だ。結論から言うと余り気にする必要は無い。
Yahoo!:
ページソースからコンテンツとナビゲーションを自動的に分析する技術を今の検索エンジンは持っている。余り気にする必要は無い。
マット・カッツ:
TABLEやCSSのトリックを気にする人が未だにいるが、ほとんど気にする必要は無い。コンテンツに注力すべき。
Q:
リアルタイム検索の結果はGoogleのメインの検索結果に定着するのか?
マット・カッツ:
まだ分からない。
Q:
Mahaloについてはどうなのか?
(Mahaloはネット業界の有名人ジェイソン・カラカニスが提供しているコンテンツサイト。大半のコンテンツが外部コンテンツの流用で、オリジナルコンテンツの無い限りなくスパムに近いサイトではないか、と言われておりネット上で論争になっています。)
マット・カッツ:
サイト自体は面白い。見方によるが。Googleのガイドラインと照らし合わせて必要な対応を取っていく。Mahalo自体も色々調整はしている。
Q:
robots.txtが検索結果に表示されることが未だにあるが、直せないのか?
マット・カッツ:
ウェブページからrobots.txtにリンクが張られていると表示されることがある。
Q:
今後も検索結果にサブドメインとドメイン両方、表示されるのか?
Yahoo!:
同じドメインのサブドメインが検索結果の大半を占めることはないだろうが、少しであれば表示される。
マット・カッツ:
基本的に同じだ。
Q:
最後に何かコメントは無いか?
マット・カッツ:
誰もカフェインについて質問しないの?
まだ1つのデータセンターで稼働しているが、いずれ全てがカフェインになる。
まず多分ヨーロッパでカフェインのデータセンターを稼働させる予定だ。
—
。。。以上でした。マット・カッツのワンマンショーと言うと言い過ぎですが、やっぱりGoogle中心の内容でしたね。アメリカのGoogleのシェアを考えると仕方ないですけど。ちなみに上に記述したより実際はYahoo!もBingも話してます。ただ余り書くような話が無く 汗 しかし来年のこのセッションにYahoo!は参加するかどうかは気になりますね 笑
15 years 11ヶ月 ago
さて三日目最初のセッションはリンク構築の基本について。基本を見直すために、あえて参加してみました。原題は「Link Building Fundamentals」。モデレーターはSearchReturnのディサ・ジョンソン。スピーカーはSEOmozのランド・フィシュキン、Ontoloのガレット・フレンチ、Covarioのマイク・グラクセン。
—
まずはSEOmozのランド・フィシュキン。
戦略的なリンク構築と言うテーマで。
リンクはSEOの中でも一番難しいと言う認識は皆持っていると思う。間違いない。
SEOで圧倒的に勝つには競合より圧倒的なリンクが欲しい。圧倒的なリンクを得るには戦略的にリンクを得られる仕組みを作ることが重要。
例えばTwitterについて考えてみる。
Twitterは最近のサービスに過ぎないのに過去数年でインターネット上でも最も多くのリンクを得るサイトになっている。
何故か?それは多くの人にとってTwitterにリンクを張る意味があるからだ。例えばブログからTwitterアカウントへのリンク。Twitterはリンク獲得がサイト戦略と完全に一致している。
例えばvimeoと言う映像共有サービスがある。ブログに共有ビデオを張る際、映像自体はjavscriptで表示させているが、vimeoへのリンクはjavascriptの外に置いて検索エンジンがリンクとして認識できるようにしている。結果、大量のリンクを得ている。
Urbanspoonと言うレストランのレビューサイトがある。グルメブロガーを取り上げることでグルメブロガーがサイトにリンクを張ってくれるようにしている。
SurvetMonkeyと言うアンケートASPがある。ユーザーが自分のサイトでアンケートを公開できるようになっており、同時にリンクを得ている。
最後に1億のリンクがある中国のICPのサイトがある。理由は、リンクを張らないとそもそもサイトが開設できないようにしているから。アメリカでできるか分からないが。。。笑
。。。最後はスゴイですね。次にリンクに関する幻想の話。
1.「良いコンテンツを提供すればリンクは増える」
良く言われる話だが幻想に過ぎない!
リンクを圧倒的に増やすには、リンクを張るユーザーにメリットを与える必要がある。
2. 「特定の種類のリンクしか効果が無い」
全てのリンクに意味がある。全ての共有と引用リンクに価値がある。
リンク構築の戦略を考えるなら、サイトを作った後にマーケティング戦略として考えるべきではない。サイト自身を構築する際からリンク戦略を考えるべき。
。。。以上でした。流石SEOmozと言う視点を変えたアプローチ。でも確かにここがきちんとできているサービスは圧倒的に勝てるんですよね。Amazonしかり。
—
次にOntoloのガレット・フレンチ。リンクは数があれば良いと言う訳ではない、質が重要。質の高いリンクを得るには下記のステップが重要:
1. 上位表示したいキーワードを5-6つ決め、実際にネット検索する
2. 検索結果からリンクを張ってくれそうなブログやコミュニティを見つける
3. 各コミュニティで対話が起こるようなコンテンツを作る
4. さらにリンクが増えるような、リードが増えるようなコンテンツを作る
5. ひたすらプロモーション!
。。。ざっくりとまとめましたが、コンテンツに関しては、実際に10~20人のターゲット層にグループインタビューをしてコンテンツを評価してもらったり考えることもあるそうです。対話が起こるコンテンツとリンクが増えるコンテンツを分けて考えているのが興味深いですね。そして対話が起こるコンテンツを最初に提供すると。その上でリンク・リードが増えるコンテンツを提供すると。確かにこの順番ですよね。
最後はCovarioのマイク・グラクセン。リンク最適化について。
インターネットには様々なリンク分析ツールが存在する。Yahoo!のサイトエクスプローラーは一番有名。
■外部リンク
外部リンクの最適化はリンクリストを作る所から。
自社サイトにリンクしているページのURL、ドメインの種類(edu/comなど)、リンクテキストまで調べる。リンクテキストが明らかにおかしければ修正依頼をする。その際、リンクされたいテキストを例として送る。
■内部リンク
内部リンクの最適化も重要。例えばカードの販売サイトでクリスマスカードのページへのリンクテキストが「クリスマス」だけになっていれば、「クリスマスカード」に直したい。もちろんユーザビリティ的に難しい場合もあるだろうが、検索されるキーワードを常に意
識してリンクテキストを設定する。
■ブログ
会社でブログを書いている際は、ブロガーにリンクを張る際は最適なテキストで最適なページにリンクを張ることを徹底させるべき。
■ディレクトリ
ディレクトリ登録も以前と比べると重要では無いが、Yahoo!、DMOZ、Best of the Web、Seven Seek、JoantなどSEOに効果があるディレクトリもまだある。
■プレスリリース
プレスリリースの文章も最適化すべき。
■スポンサー
特定のサイトやページのスポンサーになる際は必ずリンクを張ってもらう。
■バナー
静的な画像バナーでリンクを張ってもらうことはSEOに効果がある。
■ウィジェット
ウィジェットを配布する際は必ず自社サイトへのリンクをコードに含めること。
。。。かなり基本の話でした。
—
最後にQ&A。
Q:
カフェインがリリースされた後もリンクがSEOで最も重要な要素か?
SEOmoz:
カフェインのデータセンターを見ている限り、順位は確かに良く変わるが根本的にSEOに影響があるとは思わない。
Q:
リンクを依頼する良い方法は?
Covario:
相手と関係を築く必要がある。相手がリンクを張るメリットを与えないといけない。
SEOmoz:
リンクを依頼する、と言う手法自体は好きではない。自然にリンクを獲得できる仕組みを構築すべき。ユーザーが「リンクをしたくなる」理由を作るべき。
Covario:
良いコンテンツを作ったら有力なソーシャルブックマーカーにリンクを依頼する手法もあるだろう。実際にお金をもらって張るブックマーカーもいるようだが。。。
SEOmoz:
僕はブックマーカーにお金を払うことが必ずしも悪いとは思わない。彼らは特定のトピックにおいて大きな影響力を持っていてコンテンツの流通を拡げる手助けをしてくれる。完全にスパムと言う訳ではない。
Q:
ブログ同士でネットワークを作って相互リンクしあうのは効果があるのか?
SEOmoz:
元々はネットワーク自体は良い意味もあったと思うが、金融やカジノ等で乱用されている。その種のリンクは余り評価されないのでは。。。
Q:
ページランクは意味があるのか?
Covario:
数字の正確性自体はともかくある程度の指標にはなるだろう。
SEOmoz:
昨日もGoogleリサーチの人がページランクは必要以上に注目されている、と言っていたがまだまだ意味があると思う。ページランクと検索順位の関係はまだまだ関連性が高い。
Q:
同じサイトからの多数のリンク(サイトワイドリンク)を張ることに意味があるのか?
Covario:
Googleは評価しないだろう。リンクテキストが全て同じ場合はさらに評価しない。
SEOmoz:
特定のサイトからの1つ目のリンクはある程度評価される。2つ目以降の評価は格段に減る。しかし、リンクの数が多いこと自体は重要だろう。ただしサイトワイドリンクはやらない方が良い。
Q:
下層ページへのリンク(ディープリンク)は効果があるのか?
Covario:
どのページを上位表示したいかにもよるが、キーワードによっては下層ページが上がっていた方が効果的なこともあるだろう。
—
。。。以上でした。初心者向けのセッションと言う触れ込みだったのですが、最初のSEOmozのランドの話は良かったですね。Q&Aは、初心者向けでした。今日の午後にもリンクのセッションがあるのでそちらはもう少し高度は話になることを期待。
15 years 11ヶ月 ago
いよいよSMXも三日目最終日。朝から頑張っていきたいと思います。最初のキーノートは原題「The State Of The Search Union」。
Search Engine Landのクリス・シャーマンをモデレーターに、Googleのアナリティクス・エヴァンジェリストで有名なアビナシュ・カウシク、Yahoo!のサーチエンジンマーケティング部門ディレクターのデビッド・ロス、大手SEM会社iProspectの創立者の一人であるミスティ・ロック、そしてSearch Engine Landのバネッサ・フォックスが対話します。アビナシュさんは先日のSES Londonにて初日のキーノートを話した人です。全てQ&A形式です。
Q:
去年のSMXの時期はとにかく最悪の不況で今後がどうなるか全く分からなかった。今年はどうなる?
Yahoo!;
普及の結果、結果的に皆がよりROIに注目するようになった。またSEOにも再度注目が集まるようになった。良い部分も多い。
iProspect(エージェンシーの立場):
eコマースに関して言うと、成長は続いている。リテールの売上が落ちていてもeコマースは伸びているクライアントも多い。SEM会社に関して言うと、よりクリエイティブに新しい取り組みをする必要が出てきたと思うし、実際に多くの会社がそうなっていると思う。
Q:
ブランディングと検索はマッチしないと言う議論があるがどうなのか?
Google:
ブランディングキャンペーンにおいて、対象ユーザーの感情にどういう影響を与えたいかと言う目的は様々あると思うが、検索マーケティングはターゲットユーザーにリーチするには有効活用できるはず。
Q:
Yahoo!とMicrosoftの提携はどうなる?
Yahoo!:
広告主にとっては広告の一括管理ができるようになるし、より便利で有益なサービスを提供できるだろう。ユーザーに対してもより良い検索体験を与えられると思う。
Q:
Yahoo!とMicrosoftのカルチャーは違いすぎるのでは?
Yahoo!:
既に2社間でスタッフが相互に協力して仕事をし出している。実際は今後が重要だが。
Q:
エージェンシーの立場ではどうなのか?
iProspect:
広告を一括管理できることは、より戦略に時間をかけることができるのでありがたい。クライアントも喜んでいる。
Q:
今回の提携で、検索市場には2つの巨大なプレーヤーが存在するだけになったが、今度はどうなる?
Google:
競争は常に良い。イノベーションが生まれる。余りにも2社の競争に注目が集まり過ぎていると思うが。
SEL:
MicrosoftとYahoo!の統合は巨大企業だけに大変だと思う。その過程で問題が起きないことを願っている。
Q:
カフェインがSEOに与える影響は?言い換えればパーソナライゼーションがSEOに与える影響は?多くのユーザーが心配している。
SEL:
SEOに関しては読者にもあまり心配しなくて良い、と言う話をするのだが変化は速い。カフェインに関して言うと、どちらかと言うとバックエンドの仕組みの話であって、SEOに直接影響を与えるとは思わない。ランキングへの影響も直接的ではなく間接的だろう。
Google:
ウェブマスターツールの意味は、いかにスケールを出した形でより多くの人に検索に関する有益な情報やサービスを提供できるかと言うことだ。Googleが持っている検索データは莫大だ。Googleトレンドなどその解析データにアクセスできる機会を無償で提供している。
Q:
ソーシャルメディアの普及でサーチに対する重要性が減っていないか?
iProspect:
サーチは企業の全てのPRキャンペーンの中で、常に活用されるようになってきた。減っていると言うことは無い。
Yahoo!:
ソーシャルメディアの活用にしても最初にサーチマーケッターが多く取り組んできた。サーチとソーシャルメディアはより融合された形で発展していくだろう。
Google:
メディアは特定の話題に集中しがちだからその認識が起こることも仕方ない。大企業の多くはテレビCMでただ叫んでいるだけだ。もっと対話をする必要がある。テレビCMが悪いと言うわけではないが戦略が無いCMが多すぎる。
Q:
対話が重要なのは理解できるが、マスマーケットへのメッセージングから個人へのメッセージングに変わってきたが、この変化への対応は難しくないのか?
Google:
広告は人の行動に何らかの影響を与えることが基本。叫ぶだけのテレビCMは意味が無くなる。サーチの影響力は大きい。Googleが
Yahoo!:
ソーシャルメディアは、個人へのメッセージングに最も適したツールだろう。
iProspect:
企業のどの部門がソーシャルメディアに参加すべきなのか、と言う議論が常にクライアントとある。またソーシャルメディアのユーザー自身にブランドについて語ってもらえる状態に持っていくことが重要。
Q:
現状のソーシャルメディアでは、ユーザーのプライバシーを無視したり、スパムだらけのメッセージなど、かなりグレーなマーケティングを行っている企業も多いが、どうなっていくのか?政府の介入は必要か?
Google:
スパムはいつの時代も存在する。良いことを行う方がメリットがあると思えるインセンティブを与えていくことで解決していきたい。
iProspect:
以前は、企業自身がその業界で啓蒙活動をしていく必要もあったが、今はユーザー自身がスパムに対して意見・反論を自ら情報発信する・できるようになっており心強い。
Yahoo!:
政府がレギュレーションを作ることには恐怖も感じる。インターネットやソーシャルメディアをまだまだ分かっていない人が多い。彼らへの啓蒙活動も重要。
Q:
グローバルの状況についてはどう思うか?
Google:
発展途上中に国に対しては、その文化や政府、進化の過程を考えながらアプローチする必要がある。
—
。。。すみません、余りにも話題が多岐に渡りフォーカスがないまま話が淡々と進んだのでイマイチ乗り切れず十分にフォローできませんでしたm(_ _)m そもそもQ&Aはそのままメモると膨大な量になりますし話も混乱しているので整理し直す必要がありますね。次から意識してもう少し良い内容にしたいです。ま、今回に関しては印象に残る内容も無かったですが。
15 years 11ヶ月 ago
いよいよ二日目最後のセッションは原題「The Need For Speed: Google Says It Matters」。最近話題の「サイトの表示速度がGoogleのSEOに影響するらしい」と言う話。ちなみに「The Need For Speed」ってアメリカで人気の車のゲームの名前からつけてますね。
モデレーターはSearch Engine Landのバネッサ・フォックス。スピーカーはBLVD Statusのパトリック・ベネット、またもGoogleのマイリー・オーエ、Tradebitのラルフ・シュウーベル、Search Discoveryのブライアン・ウセリー。
まずはGoogleのマイリー・オーエから。
サイトの表示速度は確かに検索順位にも影響すると。
■サイトの表示速度が何故重要か?
・コンバージョン率が変わる。サイトの表示速度が速くなっただけで16.07%もコンバージョン率が上がった事例がある。
・表示速度が速ければ速い程、ユーザーの満足度が上がる。
・Googleの表示速度が0.5秒遅くなるだけで、ユーザーの検索ボリュームは大幅に下がった。
■お金をかけない高速化の方法
・80%-90%の高速化はフロントエンドの対応で可能、お金をかける必要は無い。
■ウェブマスターツールのサイトパフォーマンス機能
・自分のサイトの表示速度をトラッキングできる。
・他のサイトとの比較もできる。
・Firefoxのページスピードプラグインも提供している。
■表示速度と検索順位の関係は?
・2010年3月5日現在、実はまだ表示速度と検索順位の関係は無い。
・もし関係するようになったら、オフィシャルに告知する。
。。。え、まだだったんだ。。。
■他のティップス
・Yahoo!のYSlowもGoogleのウェブマスターツールにない機能があって使える
・Webpagetest.orgも便利
■パフォーマンスとSEO
・表示速度改善は確実にコンバージョンを上げる
・Googleのインデックス数も上げる
。。。なるほど、順位に影響はまだ無いかもしれませんが、インデックス数には影響が出る可能性があると。
—
次にBLVD Statusのパトリック・ベネット。表示速度のモニタリングの話。
Googleのアドバイスは常に一緒。「検索エンジンのためにではなく、ユーザーのためにウェブコンテンツを作ろう」。
サイトのパフォーマンスをモニタリングするツールは高額のソフトウェアから低価格のサービスまで色々ある。
ツールはともかく何らかのKPIを設定してモニタリングすべき。要素としては訪問者数、ページビュー、滞在時間、平均ページ閲覧数、離脱率、直帰率など色々ある。売上やコンバージョンも重要。
YSlowはとても使えるツール。表示速度改善の差異には絶対に使うべき。
自分のサイトが遅いと感じたら、どこから始めるべきか?サイト自身の改善もあるがサーバー会社を見直すことも重要。ホスティング費が数万円増えたとしても、コンバージョン率が上がって売上が上がるなどそれ以上のリターンがある場合が多い。
サーバーを変える以外にも:
・サーバーサイドでキャッシングさせる
・httpのリクエスト数を減らす、JavascriptとCSSファイルを少なくする
・Gzipで圧縮する
・JavascriptとCSSを外部ファイル化する
・画像を圧縮する
・CSSスプライトを使って複数の画像を1つの画像ファイルにして利用する(amazonがやっている)
など可能なことは色々ある。
サイトの速度改善に終わりは無い。指標を決めてモニタリングしつつ、少しずつできることをやっていくことが重要。
。。。確かにちょっとしたできることって沢山あるのに結局何もやっていないサイトって多いですよね。。。自らも反省。
—
続いてTradebitのラルフ・シュウーベル。ドイツからわざわざ来たそうです。1日500万以上のリクエストがあるデジタルダウンロードのECサイトを運営しているそうです。
ECサイトはまずSEO、次に速度改善が重要。
2009年に速度改善を徹底的に行ったら、他には何もしなかったがコンバージョンが大幅に上がった。改善には3つの方法がある:
1. 最適化
2. 削除
3. キャッシュ
。。。ここからかなり技術的な話で付いていけず割愛させていただきます m(_ _)m
—
そして最後にSearch Discoveryのブライアン・ウセリー。名前の通り、SEM会社です。SEOディレクターさんだそうです。
とにかくスピードは重要。現在、ユーザーは2秒以内でウェブページが表示されることを理想と考えている。
。。。この後、テクニカルな説明が色々あったのですが、パワポの資料に大量に記載された情報をはしょって説明していたので書き切れず。後で資料が手に入ったら改めて書くかもしれません(役立ちそうなら)。最後に本人も「速すぎたかな?」とコメント。サイトが速いのは良いのですが、プレゼンが速すぎるのはどうかと。。。(←良いこと言ったつもり)
—
。。。後半、適当に流してすみません。さてここからはQ&A。
Q:
他社のAPIを使うと表示速度が遅くなることがどうしてもあるがどこまで影響するか?
A:
(ブライアン)サーバーサイドで読みこともページ全体のスピードが遅くなる。AJAXを使って読み込んだ方がページ全体の表示層度に影響が無い。
(Google)ユーザーのことを考えた場合、重要なのはページ全体のレンダリングスピードだ。部分的なコンテンツは、特に表示速度が遅れる可能性があるものは、まず全体を表示させた上で後から表示した方が良いだろう。
(Google)Google自身も例えばユニバーサル検索の場合、大量の情報を色々なソースから表示させる。また関連性をどこまで考慮に入れるかで計算速度も変わってくる。全体の中でお互いのトレードオフを考えながらバランスを取っている。
Q:
Googleはどうやってサイトのスピードを測定しているのか?
A:
(Google)かなりの部分をツールバーで計測したデータに頼っている。
Q:
ウェブマスターツールとツールバー、YSlowで計測スピードが違うと思うが、何かスタンダードになるような指標は無いのか?
A:
(モデレーター)計測方法やツールによってある程度の差は出てくる。重要なのは同じツールで計測すると言うことだろう。
Q:
Adwordsはランディングページの表示速度を考慮に入れているのか?
A:
(Google)クオリティスコアの要素に入っている。遅くとも4秒以内にページは表示されるべき。
—
。。。以上です。とにかく「Googleの検索順位にサイトの表示速度は一切影響を与えない」と言うGoogle自身のコメントが衝撃でした。最も、そのうち考慮されそうな言い方でしたけど。今、影響が無いからと言ってコンバージョン率の話とかを聞いていると改善できることは改善すべき課題であることには変わりは無いのですけどね。
後は今後、表示速度が検索順位にも影響を与えるようになれば、表示速度改善サービスの需要はもっと高まるかも知れませんね。この種のサービスは昔からありましたが、単独サービスとしてじゃ爆発的に普及しているわけではないと思いますが、いよいよ日の目を見るのでしょうか?!SEO~コンバージョン率増加の文脈で提案した方が企業も受け入れやすそうですし。サイトパフォーマンス最適化、Site Performance OptimizationでSPO。Page Speed OptimizationでPSO。ありえるかも。
最後は雑談になってしまいましたが二日目も無事に終了しました。今日は最初のTwitterを除けばひたすらSEOの話題でした。ある程度知っている話が多かったのですが、改めて聞き直すと参考になる点も多いですね。今日はプレゼン+Q&Aと言う形式でしたが明日は、Q&A中心のセッションが続きますので、何かハプニング的に面白い発言があることを期待したいですね。
ではまた明日よろしくお願いします!
15 years 11ヶ月 ago
午後の二つ目のセッションは原題「Universal & Blended Search Opportunities」。SES Londonでも幾つか話題になったユニバーサル検索の話。モデレーターはSearch Engine Guideのジェニファー・レイコック。パネリストはPerformicsのエリック・パプズン(Papczun)、Dream Systems Mediaのマット・シルタラ、PRWebのジヤン・ウェイ。
まずはDream Systems Mediaのマット・シルタラがブレンド検索の基本を。
特定の質問に対してインターネット上には様々な回答になる・参考になる情報が溢れている。ウェブサイト、Twitter、映像、画像、Q&A、ブログの記事、レビュー、などなど。
検索結果のブレンド・メディア(Blendid Media)。
例えば人の名前で検索すると、ウェブページの結果一覧に加えて、、、その人の写真が同時に表示されることがある。映像が表示されることもある。ニュースの結果が出ることもある。
商品名で検索すると、商品ページが通常の検索結果と個別に表示されることがある。ブログの記事が通常の検索結果と個別に表示されることがある。
書籍の情報が個別に表示されることがある。
地図と近隣の店舗情報が表示されることがある。
Twitterのつぶやきが表示されることがある。
ソーシャル・サークルから友達の写真やブログ、メールが表示されることがある。
。。。と、実際のGoogleの検索結果画面を見せながら一通り説明。最後に下記のコメントで終わりました。まずは基本の紹介ですかね。
通常の検索結果以外の箇所に露出していきたい時は、インターネット上の様々なメディアを活用していく必要がある。
活用のヒントは色々ある。例えばQ&Aサイトでキーワード検索をし、Q&Aに表示される内容からユーザーニーズを考えてみることもできる。
—
次にPerformicsのエリック・パプズン(Papczun)。大手SEMエージェンシーですね。
ユニバーサル検索のトレンドについて。人によってユニバール検索と言う人とブレンド検索と言う人がいますね。明確な違いは無さそうな感じです。
ユニバーサル検索の利用者の調査を行うと、ユニバーサル検索経由で画像や映像を見つけた人は利用率が通常より高い傾向がある。
ローカル検索は確実に店舗への実際の来店を促進している。
ローカル検索をした人の37%が実際の店舗に訪問している。
2008年にモバイル検索の28%がローカル検索だったが、2013年までに35%になると予測している。
ユニバーサル検索を効果的に活用にするには、「ユニバーサル・ブランド・マネッジメント」の概念が重要。特に下記の3指標が重要:
・レピュテーション管理
・ブランド認知
・ローカル検索経由の来店促進
例えばGoogleで「McDonalds」(マクドナルド)で検索してみる。1ページ目で会社のサイトやローカル検索の結果が表示されるが、画像の一部にひどい内容の画像が表示されている(太った水着の女性が二人)。こういうケースではこの画像より優先表示させるマクドナルドの関連画像を用意すべき。
ウォルマートで検索すると、「ターゲット(競合)がウォルマートよりはるかに良い!」と言うTwitterのつぶやきが出てきた。
United Airline(ユナイテド空港)で検索するとネガティブサイトが1位に表示される。
ユニバーサル検索は利用率が増えているにも関わらず、対応がきちんとされていない場合が多い。今後ますます重要性を増していくだろう。
。。。前半のデータは興味深いですね。もう少し掘り下げて聞きたかったです。実は最後に画像&映像検索、ローカル検索、リアルタイム検索、レピュテーションマネッジメントのポイントを10個ずつ3分で紹介してくれたのですがとてもメモれず、、後で資料が入手できればまた紹介します。
—
最後にPRWebのジヤン・ウェイ。PR会社だけあってニュース検索に特化したユニバーサル検索の活用法を紹介。
事実1:
ユーザーはブレンド検索のニュースに気にしている
・・・検索結果に表示されるニュースのクリック率はある程度ある
事実2:
Googleはブレンド検索のニュースを気にしている
・・・Googleの検索結果にニュースが表示される回数は増えている
ニュースを発信することは、より多くのトラフィックを得るのに重要。
とは言え、発信するニュース情報なんて余り無い、と言う人もいるかもしれない。
しかし本当にそうなのか?
そもそもニュースとは何か?
「ニュースは時間軸の中で取り上げられる情報である。」
ネット時代のニュースとは?
例えばティップスでさえ、ニュースに成りうる。例えば「***に成功するための5つのティップス」は立派なニュースに成る。
ニュースであってもキーワードを意識することは重要。ユーザーが検索すると思われるキーワードをニュースの文章、特にタイトルに記述することが露出回数を増やすには重要。
ニュースの寿命は短い。一時的に検索結果の上位に表示されても、長くは続かない。逆に言うと、ニュースを発信するタイミングも考える必要がある。
。。。ニュースと言うか企業にとってはプレスリリースなのでしょうが、確かにユニバーサル検索の時代に企業のニュース、プレスリリースの効果的な活用法と言うのも改めて見直される要素かもしれませんね。
—
続いてQ&A。
Q:
ユニバーサル検索が普及すると、SEOの意味が無くなると言う話があるが?
A:(三者ともSEM会社なので人を特定せずまとめて書きます)
検索結果に一定のウェブ検索の結果は残る。SEOは重要。
今日話したように画像や映像、ニュースのSEOも必要だろう。必要となるSEO施策は広がる。
Q:
モバイル検索の結果はユニバーサル化されていくのか?
A:
スマートフォンやiPhoneの普及で当然そうなっていくだろう。特にローカル検索に関しては進化していくと思う。
Q:
YouTubeのビデオをどうやったらGoogleの検索結果に上位表示できるのか?
A:
YouTubeにビデオをアップロードしたら、必ずブログやサイトに掲載すべき。ビデオの利用回数やコンテンツの関連性が上がって上位表示される確率が高まる。
Q:
ユニバーサル検索の最大のティップスを上げるとすると?
A:
基本的にはビデオでもニュースでも良いコンテンツを作ると言うことだ。発信し続けることが重要。
例えばネガティブな情報がインターネット上に溢れていたとしても自ら情報を発信し続けることで、それらの情報の上位に表示させることができるかもしれない。
Q:
ビデオを上位表示させるには自社サイトにアップロードするのとYouTubeとどっちが効果的か?
A:
サイトにトラフィックを直接呼びたければ自社サイトが良いだろう。ただしSEOはきちんとする必要がある。
YouTubeにアップロードすることで、YouTube自体の検索エンジンの対象になるなどトラフィックを獲得しやすい点もある。両方にアップロードする考え方もある。
Q:
ユニバーサル検索に取り込まれる次の要素は何か?
A:
要素と言うと答えにくいが、ローカル検索はもっと進化していくだろう。また検索キーワードももっと細かいフレーズまで絞り込まれた上で個別のユニバーサル検索結果が表示されるようになっていくだろう。パーソナライゼーションももっと進化していくに違いない。
Q:
ユニバーサル検索の話をすると、ついGoogle中心になるが、Yahoo!やMSNはどうなのか?
個別に対応するには検索シェアが少なすぎる気もするが。
A:
Google中心になるのは分かるが、Yahoo!やMSNからも多くのトラフィックを得ることはできる。特に今回のYahoo!とマイクロソフトの提携でBingはさらに進化していくだろうし、ユニバーサル検索も進化すると思う。対応する側もBingに対応することでYahoo!にもマイクロソフトにも同時に対応できるから今までよりは楽だろう。
Q:
マイクロフォーマットはユニバーサル検索で重要になっていくと思うか?
A:
なると思う。特にローカル検索では重要になっていくのでは。
Q:
レビューサイトの重要性は?
A:
当然重要だ。ローカル検索の地図情報と表示される店舗情報には既にレビュー情報が合わせて表示されている。
Q:
YouTubeのビデオのコメント数は順位に影響を与えるか?
A:
正確には分からないが、一般的に言えばコメント数が多いビデオは表示回数やクリック率も高いだろうし、上位表示される傾向はあるだろう。
—
。。。以上でした。特に目新しい話がある訳ではないですが、検索マーケティングも画像、映像、ニュース、、、と考慮しなければいけない対象範囲が広がるばかりですね。先日のSES Londonでは「ウェブアセット最適化 / Digital Asset Optimization / DAO」のセッションがありましたし。僕もまだまだウェブ検索のSEO中心でやっていますが、少しずつユニバーサル検索対応も取り組んでいきたいと思います。
15 years 11ヶ月 ago
二日目午後のセッションは何だか長い名前の原題「Dealing With Domain Names, URLs, Parameters & All That Jazz ? Technical SEO Tactics」。何となく知っているけど正確な答えは確信が持てなさそうなSEOの技術的な内容が中心です。実用的なアドバイスが聞ければ良いのですが。
モデレーターはSearch Engine Landのバネッサ・フォックス。スピーカーはAntezeta Web MarketingのCEO ショーン・カルロス、iCrossingのSEOディレクター、リチャード・チャベス、ItsTheROIの創立者ヨナ・ステイン、そしてGoogleからシニエ・エンジニアであるマイリー・オーエ。先日のSES Londonにも出ていた人ですね。
—
まずはGoogleのマイリー・オーエから。
■Googleがどのようにドメインを処理するか?
・ドメインが国名の場合(co.jp)は自動的にその国のサイトと判断する
・comやnetの場合はコンテンツの言語を見て判断する
・ウェブマスターツールで設定もできる、効果が出るには1週間程度かかる
・サーバーの所在地も考慮に入れる場合がある
・他の要素も考慮に入れるケースがたまにある
■URLの構造について
サブドメインとサブディレクトリ
。。。プラス・マイナスはあるが、細かいので後でブログに上げるそうです。どっちかと言うと一番Googleから直接聞きたい話でもあるのですが 汗
■同一コンテンツのページ遷移について
・複数ページのオプション以外に、全コンテンツを1ページで表示するオプションを用意している場合は ref=”canonical” をつける、これによりそのページだけが検索結果に表示される
・ただし1ページに全コンテンツを表示させる場合に量が多い場合は、ロード時間も考慮すべき、長すぎると良くない
■URLのエンコーディング
product.php?item=nexus-one&trackingid=1234
product.php?item=nexus-one&trackingid=5678
上記2つの動的URLはクローラーが重複ページと判断する可能性がある
/nexus-one/1234.html
/nexus-one/3456.html
上記2つの静的URLは別のURLとして認識されやすい
複雑なURLであっても、URLのパラメーターを設定するツールがウェブマスターツールに用意されているので上手く活用すれば正確にクローリングされる、既に6万以上のサイトが活用している
複数のパラメータが入った動的URL構造のサイトの事例:
Googleが認識したURL → 1,587,811 URL
実際にクロールしたのは885,482 URL
つまりクロール率は55.77%だった。
↓
ウェブマスターツールで設定
↓
Googleが認識したURL → 887,203 URL
実際にクロールしたURL → 70万以上(正確な数字をメモミス)
クロール率は90%以上に上がった。
↓
クロールしたURL数自体は減っているが、クローリング率が上がり、さらに検索結果には後者の方がより多くのURLが出てきた。Googleが正しくサイト内の個別ページを認識したため。
。。。基本の話でした。最後の部分は実際の検索経由の順位やトラフィックの影響をもう少し詳しく聞きたかったですね。
—
次はiCrossingのリチャード・チャベス。アメリカとヨーロッパに12のオフィス、550人もいるエージェンシーなんですね。ロードバランサーを使った際のSEOの話。
ロードバランサーでホスティングする場合の注意点。
ロードバランサーは使ったケースでURL、サブドメインがサーバー別に違う名前になっているケースがある。例えば www1、www2、www3 など。
コンテンツはどれも同じなので、検索エンジンはどのURLが正しいのか混乱し、インデックスに支障が出るケースがある。
実際の事例で3つの別サブドメインがあったケースでクローリング率は
Google 40%
Bing 72%
Yahoo! 12%
と極めて低かった。SEO的には非常に問題となる。
【結論から言うと、必ずURLは統一すべき】
技術的には、
・URLリライト
・301転送
・TCPラウンドロビン
等がある。設定によっては技術的に難しいケースもあるが、逆にロードバランサーを使う時は、複数のサーバーでもURL(サブドメイン)が変わらないシステムを作るべき。
大型CMSであれば、マイクロソフトのCMSやインターウォーブンは最初から対応している。
どうしても対応ができない場合は、rel=”canonnical” タグを使ってどのURLが正しいか明確に記述するか(導入は簡単だが、確実に検索エンジンが言う事を聞くとは限らない)、ウェブマスターツールで設定する方法もある。Yahoo!やBingも同様の設定ができる。設定が多少面倒だが、正しく設定すれば効果はある。実際に試したケースでも一定の効果があった。
。。。ひたすらロードバランサー使用時の話でした。確かに以前はこういうサイトってありましたけど、、、今もまだあるのかな?
—
次にAntezeta Web Marketingのショーン・カルロス。多言語サイトのドメインとURL対応の話。
多言語・多国籍サイトを構築するサイトの注意点は2つ。
1. 言語
2. 地理
言語・国別にサイトを用意する場合は、
1. ドメイン自体
2. サブドメイン
3. サブディレクトリ
4. パラメーター(例:index.php?lang=en / lang=jp など)
レベルで対応できる。4番目のパラメーターを使う手法はインデックスされなケースもあるのでおススメできない。
検索エンジンはウェブページのドメインやコンテンツから、それがどの国、言語に向けて提供されているコンテンツかを自動で判断する。
その観点から考えると国毎に国別ドメインを利用することが確実。
ちなみに、リンクがどの国・言語のサイトから張られているか、と言うことも1つの基準として使われていると考える。例えば同じ英語圏のコンテンツでどこの国向けのコンテンツか判断する際に指標になるのでは。
ユーザー視点から言っても、マイクロソフトの調査データにもあるが、ユーザーはURLを検索結果でクリックするかどうかの判断基準にしていると言われる。
1. 国別ドメイン
プラス:
・サイト毎に独自のコンテンツを自由に作れる
・ユーザーにも特定の言語、国をターゲットにしていることを明確にできる
・効果測定を個別にできる
マイナス:
・言葉が同じ国なのに個別にドメインを用意すると重複コンテンツの可能性が出てくる
2. サブドメイン
プラス:
・サブドメイン単位で自由にサイトを作れる、サーバーも個別に設定できる
・効果測定も個別にできる
マイナス:
・サブドメインを言語、国別以外の目的で設定したい際、サブドメインのルールが複雑になる
3. サブディレクトリ
プラス:
・全てのリンクが同じドメインに集中し、サイトの評価が上がりやすい
マイナス:
・地域ターゲティングが難しい
。。。改めて整理してくれました。
—
最後にItsTheROIのヨナ・ステイン。ページネーションの話。
ページランクが重要で無くなったとは言え、指標にはなる。
同じコンテンツを複数のページで展開した時、ページランクを分散させることになる。
ページネーションが必要なケースは、例えばディレクトリやリンク集のカテゴリページなど大量の情報を一覧で表示するケース。例えば「カリフォルニア州サンフランシスコの大学一覧」のページは全体で何百ページにもなりうる。
このようなケースでは最初のページの方がページランクが高く、後のページに行くに従いページランクが低くなり、また途中からインデックスされないページも出てくる。特定のサイトで細かく実験したことがあるが、ページランクが最初のページ~後のページに行くに従い順番に低くなるわけではない。論理的に説明できないことも多い。
最後に細かなティップスを:
・ページネション内のページであってもページ毎に個別のTITLEを指定しよう
・パラメーターを使うことは止めて、静的URLにしよう
・1ページ内のリンクは減らした方が個々のリンクの評価は高まる
・ピラミッド構造のサイト構造が効果的
・2-3クリックで最下層のページまで進めるリンクが理想
。。。最後のティップスは基本ですが、途中実際は色々なデータを見せながらいかにサイト内のページ毎のページランクがルールで説明できないか、と言うことを話していたのですが、役に立ったのかどうか分からない話でしたね。
次にQ&A。
Q:
AJAXを使う際に気をつけるべきことは?
A;
(Google)Googleでは、最近、AJAXを使っているサイトでもクローリングが正確にできるソリューションを提示した。サイトに詳細を掲載しているのでAJAXを使う際は制作会社にそのルールを参考にするように伝えてほしい。
。。。あ、これは知りませんでした。URLはこちら。日本語ページを早く公開してほしいですね。まだ出たばかりの情報かな?
Q:
canonicalタグを使う時の注意点は?
A:
コンテンツ自体がマッチングしていることが重要。仮にドメインが違っていても使える。URLが動的でも静的でも関係ない。コンテンツがマッチングしていれば問題無い。
Q:
コンテンツをパートナーサイトに提供する際は、canonicalタグを使うべきか?使わない方がページランクが引き継がれそうな気がするが。
A:
(Google)canonicalタグを使う方が良いとは思う。SEO上、どちらが効果的かと言うことに関しては何とも言えない。
。。。ここで各社が色々意見を言いだしたのですが結局結論が分かりませんでした。ちょっと気になる話題ですね。
Q:
外部サイトにリンクを張るとページランクを外部流出すると言う話があるがどうなのか?
A:
(ItsTheROI)人によって意見が色々あるが、質の高いサイトへ外部リンクを張ることは、サイトの評価を上げる要素にも成りうる。
(Google)問題ない。内部リンクでリンクの張り方でページランクを調整することはあると思うが、外部リンクは余り関係ないと思っていい。そもそも外部リンクでインターネットは成り立っているし、SEOを気にして外部リンクをしないと言うのはおかしな話。ユーザーにとっても良くない。
。。。以上です。大半は知っている話ではありましたが、GoogleのAJAX対応は実際にどこまで普及して効果があるんでしょうね。FLASHのSEO対応は昔から言われており途中でGoogleも多少対応する努力もしてきたりもしましたが、結局未だに対応できてませんよね。AJAXはFLASHよりはやりやすいですかね。今後、ちょっと注目ですね。他の話は基本の再確認と言う感じでした。
。。。ってセッション終了後に検索してみたら去年の10月にAJAX対応していたとは、、、勉強不足ですね 汗。当時はプレゼン資料しか無かったみたいですけど、上記のドキュメントっていつ公開されたのかな?
15 years 11ヶ月 ago
キーノートに続く午前のセッションは「Twitter Marketing Tactics」。Twitterのビジネス活用について企業マーケッターが語ります。モデレーターはお馴染みダニー・サリバン。スピーカーはViatorのマーケティング・ディレクター、ケリー・ギリース、Define Search Strategiesの仕事もしているらしいアダム・シャーク、そしてKeyRelevanceの最適化戦略ディレクターのクリス・シルバー・スミス。
まずはViatorのマーケティング・ディレクターのケリー・ギリース。オンラインの大手旅行代理店だそうです。Twitterを活用している企業の立場からティップスを。
■まずはTwitterの基本から
・とりあえずすることがなくてもブランド名でアカウントを取ろう!
・アカウントを取ったら他人をフォローしよう。
・会話に少しずつ参加しよう。
・ウェブサイトでTwitterをPRしよう。
・Twitterページをパーソナライズしよう。背景画像を変更しよう。
「No Fear」
ノー・フィアー!!
恐れないことが大事。
毎日つぶやくことを義務とする必要もない。まずはマイペースで始めよう。
■既存のコンテンツをTwitterに活用しよう
・ブログの記事
・レビュー
・画像
・プレスリリース
・ニュース
・受賞
・新製品
・メール
■プロモーション&セールスをしよう
・セールス
・コンテスト
・Twitterだけのセールスやディスカウント情報
■レピュテーション管理に活用しよう
・ユナイテド航空はTwitterで顧客の不満を受け付けて答えている
・全てに答えてはいないが(きりがないので当然と思う)顧客の満足度を上げるサービスとして役立っている
■顧客と対話しよう
・Twitter経由で顧客と対話することで、顧客に人間味を感じてもらうことができる
■ブランドのパーソナリティを作ろう
・Twitterを通してブランド自身のブランディングをする
・基本的には楽しいパーソナリティで接した方が良い
■検索結果に登場しよう
・Google、Yahoo!でTwitterの結果が出るようになった
・ニュース検索の結果にもTwitterが出るようになった
・TwitterでつぶやくことがSEOになる
■Twitterを超えて
・Facebookと連携できるアプリケーションが出てきた
・サイトにTwitterの投稿を掲載、例えばハッシュタグを指定することで特定のつぶやきだけを集約して表示できる
。。。基本から応用まで短時間で分かりやすく説明してくれました。まさに理想的な企業のTwitterマーケッターですね。
—
次にDefine Search Strategiesのアダム・シャーク。ニューヨークタイムスの子会社だそうです。ニューヨークタイムスなどメディアサイトのソーシャルマーケティングの活用支援をしているそう。
■ニューヨークタイムスなどメディアサイトへのトラフィック比率
・TwitterとFacebook経由のトラフィックは年々増えている。
・Diggの比率が以前より減っている。
Twitter 0.1% -> 0.5% -> 0.7%
Facebook 0.2% -> 0.7% -> 1.0%
Digg 0.6% -> 1.3% -> 0.5%
(2008年→2009年→2010年)
■メディアサイトのTwitter活用
・まずはブランド名でアカウント開設
・基本は最新ニュースを提供
・ニューヨークタイムスやCNNは200万以上のフォロワー数
・雑誌であればメインのアカウント以外にサブ的なアカウントも開設
・例えばファッション誌 InStyleはメインが150万、別のサブアカウントは38万フォロワー
・シカゴトリビューン誌のパーソナリティを設定したアカウント(ColonelTribune)は88万フォロワー、ブランドがパーソナリティを設定してPRするのはまだ目新しい
・特定のライターやスタッフが個別のアカウントを開設するのも手法、Entertainment Weekly誌は人気ライターが個人的な話をして100万フォロワー獲得
・ニューヨークタイムスではトピック毎(オリンピック、津波、地震、ハイチ、書籍レビュー、ブロードウェイのショー情報、などなど)にリストを作成して情報を提供している、ただしやりすぎは注意
・特定のハッシュタグでユーザーがつぶやけるようにして、その内容をメディアサイトに掲載する、メディアサイトであっても双方向のコミュニケーションを簡単に実現できる
・サイト上でTwitterのアカウントをプロモーションすることが重要、特に複数アカウントを開設している場合は専用ページを設けてプロモーション
・リツイートのボタンは重要、クリックした際に自動的に短縮URLと見出しを同時に表示させると使いやすい(シリコンアレーインサイダーが参考になる)
・効果測定が重要、どんなコンテンツがクリックされるか、何時頃にクリックされるか
■検索とTwitter、SEO
・つぶやきに含めるキーワードは重要
・流行、検索数が急増しているキーワードを意識
・ハッシュタグも意識
・意識することで検索結果でつぶやきが上位表示される、ニュースメディアには特に重要
・元々、質の高いコンテンツを持っているのであれば、少しSEOを意識するだけでより多くのトラフィックが得られる
・ソーシャル検索ではニュースサイトが検索結果に出てくる数が限られている、選ばれる基準が分からないが、そこに入れるかが重要
。。。メディアサイトならではのティップスが色々ありました。
—
最後にKeyRelevanceのクリス・シルバー・スミス。SEM会社ですね。SEOとPPC、SMM(ソーシャルメディアマーケティング)もしているそうです。Twitterマーケティングの基本とテクニックを説明と言うことで。
■Twitter戦略の考え方
1. 消費者が第一
彼らが自分の会社について既に何を言っているか?彼らがどのようにTwitterを使うと考えられるか?ペルソナを想定して考える。
2. 時間と投資
Twitterにどの程度に時間をかけるか?
■企業のTwitter活用
・ピザハットはインターンの学生にフルタイムのTwitter専用のつぶやきと対応をさせた
・マリオットホテルはTwitterで専門のカスタマーサービスを提供
■Twitterにかける時間
・専属のスタッフ
・パートタイムのスタッフ
・自動化
■Twitterのアカウント開設
・ブランド名が重要!
・意識しているキーワードで別アカウントを取ることもあり
・Bio、自己紹介のコメントは重要、キーワードを効率的に含めること
・地域名も明確にしていすることが重要、ローカル検索に効果的、特にスモールビジネスは必須、都道府県名と市区町村名は入れたい
■背景画像の活用方法
・背景にシンプルでプロフェッショナルな画像を入れよう、例えば電話番号
・パワーポイントで画像に文字を入れたり、専門サイトを使うこともあり(http://www.twitter-images.com/、http://www.mytweetspace.com)
・フォロワーのアバター画像を背景に使う、フォロワーとの関係性を作るには面白いかも、ただし自動的に行うとどんな画像が出るか分からないので注意
■Twitterのユーザー名の重要性
・長すぎるユーザー名はリツイートの際に問題になるかも。
・Twitterユーザー名の文字数の統計:
0-6 – 13%
6-9 – 58%
9-12 – 27%
12-16 – 2%
■Twitter検索の活用法
・ターゲットユーザーが使うと思われる検索キーワードで検索して(例:旅行代理店であれば、cheap hotel、格安旅行、など)フォローする、自動化もできる
■リツイートされるつぶやきに含まれる単語
DanZarrella.comで面白い統計が見られる。
■特殊文字の活用
・ハートや顔文字をポイントポイントで使うことも、つぶやきを目立たせるには有効かも、ただしやりすぎは注意
■URL省略のテクニック
・省略URLでもキーワードを入れたい
・bit.lyの有料アカウントだと可能
■Twitterのオートメーション
・TwitterFeed(RSSから自動的にTwitterに配信)
。。。流石エージェンシーだけあって、意外と知らなかったティップスが満載でしたね。短縮URLは興味深いけど日本だとそこまで重要かな。。。背景画像にフォロワーを表示する仕組みも面白いですね。皆がやり出すと微妙かもですが。
—
最後にQ&A。
Q:
オートメーションは危険では?
A:
(ケリー)やりすぎは危険だけど使い方によっては便利。
(アダム)少なくとも時間指定した自動投稿機能は活用できる。複数のアカウントを持っていれば有効。
(サリバン)仕事が終わる金曜夜につぶやいても、見てくれる人が少ないだろう。時間指定して月曜朝に投稿することに誰が文句を言う?!
(クリス)同じつぶやきでも少し内容を変えて何度か投稿することもできる。結果的にクリック率は上がる。やりすぎは注意だが。
Q:
ブログのコンテンツを再活用すると情報が古くならないか?
A:
(ケリー)そのまま投稿するのではなく、それにまつわる最新の進行情報を少し混ぜるなどクリエイティブに投稿しよう
Q:
既にブランド名でアカウントが取られている時はどうすればいい?複数のアカウントを取る時は何に注意すれば良い?
A:
(アダム)複数アカウントを持つ場合は各アカウントの目的をはっきりさせることが大事。
(ケリー)複数アカウントを持ちすぎるとフォロワー数が分散しかねないので注意が必要。まずは1つのメインのアカウントを持った上で、必要であれば特定のテーマに絞った(例:カスタマーサポートなど)別アカウントを持つべき。
(クリス)既に自分のブランド名でアカウントが取られている場合は、もしもトレードマークを持っている場合は、直接相手に問い合わせてアカウントをもらうことも不可能ではない。
(サリバン)Twitterのサイト上でトレードマークに関するページがあるはずだから読み込んでみた方が良い。
Q:
Twitterするのに一番便利なツールはなんだ?
A:
(アダム)Seasmic、TweetLater、などなど色々ある。モニタリングも色々ある。これがベストだと言うのはケースバイケース。
(ケリー)企業の立場から言うと、アフィリエイターがTwitterをスパム的に使っている場合がある。定期的にモニタリングすることが大事。
Q:
クリック率等のトラッキングには何を使っている?
A:
(ケリー)オムニチュアで一括管理している。
(クリス)bit.ly を使っている。ちょっとしたアドバイスだが、URLの最後に@を付ければ通常のURLと別扱いで解析できる。後、301転送をしているURL短縮サービスを使うべき。ページランクを伝えることができる。SEOには重要。
—
。。。以上でした。企業マーケッターからSEM会社まで中々具体的なティップスがたくさん聞けて参考になりました。僕のつぶやきにも活用していきたいと思います!
16 years ago
さて、SMXも二日目となりました。昨日はリアルタイム検索、ソーシャル検索とトレンドを追う話が中心でしたが、今日は実用的なセッションが中心。最初のキーノートは原題「An Insider’s Look At Google Research」。Search Engine Landのダニー・サリバンとクリス・シャーマンが、Googleのリサーチディレクター、ピーター・ノーヴィグとGoogleリサーチについて質問しまくる、と言う内容です。
このピーター・ノーヴィグ氏、見た目が白髪でアロハシャツ、還暦を過ぎたようなオジサンでGoogleの人っぽくないのですが、経歴を聞くと相当な天才みたいですね(Wikipedia)。
15分で語るGoogleリサーチの21プロジェクト。
1.
特定の人を探すサービス。災害の時に人を探すのに役立つ。
2.
電力が毎日どれ位消費されているか調べるデバイス。
3.
地球の森林の崩壊度を一目でわかるウェブサービス。
4.
独自開発した三輪車とスノーモビル。
5.
ストリートビューのユーザー写真。
6.
画像の内容を認識して同じ種類の画像を表示。
7.
画像を検索する際に使われた検索キーワードを集約して画像のアノテーションを行う。
8.
読みにくいCaptchaの代わりに、画像を回転させて表示し、ユーザー認識させる仕組み。
9.
Goggles。携帯電話で写真を撮るとその内容を自動認識して詳細情報を説明する仕組み。
10.
写真の一部だけを自動的にリサイズ(例えば写真の中の特定の人だけ)
11.
クラスターデータのシェアリング。テクニカルな内容。
12.
アンドロイドのアプリを小学生でも簡単に作れるウェブサービス。
13.
音声認識アプリ。
14.
棒読みじゃない音声読み上げ機能。
15.
電話の音声を自動翻訳。開発中。
16.
イディッシュ語の翻訳。翻訳が難しい言語の翻訳。
17.
音認識。開発中。例えばYouTubeで鶏の声がする映像だけを表示。
18.
Google Squared。
19.
言葉のクラスタリング。
20.
言語から特性の抽出。
21.
ウェブページのブラウザー別の表示サイズチェックツール。
最後にある哲学者の言葉を紹介して終了。
“You can observe a lot just by watching.”
(見るだけで多くのものを観察できる)
Googleリサーチでは多くの情報を見ることで、多くの情報を得ようと日々努力している。
—
。。。とりあえずGoogleが研究開発している色々なサービスを一気に紹介。良く分からないものもあるのですが、こうやってみると、ホントに様々な分野の研究に取り組んでいるんですね。
次にモデレーターとの会話。
シャーマン:
見せてもらったものの中には商品として完成しているものもあれば、実験的なものもある。その辺の区別はどうつけているのか?
Googleリサーチ:
色々なやり方があるが、最終的にはどれもサービスとしてリリースすることを念頭においている。
サリバン:
20%ルールはどれ位機能しているのか?
Googleリサーチ:
人によって意見は違う。Gmailは20%ルールで良いサービスに仕上がった成功例だろう。ただ担当者に聞くと別に20%ルールを意識していたわけではない、と言っていた。翻訳や音声認識も2002年頃から取り組んでいた新しい分野だったが、厳格に20%ルールの中で仕事をしているわけでもなかった。
シャーマン:
経営サイドからはGoogleリサーチの仕事に関してどれ位口出しされるのか?
Googleリサーチ:
経営サイドからは、中長期的な視点で考えると同時に直近の進歩状況も常に確認されている。
シャーマン:
リサーチの拠点は世界中にあるようだが、どう連携しているのか?
Googleリサーチ:
各地域の拠点はそれぞれの市場に特化した翻訳やローカリゼーションをしてることもあれば、新規サービスを共同開発していることもある。
サリバン:
検索に関して言うと、これまでに色々なトレンドがあったが、今何かトレンドはあるのか?
Googleリサーチ:
何とも言えないが、モバイル分野にもっと力を入れていくのは間違いないだろう。ちなみに多くの人が未だにページランクに幻想を抱いているようだが、あくまで全体の一部に過ぎない。
シャーマン:
リアルタイム検索とウェブ検索の融合は非常に難しい分野と思うが、どう思うか?特にリアルタイム検索でどの情報を重要と判断する技術は難しいのでは?
Googleリサーチ:
リアルタイム検索は確かに難しい。ただ日々進化している。例えば少し前までは1時間置きに情報更新していた。ただラリー・ペイジは「1時間と言う概念は止めてくれ。360秒と言う概念に変えてくれ。そしてもっと短くしてくれ。」と言ってきた。我々は常にチャレンジしている。
シャーマン:
カフェインについてはどうなのか?本格稼働すると言われつつも、結局まだのようだが。
Googleリサーチ:
特定のデータセンターでは既にフル稼働している。これから徐々に普及させていく。
サリバン:
検索の順位を決める要素で、リンク以外に何か興味深い要素はないのか?
Googleリサーチ:
例えば書籍をスキャンしてデジタル化する際、書籍の文章コンテンツにリンクは無いが、他の書籍について触れたり、引用したりしていることもある。それを評価して書籍の評価に使うようなアルゴリズムは考えている。
サリバン:
現状、情報の分析はまだまだ文章ベースと思うが、いずれメディア問わずコンセプトベースで情報を整理するような状態になるのか?
Googleリサーチ:
そのレベルまでもっていきたいと思っている。
シャーマン:
個人として人工知能の研究をしていたようだが音声認識や翻訳の技術は昔からあると思うが、画像や映像認識の技術はどうなのか?
Googleリサーチ:
音声や翻訳技術は20年前と比較して革新的な進化があったわけではないが、少しずつ進化している。画像や映像、特に映像に関する認識技術は情報量が多く、非常に難しい分野だ。しかし少しずつ進化していくはずだ。
サリバン:
電子メールで未だに大量にスパムメールが届くがもっと高機能のフィルタリングができないのか?
Googleリサーチ:
日々チャレンジはしている。例えばメールマガジンであれば、より多くの人が読んだメールだけを読めるようなフィルタリングはあるだろう。ただ電子メールが今後も主要なコミュニケーションツールとして永続的に続いていくのかどうかは分からない。我々も例えばGoogle Waveのような新しいツールを提供しながら実験している。
シャーマン:
Google Waveは余り流行っていないようだが?
Googleリサーチ:
現状、色々なサービスを提供し過ぎていると言うのはあるかもしれない。
サリバン:
映像の分野では誰が勝っていると思うか?
Googleリサーチ:
映像検索の分野ではGoogleはリードしていると思っている。
シャーマン:
大学から新入社員で入社した人をどうやってトレーニングするのか?
Googleリサーチ:
専用のトレーニングプログラムがある。そこで経験を得てもらいつつ、実際の仕事に入る準備をしてもらう。
シャーマン:
例えばマイクロソフトは社員があるプロジェクトから全く違うプロジェクトに移動することを意図的にしていることで有名だが、Googleはどうなのか。
Googleリサーチ:
我々も同じことをやっている。例えばあるプロジェクトに三カ月や半年参加した後、他のプロジェクトに移ることは良くある。逆に一年同じプロジェクトにいることは長すぎるかもしれない位だ。全く別の分野のプロジェクトであっても基本的な会社の仕組みは同じなので、移動しやすい環境だろう。
サリバン:
画像や映像の認識技術が進むと検索の仕組みは根本的に変化すると思うか?
Googleリサーチ:
検索結果がテキスト情報の順位別一覧よりは、新聞の見出しのようになるかもしれないね。
—
。。。以上でした。最初にGoogleリサーチがやっている色々な研究を紹介した後は、制限時間ぎりぎりまでひたすらQ&Aと言う内容でした。
何を学んだ、と言う訳ではないのですが、こういう話を聞くとGoogleって、最先端の企業なんだよな、、、と思わざるえないですね。実際は日本の企業にしてもマイクロソフトにしても最先端の研究はやっているんでしょうけど、出てくる人がアロハだったり、話の内容もプロジェクトの移動が短期間で簡単にできるだったり、20%ルールだったり、Googleで働きたくなる理系の学生が増えそうな内容なのは間違いないですね。実際そうなんでしょうけど、ブランディングも意識しているわけではないのでしょうが、自然とできていて流石でした。
16 years ago
モデレーターはダニー・サリバン。スピーカーはGoogleから1人と検索マーケティングの会社から2人。SMXのセッションは1つの時間帯で4つあるのですが、気になったのを選んでいたら全てダニー・サリバンになってしまいました。
彼が元々SEOよりの人&僕もSEO中心にセッションを選んでいることもありますし、僕が今後のトレンドを追う目的でGoogleやマイクロソフト、Yahoo!などメジャー所が参加しているセッションを選んでいる&メジャー検索エンジンの人が出るセッションには大御所のダニー・サリバンが自らモデレートする、と言うのもあるのでしょうか。初日最後のセッションは、原題「The Current State of Social Search」。
—
まずはいきなりGoogleの登場。ウェブ検索製品管理ディレクターのヨハンナ・ライト。
ソーシャル検索について。
ユーザーのソーシャル・サークル(ユーザーが参加しているソーシャルコミュニティの総称)に含まれる関連性の高い情報を検索結果に表示する。結果、ユーザーにより快適な検索体験を提供する。
ソーシャル検索であってもウェブ検索であっても、検索は関連性(relevancy)が全て。
Googleプロフィールの情報を検索結果に融合することで、より最適な検索結果を提供する。ソーシャル・サークルに含まれる友達が発信していた情報に触れる機会。意外とその友達が自分が知りたい情報を発信していたことに気づいていないことが多々ある。そういった予想外の、でも便利で有益な情報に出会う機会を提供する。
情報は文字情報だけではなく写真や画像も含まれる。友達が旅行に言って取った思いがけない写真に出会うことも可能。
ソーシャル検索の基本は、Googleコンタクトの各種情報とGoogleプロフィール、またそれらをソーシャルグラフAPIで拡張した情報。またあくまでパブリックな情報しか対象にしない。
ソーシャル検索のSEOに関して言えば、下記:
・基本的には「良いサイトを作る」ことが全て
・ウェブマスターガイドラインに従う
・ソーシャルグラフAPIを使うことも検討
・ウェブマスターツールでインデックスされているか確認する
ソーシャル検索は、個人によって重みが変わる部分が多く、SEOに直接かかわることは少ない。
—
次にスピーカーはRange Online Mediaのケリー・ディーン。
ソーシャルサーチは検索結果のパーソナライゼーションでもある。
ソーシャルサーチSEOを始めるには、まずGoogleプロフィールに登録すること。次にGoogle Buzzにも参加する。その上でソーシャル検索をすると検索結果が自分の関連している人の情報が表示されてくることに気づく。
ソーシャル検索は大量のトラフィックをもたらすものではないが、確実にやっておきたい作業の1つ。
ネットとプラットフォームの進化でトラフィックを得る機会は増えている。
・ユニバーサル検索
・リアルタイム検索
・ソーシャルメディア
・モバイルウェブ
Googleプロフィール以外にもネット上には様々なプロフィールサービスやソーシャルメディアが存在する。Facebook、Twitter、Yahoo!プロフィール、Flickr、、、可能な限り登録すべき。
リアルタイム検索、ソーシャル検索のアルゴリズムは基本的には既存のウェブ検索と変わらない。基本は:
オーソリティ度 + 信頼性 + 関連性
であることに変わりは無い。
。。。超早口で次から次にネタを披露したのでフォロー仕切れませんでした。。。ただ特別なことは無かったかと。ソーシャルメディアマーケティングの基本を10分で一気に話すような内容でした。
—
最後にDefine Search Strategiesのアダム・シャーク。
Googleプロフィールは現状、個人には良いかもしれないが、企業やブランドにとって使いやすいとは言い難い。個人と企業、ブランドは分けて考える必要があるのでは、と思う。
。。。プレゼン資料も無くかなり雑談的に色々なネタを話したのと、ネタが次から次に飛ぶ人で内容がまとまっていませんでした。途中でメモをギブアップ。しかも上記以外に特にコレ!と言う話は無かったです。元々、Yahoo!の人が参加する予定だったのが急遽キャンセルになってこの人になったようだったので準備不足だったのかな?
—
この後、Q&A。
サリバン:
Googleのソーシャル検索にはGmailで設定されている名前が出てくるか、現状ブランドが既に誰かが勝手にブランド名でGmailに登録していたりして、使えない場合が多い。しかも誰かが一回登録した後、今は使っていないアカウントでも現状のGoogleでは引き継げない仕組みになっている。ソーシャル検索でのブランドの露出方法に関しては、今後色々考えるべき要素が多いだろう。
元々Googleプロフィールは個人用に作られたサービスだとは思うが、ソーシャル検索に活用している以上、企業やブランドがどう活用できるかと言うことは考えていかないといけないだろう。
Google:
ソーシャル検索は、まだまだ試行錯誤の途中。ブランドや企業のニーズも理解している。どのような形で個人を中心とするソーシャル検索にブランドや企業の情報を織り込んでいくかは今後の課題。
会場:
ソーシャルブックマークやソーシャルニュースの評価やリンクはどの程度、現状、影響を与えているのか?
Google:
Googleはできるだけ多くの情報を元により最適な検索結果を提供したいと思っている。もちろんサービス側が情報を提供してくれるか、と言う課題があるが。ただここでどれ位影響があるか、と言うことは具体的に言えない。
会場:
Google Buzz経由のトラフィックは実際どれ位あるのか?
Google以外の2人:
現状はほとんど無いのでは?
—
。。。以上です。初日最後のセッションで睡魔と闘っていたこともあり、ちょっとメモのペースが大幅にダウンしてしまいました m(_ _)m ただ今日の前半のリアルタイム検索やソーシャル検索の話とかなりかぶっていた部分もあり、あえて出る必要も無かったのかな?と言う気もします。内容も正直言って中途半端な感じで今日一番イマイチなセッションでしたね。他のセッションに出れば良かったかもです。ま、初日最後で時差ボケの限界でしたから、良しとしますか。しかしGoogleもBuzzに関しては成功するかどうか全く未知数と言う感じでしたね。Q&Aの途中でGoogleの人が会場にGoogleプロフィールを開設しているか尋ねた時も半分弱の挙手でしたし。ソーシャルに関してはGoogleは苦戦しているようですね。
と言うことで初日のセッションは全て終了です。今日はリアルタイム検索、ソーシャル検索、パーソナライズド検索、Twitter、Bingなどなど最新の話題が豊富でした。明日以降はもう少しSEOよりのセッションも増えてくるかと思いますので、実用的な情報も提供できればとは思います。しかし今思うと、今日の最初のキーノートのスティーブ・バルマーの声の大きさは断トツでしたね。やっぱり迫力あるなぁ。。。ただ何で出たのかな?と言う印象はありますが。やる気はある所を見せたかったのでしょうか。
そんな所でまた明日よろしくお願いします。
16 years ago
初日午後2つ目のセッションは「Google’s Personalized Search Revolution」。Googleがパーソナライズド検索について語ります。他にも気になるセッションはあったのですが、何年も前から言われているパーソナライズド検索の最先端の話を聞きたくて参加してみました。
モデレーターは前回と同じダニー・サリバン。Googleからはパーソナライズドサーチ部門のエンジニア、ブライアン・ホーリングが参加。
まずはサリバンが一言。
「昨年末からパーソナライズド検索はまさに【革命的】に変わった。ログインしなくても勝手に検索結果がパーソナライズされるようになった。」
。。。いや、僕もこれ最初は驚いたんですけどね。。。先日もGoogleでSEOで検索してSEO Japanは2位だから喜んでたら、勝手パーソナライズドのせいと気付いてガックリ 汗
と言うことで、ブライアンのプレゼンテーション。
—
Googleで「SMX」で検索した時に何を表示すべきか?
イギリスにはSMXと言うバイクのクラブがある。カリフォルニアのサンタマリア市にはSMXと言う空港がある。ホンダのミニバンでS-MXと言うのもある。映画のスクリーン技術にSMXもある。人によってそれぞれ求めている結果が違う。
多くの検索キーワードはその意図がキーワードだけでは不明。
パーソナライゼーションは検索結果に存在する
・地理
・趣味嗜好
・パターン
・ソーシャル
等の差異を改善する。
パーソナライゼーションは、
・透明・意識せず機能する
・コントロールできる
ことが理想。
例えばGoogleでは国レベルのパーソナライゼーションがある。同じ英語圏だが例えば「tax」(税金)で検索した時にアメリカとイギリスでは提供する結果が違うべき。
地理で言えば都市レベルでも調整できる。「bus schedule」(バスのスケジュール)で検索された時、それぞれの都市のスケジュールを最初に表示する。しかし余りに地域にこだわると一般的な検索ニーズにこたえられないので大手のバス会社の結果も含めたりする。
検索のディテールでパーソナライズも可能。例えば「hardware store」(ハードウェアの店)で検索された時、何を表示すべきか?Gogleでは検索履歴をベースに最適な結果を出すオプションも用意している。Google Mapsではデフォルトの地域を指定できる。検索結果に出てくる地図も設定できる。地域はIPで判断している。
最近リリースした検索ツールのオプションでは英語圏の場合、地域でも絞り込めるようにしている(日本語はまだ)。
ユーザーがログインした状態で検索していれば、そのウェブの検索履歴を記録して、そこから最適と思われる検索結果を表示するパーソナライズド検索も提供している。当然、検索履歴は削除したり中断することもできる。
またサリバンが言ったように、現在はログインしなくともある程度パーソナライズ検索を行うようにしている。検索履歴はCookieで記録し、過去180日のデータを元にしている。またこの機能自体は検索ページの右上のウェブ履歴のリンクから無効・有効の設定はいつでもできる。
。。。デフォルトで有効ですよね。大半の人はそのまま使うだろうな。。。確かにこれは大きな変更ですよね。
—
。。。まずは一気にパーソナライズド検索のパターンを説明してきました。特に目新しことは無いのですが、今後どんな展開になりますか。
—
次にソーシャルサーチのパーソナライゼーションについて説明したい。
ソーシャルウェブにおいて各ユーザーは自分のネットワーク( Social Cicle 、ソーシャル・サークルと説明)を持っている。そのネットワークの中のコンテンツを優先的に扱うなど、より関連度の高い検索結果を提供するニーズは確実にある。自分が関係しているソーシャルネットワーク上のユーザーの発言やコンテンツは優先的に表示する。
ソーシャル・サークルの範囲は下記のデータが元になる:
・Googleのコンタクトリスト
・Googleのプロフィール
・ソーシャルグラフAPIでコンタクトの範囲は拡大される
・Googleリーダーの購読者もケースバイケースで対象とする
プライバシーの問題も当然あるため、基本的にパブリックなコンテンツしか検索結果には表示しない。
—
パーソナライズド検索はどれ位、通常のウェブ検索に変化をもたらしているか?
・全てのユーザーの検索結果に影響を与える、ただしそれぞれ違った形で
・5回の検索に1回、パーソナライゼーションの要素が含まれている
・パーソナライズドされた検索結果であっても、全ての結果を変えることはない、あっても1ページで2-3、変え過ぎても混乱が起こる
—
パーソナライズ検索でSEOはどう変わる?
・単にキーワードで上位表示できれば良いと言うだけではない、、、ユーザーの検索意図にあった形で上位表示されることが重要。
・特定のキーワードで世界中のサイトと競合になる回数が減り、同じ地域のサービスサイトと順位を競う回数が増える。例えばタクシーで検索された場合、同じ地域のタクシー会社が競合になる。
—
パーソナライズドサーチに効果的なSEO対策は?
・まずは説得力のある、魅力的なコンテンツ
・検索エンジンでなく、ユーザーにアピールすべき
。。。一般論すぎ 汗。
—
簡単なティップスだが、検索URLの最後に &pws=0 と言うパラメータをつければパーソナライゼーションは解除される。
—
。。。以上でした。続いてQ&A。
サリバン:
FirefoxとGoogle Chromeで検索結果が違うことがあるらしい。ブラウザーでパーソナライゼーションをしているか?
Google:
全くしていない。他の要素が影響した結果だろう。
サリバン:
じゃあFirefoxのシェアを奪うために何かやっているわけではないんだね 笑
Google:
しかしプラットフォームのパーソナライゼーションはありうる。例えばMacで検索しているユーザーにはMacの情報を優先的に見せることは有効だろう。
サリバン:
検索広告が検索履歴に基づいて出るんだっけ?出た気がするが?
Google:
僕は部門が違うから分からない。
サリバン:
(会場にインタビュー)
パーソナライズド検索は、問題があると思う人はどれ位いる?
Google:
(会場が挙手する前に割り込み)
パーソナライズド検索はユーザーの検索体験をより便利にするために行っていることは理解してほしい。
サリバン:
パーソナライズ検索の結果毎に検索順位を教えてくれるような機能がウェブマスターツールに用意されれば便利なんだけど。
Google:
確かにそうだね。検討します。
サリバン:
パーソナライゼーションはドメインレベルで行われるのか?例えば一度ユーザーが見たサイトのドメインを記憶して、そのドメインの結果を優先的に出すなど。
Google:
実験していたこともあるが、現状はまだ試行錯誤中。
サリバン:
パーソナライゼーションはオプトアウトのオプションを常に持つべきと思うか?
Google:
当然そう思う。
サリバン:
Googleのパーソナライズド検索でオプトアウトした人の比率は分かる?
Google:
正確な数字を今答えられない。具体的な数字は基本的に答えられない 笑
サリバン:
Googleが定義する「良いユーザー体験」とは何か?
Google:
個人的な意見だが、ソファーに座って快適な気分で時間を過ごすような気持でいられることじゃないか。
サリバン:
Cookieが利用できない場合、パーソナライゼーションはIPに頼るしかないのか?
Google:
基本的にはそうなる。その場合は地理ベースのパーソナライゼーションが中心となるだろう。
サリバン:
アダルト関連の検索やサイト閲覧は自動的に記録しないようなオプションを開発できないのか?
Google:
なるほど。要望リストに入れておきます 笑
サリバン:
リアルタイム検索にパーソナライゼーションの要素は含まれていくのか?
Google:
僕の口からは何とも言えない。
会場:
ログイン無しのパーソナライゼーションで、SEOのクライアントが上位表示したいキーワードで自分のサイトが上に表示されて、ぬか喜びしていることがあるが。。。
サリバン:
SEO会社には良いんじゃないか 笑
—
。。。以上です。最後にやっぱりその話題出ましたか。Googleの人が真面目なエンジニアだったので、いまいち盛り上がりに欠けた感じでしたが(答えられない、ばかりでしたし。ま、これは誰であっても、かもですが)、Googleのパーソナライズド検索の現状は理解できました。技術的に特に新しい発見は無かったのですが、元々それ程期待もしてませんでした。と言うか、現状これ以上は技術的にも難しいと思いますし、必要性も無い気が。
逆に今後Googleがどの位、どの分野のパーソナライゼーションに力を入れていくか、と言う話をもう少し聞きたかったですけどね。ただ結構SEOの話をしてくれたので、それは参考になりましたが。しかしアダルト検索の排除機能はパーソナライゼーションの普及には意外と重要な気も。
サリバンも頑張って次から次に質問をしてくれましたし、何となくの知識が今回のセッションを通じて明確になった部分も多く良かったですかね。ちなみに質問は他のセッションもそうですが、サリバンが全て考えた訳ではなく事前にTwitterやSNS経由で質問を受けていたようですね。こういう手法は有効かもです。
16 years ago
昼の最初のセッションは午前に続いてリアルタイム検索の話題から。時差ボケでかなり眠くなりつつありますが(日本は早朝6:15)頑張ります。。。原題は「Real Time Search: Beyond The Majors」。
モデレーターは同じくダニー・サリバン。Q&AモデレーターにNine By Blueのトッド・ネメット。スピーカーはCollectaのゲリー・キャンベル、SEO Japanでも利用中のTopsyのリシャブ・アイエル・ゴッシュ、CrowdEyeのケン・モス、OneRiotのトビアス・ペグス。OneRiot以外は、確かTwitterが昨日過去のつぶやきデータへのアクセスを開放したベンチャーですよね。さてどんな話になるやら。
—
まずはOneRiotのトビアス・ペグス。初耳の会社です。
リアルタイム検索&最初にリアルタイム検索広告に取り組んだそうで。
メジャー検索エンジンのウェブ検索でも20%-40%の検索はリアルタイム性が求められている検索と言うデータがある。
OneRiotはリアルタイムの検索エンジン。ニュース、画像、映像、Twitterのつぶやきなど最新の情報を表示することに特化している。Twitterの検索とは全く違う。Twitter検索ではひたすらtweetが結果に出てくるが、OneRiotでは無駄なつぶやきを排除するアルゴリズムを導入している。リアルタイム検索のページランク的なアルゴリズムとして、
PulseRank / パルスランク
と言う概念を導入している。より重要なつぶやきを優先表示する。
OneRiotは無名だが、それも当然。97%の検索はAPIを通じてパートナーサイトで行われている。携帯電話やiPhoneの検索や、PCのメタ検索エンジンに追加検索情報と言う形でデータを提供している。またイギリスのガーディアン紙のサイトにコンテンツと言う形でデータ提供もしている。
リリースから1年で既にかなりの検索数を毎月得るにいたっているが、今後はマネタイズが鍵となる。
ポイントはいかにユーザーの検索意図に合っている広告を表示できるか? 適切な広告を表示できれば、それはユーザーにとっても役立つ情報となる。
例えば「Sea World」(どこかの水族館?)でシャチにトレーナーが殺される事件があった時、リアルタイム検索では時間軸の中で検索数が変わっていく。一時的に検索数が増大する。我々のシステムは広告主のコンテンツを自動的にクローリングし、関連すると思われるページからテキスト広告を自動的に生成する技術を持っている。
。。。面白いですね。コンテンツサイトの広告には良いのでしょうが。。。ECサイトに使えるのかな?上の例で言うとAmazonから何の商品ページを表示すればよいのやら。シャチの図鑑、シャチのビデオ、、ですか?
—
CrowdEyeのケン・モス。同じくリアルタイム検索エンジン。設立から1年半。
とにかくTwitterが熱い。マイケル・ジャクソンが亡くなった時、1時間で30万回のつぶやきがあった。ソーシャルコミュニケーションは人間のコミュニケーションの新しい形だ。
しかしTwitter検索は現状、かなり混沌としているのも事実。従来の検索エンジンでは対応できない。
例えばiPhoneのTwittter検索。大量のつぶやきが次から次に表示される。何が、誰が重要か分からない。無駄な時間だけ過ぎてしまう。
CrowdEyeでは、検索キーワードに対して最も適切なつぶやきを見つけるアルゴリズムを持っている。フォロワー数やリツイート数など様々な要素を考慮している。
Twitterのつぶやきがポジティブかネガティブかを判断するアルゴリズムも導入している。
またつぶやきのリンクも追っていき重要なニュースソースへのリンクを提供したり、タグクラウドを作ったりもしている。
最後に、TwitterのFirehoseプログラムに選ばれたので今後もっと色々な機能を導入していく予定!APIへのアクセス回数の制限が無くなったので、サイト上でTwitter検索が自由にできる。
自分がフォローしているユーザーをベースに、パーソナライズされた検索結果を提供できることもやっていきたい。
。。。とにかく色々やっている感じでしたね。
—
次にTopsyのリシャブ・アイエル・ゴッシュ。
まずは懐かしいアルタビスタの話から。
アルタビスタはウェブの情報をインデックシングすると言う革命的なことを行った。
Googleがその情報をネットワークとして理解し、解析することを行った。その結果、情報の質を判断し、より使いやすい検索結果が提供できるようになった。
ウェブページの質とは言え、コンテンツ自体は元々人によって作られている。コンテンツを産みだす人に注目する。この考え方をリアルタイム検索に当てはめた。
ソーシャルウェブのコンテンツの特徴は全ての情報にタイムスタンプ、時間の情報があること。
Topsyはリアルタイム検索エンジンでは無いが、その情報を整理して見やすい形で表示するサービス。時間軸やリツイート数で情報の重要性を決めている。
特に便利なのが写真。例えば最新の自動車ショーの写真を見たい時にはGoogleの画像検索より適切な結果を返す。画像もTwitterのリツイート数をベースに関連性が高いものから優先表示させているから可能。
。。。技術的にどこまで凄いのか不明ですが、良くまとまったサービスですよね。SEO Japanも活用させてもらってます(この記事の最初にあるtweetボタンをクリックしてみてください)。記事がどの程度Twitter上で取り上げられたかを見るには現状一番便利な気がします。
—
最後に、Collectaのゲリー・キャンベル。
Twitterの普及で、情報の流通がより民主化された。誰でも情報をリアルタイムで発信でき、皆で共有できる。
大量のリアルタイムコンテンツが存在し、その中で共有されるリンクがある。もちろんTwitterだけでなく、Facebookもある。他のSNSもあれば、画像や映像など様々なコンテンツもある。
Collectaのリアルタイム検索は従来のウェブ検索と違う。クロール&インデックス型の検索ではなく、プッシュされる情報にフィルターをかけて、リアルタイムな情報をストリーミング表示する。このアプローチを取っているのは我々だけではないか?
リアルタイム検索には大きなマネタイズの可能性がある。検索の15%は情報検索だけでなくトランザクション目的の検索。リアルタイム検索にも大きな可能性があるはず。
アルタビスタが第一世代の検索とすれば、Googleは第二世代。そしてリアルタイム検索が大さん世代だ。
最後に Collecta のデモをしてくれました。ベータ版が見られますが確かに中々面白いですね。ウィジェットも配布しているそうですが、短期間で大量に利用されているようです。MySpace検索のデモも見せてくれましたが、MySpaceはTwitter以上に見られていることを意識していない感情的な発言が多い、とのことでした。
。。。アプローチ自体は見ていても一番面白かったですね。最終的にどうサービスとして成り立つのかは、まだ何とも言えませんけど。
—
次にQ&A。
サリバン:
君たちの未来は何?買収されることかな?
Collectca:
大企業と僕らはアプローチが違う。リアルタイム検索を活用しているユーザーはまだ一部。僕らは最先端の分野でイノベーションを起こそうとしているが、大企業はより多くのユーザーにアピールするサービスを最優先している。
CrowdEye:
僕は長年マイクロソフトで働いていたが少人数で働くベンチャーの環境は大企業と全く違う。成功できるかは分からないが、エキサイティングだ。
OneRiot:
ガーディアン紙に提供しているリアルタイムコンテンツは、Yahoo!やGoogleが提供していない革新的な内容だったと思う。もちろん僕らの基本は検索エンジンではある。ガーディアン紙との提携を通して多くの検索クエリーを得る機会を得た。このデータを生かしてもっとサービス改善していきたい。
Topsy:
リアルタイム検索が普及するに連れ、リアルタイム検索が現状のウェブ検索で対応仕切れない状況がより明らかになる。朝のセッションで、メジャー検索エンジンの連中が既存のウェブ検索にリアルタイム検索を融合していく話をしていたが、実際問題、中々効果的な結論は出していけないだろう。何かを変えるということは現状のマネタイズの仕組みを崩すことでもある。僕らのようなリアルタイム検索に特化した会社はその辺に勝機があると思う。
サリバン:
画像のリアルタイム検索は、確かに今朝も余り話題にならなかった。Topsyの話を聞いて確かにニーズがあると思う。画像のリアルタイム検索は例えばメディアにライセンス提供することもできるかもしれない。例えば最新の竜巻の写真などは需要があるだろう。
CrowdEye:
リアルタイム検索の結果は色々なことに二次利用できると思うし、マネタイズの可能性は色々あると思う。
OneRiot:
色々あるが、ベンチャーとしては何かに特化することが成功するには大事だと思っている。僕らはTwitter以外のリアルタイムコンテンツを検索対象としているが、これを外部にAPI提供することでマネタイズする機会を作っていきたい。
Collecta:
従来の検索サービスでは、ジャンルを特化したバーティカル検索エンジンと言うものがあったが、リアルタイム検索でもその考えはあると思うが、よりセマンティックな分析を行うことで多様性のある情報を提供したい。
サリバン:
リアルタイムの検索結果に広告を表示する場合の問題がある。例えばToyota(また・・・汗)関連の検索で、それまでポジティブな話題が中心だったのに急にネガティブな話題に変わった場合があるとする。このようなポジティブだった話題がネガティブな話題に変わった時、それまで掲載していた広告主は掲載を取り止めたい場合もあるだろう。どう対応するのか?
Collecta:
トランザクション目的の検索がされた際に、広告を出す、と言うアルゴリズムを強化することが重要。大被害が起きた際に広告が表示されるようなことは避けられる。
サリバン:
ウェブマーケッターに何か一言ある?
OneRiot:
従来のウェブ検索では良いコンテンツを作ってリンクを増やせばそこそこ上位に表示できるだろう。リアルタイム検索ではそうはいかない。ランキングアルゴリズムが全く違う。リアルタイム検索に参加するには、積極的に情報を発信し、発信者の質自体を高める、高く評価される必要がある。
CrowdEye:
参加することには100%賛成だが、つぶやきの内容を無視してTwitterのフォロワー数だけにこだわる人が多いが、重要なのはあくまでつぶやく内容。
Topsy:
リアルタイムコンテンツの口コミ効果は上手くいった場合、非常に高い。ウェブ検索でも同じことが言えると思うが、逆に同じアプローチがリアルタイム検索でも使える。質の良いコンテンツを発信することが大事。
Colectta:
広告主自身もリアルタイム検索の広告は、ユーザーの検索意図を良く考えた上で掲載していく必要がある。またリアルタイムウェブの世界では会話を積極的に行っていくことが重要。結果、それがリアルタイム検索のSEOにもつながる。
—
。。。以上です。リアルタイム検索で注目を集めているベンチャーが勢揃いした、と言う感じですね。それぞれ特徴や考え方があって面白かったです。
Q&Aは答えになっていない回答が多かった気もしますが、皆、未来について色々考えていて熱く語っていましたし(先ほどのメジャー検索エンジンのリアルタイム検索より熱かった!)やる気はもちろん、示唆に富んだ意見も幾つかありました。この分野に真剣に取り組んでいる日本のベンチャーって余り無いような。日本からも何か出てくると良いですね。
16 years ago
初日午前のセッションは、旬なリアルタイム検索の話題から。最初のセッションは原題「Real Time Search & The Major Search Engines」。3大検索エンジン勢揃いです。
モデレーターはSearch Engine Landのダニー・サリバン。Q&Aモデレーターは同じくSearch Engine Landのマット・マッギー。スピーカーはGoogleのサーチプロダクトマネージャーのディラン・カセイ、Yahoo!のサーチプロダクトマネージャーのイワン・ダビチェフ、マイクロソフトのサーチテクノロジーセンターマネージャーのシーン・サッター。
まずは各検索エンジンの人がプレゼンを。
最初はマイクロソフトのサーチテクノロジーセンターマネージャーのシーン・サッター。アルファベット順で他意は無いそうです 笑
—
リアルタイム検索の重要性は?
地震が起きた時に最新情報を知りたい、最新のスポーツの試合結果が知りたい、、、リアルタイムの検索のニーズは元々あった。
そこにTwitterやソーシャルメディアの登場・普及により、大量のリアルタイム性を持ったコンテンツが生成される時代になっている。
例えば先日シリコンバレーエリアで地震があった。普通に検索してもB/G/Yどれでも出てこない。しかしソーシャルネットワークで瞬時に話題になった。Twitterでもつぶやかれた。現状はソーシャルメディアやTwitterから直接検索しないといけない。
現在、ネットには様々なメディアがあり情報が産み出されている。主要な所では:
電子メール
Facebook(SNS)
Q&A
Twitter
ウェブ
がある。上に行く程、プライベート、下に行く程公共性がある。
リアルタイム検索で最適な情報が何かを判断する技術は、Googleが広めたリンクポピュラリティのアイデアだけでは足りない。
情報の関連性、リンク関係を見ていくと、自然なリンクは非常に複雑。スパム的なリンクはリンクの種類や関係は非常に単純。
検索結果でリアルタイム検索の結果をどのように表示させるかは試行錯誤している所。通常の検索結果にTwitterのつぶやきやリンクが共有されたウェブページ+つぶやき等、ミックスして表示する実験をしている。
—
次にYahoo!のサーチプロダクトマネージャーのイワン・ダビチェフ。
Yahoo! NewsにTwitterのつぶやきを表示したり、検索結果に直接Twitterを表示する実験をしている。リアルタイム検索の課題は下記:
1. 素早いインデックス
2. 検索キーワードの意図を分析(新しい情報を出すことが良い場合は少数)
3. ランキングアルゴリズム
検索キーワードが、リアルタイム検索に適したキーワードがどうか、どのように判断するかが重要。
Yahoo!ではタイムセンスという概念を持っている。まだパブリックじゃない情報だ。簡単に言うと言語モデルをベースにしている。
言語 = 言葉の集合体
言語モデル = コンピューターにボキャブラリーを説明する方法
特定の検索キーワードがリアルタイム検索に適しているかどうかを判断する際、そのキーワードの登場比率が以前と比べどうだったかと言うことを言語モデルに落として判断する。
。。。アルゴリズム的には分かる気もするけど何故に言語モデルなのか良く分かりませんでしたぁ。。。涙 でも会場の人も大半分かってなかったような(と、期待)。
今後の課題は下記:
・リアルタイム検索、ランキングとインデックスのリアルタイム性を高める
・ニュース以外にもリアルタイム検索を積極的に導入していく
最後に注意として
・複数のバズワード、流行語を含んだ投稿
・ハッシュタグの使いすぎている投稿
はしない方が良い。スパムと自動判断して検索対象から排除される。
—
最後にGoogleのサーチプロダクトマネージャーのディラン・カセイ。
SNSやTwitterの普及でリアルタイムの情報が大量にウェブ上で溢れるようになった。元々リアルタイム検索のニーズは存在していた。
リアルタイム検索は昨年12月にリリースした。現状、マイスペース、Facebook、Google Buzzまで対象にできている。英語以外にロシア語と日本語に対応している。リアルタイム検索で検索されたキーワードに関する情報は、同様にリアルタイムでウェブ上でコンテンツが生成されている。
現在、例えば検索結果の最下部でTwitterのつぶやきをリアルタイム表示している(例で「Toyota Sales」と言うキーワードでデモしてました・・・)。リアルタイム検索の専用ページではTwitter以外にも他のSNSも表示している。またニュースも表示している。
。。。会場の誰かが早速Toyota Salesで検索して最初に表示されているのに笑いました。
リアルタイム検索のアルゴリズムには様々なウェブ検索の技術を応用している。
難しい部分は、検索キーワードが検索結果でリアルタイム性を求められているキーワードであるかどうか、と言う判断。
現在、全てのSNSやリアルタイム性がある情報を発信しているサービスが、リアルタイム検索の結果に表示されるような共通フォーマットを考えている。
リアルタイム検索で取り上げられるには、書く内容は情熱を持って沢山書くこと。SEOも重要だが、基本は守りつつ、やりすぎないこと。
—
三者三様ではありますが、取り組んでいることは課題も含めてどこも同じですかね。
—-
次にダニー・サリバンが質問。
サリバン:
リアルタイム検索でどうマネタイズするのか?リアルタイム検索に広告を差し込むのは難しくないか?Googleも今は広告を出していない。
Google:
僕らは検索に100%フォーカスしている。リアルタイム検索に多くのマネタイズのチャンスは確実にあると思っている。
マイクロソフト:
広告を出す時はセンシティブな要素がリアルタイム検索は色々ある。例えば人が死んだ時。マイケル・ジャクソンが検索された時、広告を出して良いのか、など。
Yahoo!:
ローカル検索とからめるとマネタイズの機会はあるのでは?
。。。確かにこれはサービス提供者の課題ですね。ローカル検索とからめるのが自然な気がします。マイケル・ジャクソンが亡くなった話題を検索している時にマイケルのDVD一覧が表示されてもね。。。買うかもですが 汗
サリバン:
リアルタイムのコンテンツをクローリングする課題は?
Google:
確かに通常のクローリングではTwitterは上手くクローリングできない。リアルタイム検索でもTwitterとSNS、ニュースでは微妙に違う。どのように意味を判断し、最適な形でユーザーに表示できるかが課題。
マイクロソフト:
コンテンツと検索のエコシステムは、リアルタイムコンテンツの増加でバランスが崩れてきているが、皆が満足できるエコシステムを作ることが大事。
Yahoo!:
品質の高いコンテンツにライセンス料を支払って検索対象にすることもあるだろう。
サリバン:
リアルタイム検索は実際に利用されているのか?
マイクロソフト:
使われている。今後もっと使われていくだろう。何故ならユーザーがリアルタイム性のコンテンツを大量に産みだしており、その量も増えていくだろうから。
サリバン:
リアルタイム検索と通常のウェブ検索は統合されるのか?
マイクロソフト:
最終的にはそうなる。
サリバン:
Facebookは?(マイクロソフトがFacebookを買収するか?と言うことを示唆して)
マイクロソフト:
それはノーコメント 笑
サリバン:
Yahoo!ではリアルタイム検索は使われているのか?
Yahoo!:
まだまだ発展途中だが、利用はされている。今後もっと機能を充実させていく。
サリバン:
Googleはどうか?検索結果の一部でTwitterのつぶやきがリアルタイムでスクロール表示されるのは目につくのは確かだが。
Google:
実際に使われている。やはりどのキーワードで検索された際にTwitterの結果を表示すべきかと言うことが、つまりユーザーニーズにマッチングした結果を提供できるか重要。
サリバン:
リアルタイム検索で情報の新規制と信頼性はどちらが重要なのか?
Google:
2つのコンビネーションと言うしかない。まだ完全な答えは出ていない。現状でも様々な検索オプションを提供している。
マイクロソフト:
信頼性自信もリアルタイム検索ではリアルタイムで変わる。例えばリンクを受けている情報源はその時その時リアルタイムで変わる。
サリバン:
例えばtoyotaで検索すると現状はネガティブな話題ばかり出る。未来のSEOはネガティブSEO対策でトヨタ自身が永遠にTwitterでポジティブな話題をつぶやかないといけなくなるのか?
マイクロソフト:
1つの情報発信源が、検索結果を独占することはリアルタイム検索でもできない。
Yahoo!:
ウェブ検索で使われるオーソリティ評価のアルゴリズムはリアルタイム検索にも適用される。スパム的な利用は難しくなる。
サリバン:
1つのつぶやきの寿命はどれ位なのか?つぶやきによっては評価が高くしばらく結果に出てきそうだが。
Google:
リアルタイム検索の結果表示の仕方にもよるが、評価の高いつぶやきはより多くのケースが表示されることにはなるだろう。ただその期間がどれ位続くのか、と言うのは現状最適な答えは無い。同時に、例えば大地震が起きて1,000のつぶやきがされた時、全てのつぶやきを表示していては意味の無い検索結果になりかねない。重要な情報やつぶやきが見過ごされる可能性もある。非常に難しい課題にチャレンジしている。
サリバン:
もしもYahoo!のスパムフィルターにTwitterアカウントがひっかかったらどうなるのか?元に戻せるのか。
Yahoo!:
現状、明確な答えは無いが、もしもそうなったら僕に直接言ってくれ 笑 ただアカウント自体がスパムかどうか、と言うこと以上に、その時点でスパム的な行為を行っているかどうかがより重要。
Google:
同感。リアルタイム検索ではその時点でスパムに対する対応をしていく必要がある。
サリバン:
リアルタイム検索はローカルサーチとどう融合されるのか?
Yahoo!:
僕らは既にチャレンジしている。どのようにリアルタイムコンテンツのローカル性を判断するか、と言う課題はあるが。アカウントそのもののローカル性、またはつぶやきそのもののローカル性等、判断基準は色々ある。いずれにしても取り組んでいきたい分野だ。
サリバン:
文字情報以外にも映像や写真、、大量のリアルタイム性がある情報があるが、どのように統合していくのか?
Google:
現状はリアルタイム検索は第一段階に過ぎない。例えばMySpaceにはリアルタイム性も高い大量のメディアや音楽に関する面白いコンテンツがある。数年後にはリアルタイム検索のプラットフォームは今とは相当変わって進化していると思う。
—
。。。以上です。
。。。最後に少し会場とのQ&Aがありましたが、一番リアルタイム検索で欲しい機能は?と言う質問があった時に「リアルタイム検索からオプトアウト(検索対象から外す)の機能がほしい」と言う意見が多かったのが印象的と言うかナルホド、と言う感じでした。
後はダニー・サリバンが全ての話題を「toyota」を事例にしていたのが日本人としては辛かったです。。。とは言え大企業が危機的状況になった際にリアルタイムの検索結果がこうなる、、、と言う実例を見るには確かに参考になりますけどね。ウェブ検索以上にネガティブ対策が必要になる、、、と言うかそもそもできそうもない気もしますが。ある程度影響力があることをしようとすると全てスパム的になりそうな。
後、3社の中でGoogleの人が一番話していましたね。次にマイクロソフト、最後にYahoo!と言う感じでした。この辺り、何か各社の状況を表しているようでどこか悲しかったですね 笑
16 years ago
さてさて、始まりましたSMX(Search Marketing Expo)。先々週ロンドンで行われたSESに参加したばかりですが、興奮、と言うか時差ボケ冷めやらぬうちにアメリカ西海岸はシリコンバレーで行われるSMX Westに参加です。GoogleやYahoo!の本社もあるネット企業の総本山で行われるSMX、今年最初のSEM関連の最大イベントと思われますから参加しないわけにはいきませんでした。
初日のキーノートはなんとマイクロソフトのCEO、スティーブ・バルマーが登場。検索関連のイベントに登場するのは初めてじゃないでしょうか。Yahoo!との検索エンジンのパートナーシップもアメリカ、ヨーロッパで法的に認められたばかりで、いよいよGoogleとの全面戦争?!前夜を予感されるまさに旬な時期に登場。時差ボケによる睡眠不足でテンション低めですが、気合いで早速レポートしていきます。
サリバン:
まずはマイクロソフトとYahoo!の検索パートナーシップについて教えてくれる?
バルマー:
マイクロソフトとYahoo!の検索ボリュームが統合することで、スケールのあるデータを解析できる。検索結果の質をより高めていくことができる。これはユーザーに対してもよりメリットのある検索体験を提供できると考えている。
サリバン:
検索の世界に大きな変化は起こるか?全てを変える「ゲームチェンジャー」は現れるか?
バルマー:
ゲームチェンジャーが何かを探している所だ。
サリバン:
Bingは米国でNo.1になれるか?
バルマー:
それについて正しい答えはない 笑 Yesと言っても何か言われるし、Noと言っても何か言われる。。しかしここではYesと言っておこう(拍手)。しかし我々がやらなければいけないことは大量にある。競争は簡単ではない。
サリバン:
No.2のポジションでも満足できるか?
バルマー:
明日No.2からNo.1になれるわけではない。長期的なゴールでNo.1になりたいと思っている。
サリバン:
Yahoo!は検索サービスにおいてプレイヤーとして意味を持って残っていけるのか?
バルマー:
我々の検索エンジンがそれを助けるだろう。検索シェアを徐々に上げていくことを期待している。
サリバン:
でもマイクロソフトを同じことをやろうとしているんじゃないのか?
バルマー:
BingがNo.1になればそれでいい。
サリバン:
Googleに関して法的に問題があるサービスが色々あり問題になっているがそれについてどう思うか?
バルマー:
マイクロソフトが考えることではなく、最終的に法によって決められていくことだ。
我々としては極端な話、ユーザーや広告主にプラスになるのであれば様々なデータをGoogleと共有しても良いと思っている位だが、Googleはそれはやらないだろう。ただデジタル書籍にしてもGoogleがその圧倒的なポジションを利用してマーケットを独占することに関しては懸念している。
。。。。それって自分たちのことでは。。。汗
サリバン:
過去数年でBingの提携パートナーを多数獲得してきたと思うが、iPhoneについてはどう思うか?
バルマー:
Bingも対応させたいと思っている。とにかくBingのパートナーをたくさん増やすことが大事だと思っている。
サリバン:
Bingの検索数は他のモバイルプラットフォームより既にiPhoneが最大と聞いているがそうなのか?
バルマー:
商用的なキーワードに関して言うとそうだ。iPhoneは携帯電話など他のモバイルとは違う使われ方をしている部分はあると思う。
サリバン:
モバイルのサーチについてはどういう印象を持っているか?
バルマー:
利用率は毎年増えていくだろう。PCを超えるまで成長するかは分からないが。モバイル特有の検索ニーズはあると思うし、特有の検索行動はもっと増えていくだろう。
サリバン:
Googleとマイクロソフトで検索に対して会社としての姿勢の違いがあるか?カルチャーに違いがあると良く言われるが。
バルマー:
僕はGoogleで働いていないので分からない。Googleのカルチャーについて良くポジティブに取り上げられるが、マイクロソフトも負けないくらい優秀なスタッフがおりイノベーションを起こしている。
サリバン:
マイクロソフトは検索で利益を産んでいくことができるのか?
バルマー:
何年かかるか分からないが、そうなるよう努力している。5年~10年後にもしかするとマイクロソフトがNo.1になっているかもしれない。でも検索エンジン自体が5年~10年後にどういうビジネスになっているかは誰も予測できない。とにかく取り組んでいくだけだ。
サリバン:
検索のビジネスモデルについてはどう思うか?
バルマー:
広告主、特にオークション型広告にサポートされたビジネスと言うのは非常に面白い。広告主間で競争を産む極めてダイナミックなモデルであり、素晴らしい。
サリバン:
検索ビジネスにどれ位力を入れていきたいのか?
バルマー:
7-8の主要ビジネスと、付随する多数の関連ビジネスがある。次のフロンティアとなるビジネスが何になるか常に模索している所だ。検索もそうだし、デジタルテレビも可能性がある。リアルタイム検索も面白い。バスケットボールの結果を知るにはTwitter以上のツールはない。
サリバン:
Twitterと言えば、Twitterを買収する気はないのか?
バルマー:
買収するのが良いのか何とも言えない。我々は既にTwitterと関係を持っているし、何でも買収するのが良いわけではない。独立性を持った会社の方が上手くいくこともある。
ちなみにバスケットボールのつぶやきをするための秘密のアカウントも持っている 笑
サリバン:
検索して最近最も役に立った経験は?」
バルマー:
「キーライムパイ」だね。妻に言われて検索したんだけど。特に今のBingは便利だよ 笑(レシピ検索のこと?)
サリバン:
子供にBingって名前を付ける気がある?
バルマー:
それは微妙だが、、、50年後に子供がBingを使っていることを願うね。
サリバン:
Bingをこれ以上改善していくのに何が必要か?
バルマー:
色々考えているアイデアをもっと統合していきたい。また検索結果についてももっと品質を上げていきたい。特にロングテールのテールの部分はかなり改善されてきていると思うがもっと質を上げていきたい。Bingをサービス提供する国も拡げていきたい。
サリバン:
検索で最大のビジネスチャンスは何だと思うか?
バルマー:
最大のチャンスはユーザーがしたいと思うことに答えてあげる、と言うことだ。例えば僕が国の負債について検索したいと思っても、現状は様々な結果が出てきて本当にほしい負債情報が中々見つからない。ヘルスケアについて調べようと思っても同様。検索結果はまだまだ混乱した情報の塊だ。もっと整理された使いやすい結果を提供していきたい。
まとめると最大の検索ビジネスのチャンスは下記の2点:
1.
ユーザーの検索意図を理解する
2.
整理されていないデータをいかに整理するか
これがどこまでできるかが大きなビジネスチャンスを産むし、まだまだできることは多い。
。。。なるほど。シンプルながら分かりやすい。
。。。キリが良い所で、会場とのQ&A。
会場:
モバイルのWindows 7はかなり高性能だと思うが、それを有料で売るライセンスビジネスに固執するのはどうなのか?Googleのように長期的な視点で例えば無料で提供するなどできないのか?
バルマー:
例えばAppleにしても基本的にライセンス費でかなり収益を上げている。とは言え検索結果の広告費等で成立させるモデルも無くはないだろう。色々ミックスしながらビジネスモデルを考えていく。
会場:
シルバーライトについては今後どうなのか?
バルマー:
今後も普及の努力をしていきたい。モバイルもPCも同様。とは言えAdobeとの協業も考えていきたい。
会場:
モバイルで検索広告が成り立つのか?僕は全く使わないが。
バルマー:
現状のPC型の形がそのままモバイルで成り立つとも思っていない。それがユーザーにとって有益な内容であれば、広告を表示することが悪いわけではない。デザインやインターフェースなど今後進化していくだろう。
会場:
ユーザーのプライバシーについてはどう思うか?
バルマー:
ユーザーのプライバシーやニーズに対する意識は、サービスの進化と共に常に進化している。ユーザーが情報を公開することで、より便利なサービスを受けられることもある。非常にセンシティブな問題だが、常にユーザーの意識を気にしながら取り組んでいくべきだろう。
。。。以上でした。
ひたすら、サリバンとバルマーがQ&A形式で会話していったので、追うだけで手いっぱいでした。ちなみに上の文章はかなり要約していますので実際の発言と思わないでください。意図は間違っていないと思いますが。
感想としては、何か大きな発表でもしてくれるかと思いきや、正直余り対した話も無かったのですが 汗 、検索のビジネスチャンスを2つで言い切る辺りは流石だな、、、と思いましたね。しかし後半モバイルの話が多すぎました。逆にアメリカだとAppleのiPhone、iPad含めて注目されている分野なんですかね。
ま、マイクロソフトのCEOが検索マーケティングのイベントに出る時代になったと言うこと自体が凄いですけど!
16 years ago
さて、SEO Japan復活&SES Londonのレポートが思ったより好評だったことに調子に乗ってしまい、SMX Westもレポートすることにしました。
ロンドンから帰国して1週間でアメリカ西海岸と言う僕的には強行スケジュールなのですが、SMXはSES以上に内容が充実しているのでは?と思われる検索エンジンイベントですし、頑張ってレポートしたいと思います。
先ほど、ホテルにチェックインしたばかりです。このホテル、会場はシリコンバレーのコンベンションセンターの隣ですが、しかしこのサンタクララと言う町、恐ろしい程、何も無い所です。おかげでレポートに集中できそうな予感 笑
三日間あるのですが、初日のキーノートに何故かマイクロソフトのスティーブ・バルマーが登場。別にマイクロソフトは好きでもありませんが、Yahoo!と組んでGoogleの唯一の対抗馬であることは確かですし、どんな内容になるか楽しみですね。
他にもSES以上に具体的、実用的、先進的なセッションがスケジュール見る限りは満載な感じですので、気合い入れて書いていきたいと思いますっ。
SESでかなり書き慣れたこともあり、前回以上に有益な内容にしたいとは思っていますが、唯一の懸念点は、今回&今後のレポートのために購入したばかりの長時間駆動型(公称14時間!)の新ノートパソコン。今も使っていますがキーボードに慣れておらず入力に時間がかかる&タイポミスの連続です。記事はリアルタイム性を重視して、多少のミスは気にせずにアップしていきますので(後で気づいたら直します)ご了承くださいませ。
それではこれから三日間、お付き合いくださいませ。記事の更新情報はTwitterで随時発信していきますので登録がまだの方はこの機会に是非!
http://twitter.com/ioixseo/
16 years ago
SES London以来の投稿です。SEO Japanではイベントのレポート記事しか書かないつもりでしたが、面白かったので書いちゃいます。
ここ数日、英語圏のTwitter上で、「もしもSEOに関する映画ができたら・・」と言うネタで過去の映画にもじった映画名を投稿するのが軽いブームになっています。皆、ハッシュタグに #seofilms と付けているので検索すると色々出てきます。ちなみにPPC版もあります。結構、笑ってしまったので、面白かったモノを幾つか紹介。
301 Dalmations(原題:101 Dalmations)
101匹ワンちゃん → 301匹わんちゃん
。。。まずは軽くジャブ。
The Wizard of DMoZ(原題:The Wizard of Oz)
オズの魔法使い → DMoZの魔法使い
。。。お互いにクラシック。Wizard of seoMoz ってのもありました&今はこっちかも?
Schindler’s Keyword List(原題:Schindler’s List)
シンドラーのリスト → シンドラーのキーワードリスト
。。。ここに入りたい。
iRobots.txt(原題:iRobots)
アイ・ロボット → アイ・ロボット.テキスト
。。。面白くないけどナルほど。
One Missed Call To Action(原題:One Missec Call)
ワン・ミス・コール → ワン・ミス・コール・トゥ・アクション
。。。ジャパニーズ・ホラー「着信」のリメイク。コール・トゥ・アクションなら1回で済まなさそうですが 汗
Minority Search Query Report →(原題:Minority Report)
マイノリティ・レポート → マイノリティ・クエリー・サーチ・レポート
。。。大事です。
Cache me if you can(原題:Catch me if you can)
キャッチ・ミー・イフ・ユー・キャン → キャッシュ・ミー・イフ・ユー・キャン
。。。切実な声。
White hats can’t jump(原題:White men can’t jump)
ホワイト・メンはジャンプできない → ホワイト・ハットじゃジャンプできない
註:正確な日本名は「ハード・プレイ」
。。。かなりウケた。元々黒人と白人のバスケ映画で白人は飛べないだろう、と言う話で。英語圏も有料リンクしないとビッグワード上がらないって言ってたしなぁ。。
Malcom XML(原題:Malcom X)
マルコム X → マルコム XML
。。。影響力ありそう。
Miracle on 34th Visit to Purchase(原題:Miracle on [...]
16 years ago
さて明日帰国ですが、テンションが覚めないうちにSES London参加の総括でもしておきますか。
まず最初に一言、今回はホント、書きました。。。SES開催中に書いた文字数を合計すると、メールを別にすれば過去3~4年に書いた文章を全部足した以上の文章量だったと思います 笑 最初からセッションのリアルタイムレポートすることは決めていたとは言え、正直書けるか不安だったのですが、やってみると意外と書けるものですね。セッションが次から次にあり、次のセッションの前に文章アップしないとリアルタイムレポートが崩壊してしまう、と言う雑誌の原稿の締め切り以上の強迫観念が結果的にプラスに働いたかもです。
個人の話はともかく、今回のSES Londonですが、イベント名がSES(Search Engine Strategies)、直訳すると「検索エンジン戦略」を考えるイベントにも関わらず、効果測定やサイト改善の話が多かったのが印象的でした。3日間の最初のキーノートは全てサイト分析&改善の話だったのが象徴的です。
SEO業界10年の古参者からすると、もう少し検索マーケティングの未来の話が聞きたかったな、、と思う所もあります。もちろんPPCやSEOのテクニック的な話は各セッションで行えば良いわけですけど。PPCのみのセッションは参加しなかったのですが、最新のキーワード広告管理ツールの話など最先端の話は幾つかあったみたいです。SEOに関して言うとグレーゾーン~ブラックハットな話や伝説のブラックハットのSEOマスターがセッションで出てきて面白かった、と言うのはあるのですが、余り最新のテクニックどうこう、、と言う話題はほぼ無かったですね。ユニバーサルやローカルサーチで少し、程度で。
全体的に、何かこの業界にいてモーティベーションを感じる話がもっと聞きたかった気はします。全体通して、幾つか新しいトレンドはあるものの、数年前に僕が参加したアメリカで行われたSESと比較して、さほど内容変わっておらず「検索マーケティングの未来ってあるのか?!」と思いたくもなるような印象さえ受けました。
もちろん、キーノートやセッション中の話で部分部分には未来を感じる話題や意見もあったのですけどね。例えばリアルタイム検索やローカルサーチなどトピックとしては色々あったのですが。何かこう、「この業界に居続けてメディアやマーケティングの進化を体感したい!」と言う未来の可能性を感じる話があればな、、、と感じました。僕がそういうことを重視する人間だからかもですが。SESのために言っておくと、参加した人のブログとかTwitterを見る分には大半の人が満足していたようでした!
後、ソーシャルメディア、特にTwitterに関するセッションや話題が多かったのは正に今の時代、と言う感じです。数年前のSESではブログのセッションは少しありましたが、ソーシャルメディアなんて言葉さえ出てこなかったですからね。ソーシャルメディアは企業やエージェンシー・代理店が対応する以前に確実に普及してしまった分野ですから当然と言えば当然かな、と。ソーシャルメディアマーケティングと検索マーケティングが切っても切れない関係になりつつあるのは疑いは無いです。
ポジティブな意見が少なく恐縮ですが、同時にリアルタイム検索、ローカル検索、ユニバーサルサーチ(何故か最後だけサーチにしてますが・・・)など新しい技術やトレンドも登場し確実に普及しつつあるのは感じました。この1年でSNS、Twitterを主軸にソーシャルメディアがネットの中心メディアに躍り出る状況まで達し、またそこで新たな検索ニーズが発生し、従来型の検索エンジン、検索アルゴリズムだけでは対応仕切きれない状況があるのもまた事実。
今はまだ何とかなってるとは思いますが、今後その分野の検索サービス側の進化は確実に問われるわけで、世界で圧倒的シェアを誇るGoogleがその位置を維持し続けられるか、と課題は当然Googleも感じていると思いますし、逆にYahoo+マイクロソフト陣営はまだまだ現状に対して勝負できる余地があると考えているのかもしれません。
検索サービスはより進化を求められ、当然進化していくでしょうし、企業やエージェンシー、代理店も対応が求められていくのは間違いありません。
。。。だからこそ、もっと夢のある話を聞きたかったのですが。。。
最後に、少し客観的に考えてみたのですが、世界と比較した日本のSEOの問題点としては下記があるのかな、と感じました。SEOに特化して考えているのは僕がSEMでは無くSEOのプロですのでお許しください:
—
日本のSEOの問題点:
1. リンク対策中心のSEOに偏り過ぎ
2. ユニバーサルサーチ対応が遅れ気味
3. ローカルサーチ対応が遅れ気味
—
まず 1 に関してですが「お前が言うな!」と言うツッコミは覚悟してます。僕の会社でもリンク対策が中心になっているのは事実。言い訳がましくて恐縮ですが、やろうと思えばSEOに関するサービスは全て業界トップクラスの内容で提供できる自信はありますし、実績もそれなりにありますが、現状の検索市場と重要性、また事業上の判断からか全体の比率的にはリンク対策中心のSEOになっているのが現状です。SEOを補完するサイト解析やLPOも頑張っていますけど(半分PR)。
世界の中でも日本は最も多種多少なリンク対策サービスが存在する国と思いますし、正直な所、その80%はサービス提供者が意識するかどうかはともかくブラックハットなサービスと思います。僕自身もその現状を決して良いとは思っていませんが、リンク対策無しには順位が上がらないこともまた事実。ある意味、必要悪と割り切って取り組んでいる部分もあるのですが、今回のSES参加を通して、それに甘んじず常に広い視点でSEOや検索マーケティングを考えていくことが重要だな、と改めて感じています。
2 に関しては、ユニバーサルサーチが特にGoogleにおいては実際かなりの確率で検索結果に導入されているにも関わらず、企業や代理店、SEO会社の対応レベルが低すぎると言うのは感じます。ただこれは日本の場合、Yahoo!が検索シェアを未だにGoogleより持っており、Yahoo!のユニバーサルサーチの対応度はGoogleより多少低い、と言うのもあるとは思いますが。
しかしマイクロソフトとYahoo!の提携がヨーロッパ、アメリカで法的に認められたこともありますし、Bingはかなりユニバーサルサーチを意識した検索エンジンになっていると思いますし、今後、BingがYahoo! Japanの検索エンジンになるにつれ、状況は一変するかもしれません。この観点から、検索マーケティングに取り組む人はユニバーサルサーチへの意識を現状から持っておくべきとは思います。目の前の仕事に忙しくなりがちですが、実際、Googleで色々実験できるわけですし、きっとそこで得たノウハウが後でYahoo!でも生きてくると思います。
最後に 3 ですが国土の広いアメリカや多数の国が存在するヨーロッパではよりニーズがあるのかな、と言う気もします。僕も地方出身ですし、地方を無下にするわけじゃないですけど日本は良くも悪くも東京中心の市場がありますからね。とは言え地方の主要都市はそれなりに人口もいるわけですし、ローカルサーチが進化・普及することで、生活者の人にとってももっと便利な検索サービスが出来上がる気もします。
日本市場でもGoogleは素早く、またYahoo!も負けずとローカルサーチ市場は深堀りしてくるでしょうが、日本の場合、ローカルサーチの進化にローカルの企業やサービスプロバイダーが対応していけるのか・活用仕切れるのかが心配だったりします。逆にそこにビジネスチャンスが存在するのは間違いないなく、競合の多い東京で頑張るより特定の地方都市で高品質のサービスで圧倒的なシェアを誇る地域ネット代理店などが出てきてもおかしくはないですよね。頑張れローカル!頑張れ地方!って感じです。
—
さて最後に締めのコメントを少し。
今回のSEO Japan再開は事前に全くPRもしておらず、とりあえずセッションの記録をつけていこう、、、と言う趣旨から記事執筆を始めたのですが、思った以上に多くの方に読んでいただき、SEO Japanを再開して本当に良かった、と思っています。
もちろん、これは多くの方にブログやTwitter、ソーシャルブックマークでご紹介いただいた結果であり、皆さんには本当に感謝しています。特にSEO業界の重鎮である住さんとTwitterで初日の深夜に語り合った結果、一気にTwitterフォロワー数&当サイトのアクセス数増加につながったのが大きかったですね。改めて住さんありがとうございましたm(_ _)m。ご覧になった方は滝日と住さんって相当仲良いのかな、と思った方も多いと思いますが、最後にあったのは3年前 汗 ただ、なんと言うか、いつ会ったり話したりしても素直にコミュニケーションできる方です。性格は180%違うと思いますけど 笑
他にはSEO業界の御意見番である渡辺さんに取り上げてもらったのも大きかったですね。お二人と違って情報発信活動を完全休止していた僕ですが、相手をしていただき本当に感謝です。
後、諸々ブログやTwitterで今回のSES Londonレポートを取り上げていただいた方、本当にありがとうございます。またTwitterのフォロワーになっていただいた方、僕は現在、リアルタイムの情報収集活動から引退した人間なので(かつてRSSの本を書いた人間が言うのもなんですが)リフォローほとんどしておらず恐縮です。
また今回のSEO Japan再開後、早速「いつまで続けるの?どうせすぐ止めるでしょ。」と言う声を幾つかいただいていますが、少なくとも今年2010年は定期的にこの種の海外カンフェレンスに参加してリアルタイムレポートを行っていく覚悟です。自分自身や会社のPRもありますが、包み隠さない、限りなくリアルタイムに近い情報提供を通して日本のウェブマーケッター(僕自身や僕の会社のスタッフ含む)の方に参考になる、未来に期待を持って日々の仕事を頑張ろうと思えるようなレポートを少しでも伝えていければ、と思います。
海外情報を発信しつつ言うのも何ですが、今回改めて確認しましたが、日本はSEO、PPC、ブログ、Twitter、、、マーケティング手法レベルでは海外に全く負けていません!Googleがアメリカ発なのでどうしても遅れを取る、感じる部分もありますが、SEOのテクニック、ブログ、Twitter等、むしろ日本が最先端な分野も多い。それを再確認し、自信を持っていただければと。もちろん、海外の情報は部分部分で参考になる点は多々ありますし、日本人ってテクニックに走って本質を見失いがちな傾向もありますから、このレポートを通してその辺を振り返る機会にしていただければ良いのかな?と。
なんか偉そうな締め方になってしまいましたが、僕にできることはせいぜいこの程度ですので、、、。帽子の色はその時その時使い分けますが、SEO、SEM、ウェブマーケティングの未来に向かって皆様と走っていきたいと思っています。
と言うことで、次回のカンフェレンス参加までしばし沈黙。
16 years ago
最終日、最後のセッションは「Automating Twitter」。SESの最後のセッションがTwitterと言うのも時代の流れですか。
モデレーターはRank-Mobileのシンディ・クラム。パネリストはCrea8 New Mediaのポール・マッデン、Pierrefar.comのピエール・ファー、Freestyle Interactiveのトレーシー・ファルケ、そしてファントマスター!
—
まずはいきなりファントマスターの登場。「Twitterの話だけど、どちらかと言うとブラックハットなSEOで知られています」と自虐的な自己紹介。
ファントマスターはTwitterで1日$500稼いでいると。顧客の生涯価値、ライフタイムバリューに換算すると、と言うことですが。
—
Twitterのオートメーションはスパム以外の目的でも使える。
まずは便利なツールを紹介したい。
SocialOomph
このツールはかなり色々なことができるのだが、例えば投稿の時間指定投稿ができる。自動投稿はもちろんヨーロッパからアメリカにマーケティングしたい場合は有効だろう。
投稿内容も事前に設定してランダム投稿までできる。Twitterにスパム認定されてブロックされないための工夫が色々できるようになっている。
例えば同じ投稿を15時間毎に投稿できたりする。
。。。と言ってここで実際の設定画面を見せてくれたのですが、引用的な文章以外に、いかにもユーザーと会話しているような内容の文章が全部設定されている 汗 さき程ちらっと見た時は実際の会話もたまにしているのかな、と思ったのですが全くのウソと判明 汗
http://twitter.com/fantomaster
このツールを上手に使えば小遣い稼ぎには十分使えるだろう。ただし「Low Tone / ロートーン」、目立たせないことが大事。
他にはTweetMinerも便利。
TweetMiner
リツイートしたい相手を探す時に使える。
—
URL短縮サービスは Bit.ly 他色々あるが、オススメなのは、
zi.ma
まずドメインが短いのが良い。
—
完全にオートメーションの話でした。Twitterは今回のSES Londonからまともにやり出したので知識が無くて恐縮ですが、どれも知らなかった。。。でも、既に結構進化したオートメーションツールが出ていますね。後でそれぞれ調べてみよう。
最後にモデレーターに「オートメーションで他に注意することは?」と聞かれて答えたのが「アバターには注意。興味をひくために女の子の画像を使うようなことは止めた方が良いかも。」と言うことでした。
。。。しかし1日$500稼ぐってどうやって計算したのか謎は残る。
—
次はCrea8 New Mediaのポール・マッデン。
まず
「オートメーションは誰でもできる。ボットや人工知能の歴史は長い。」
と言う一言から。
Twitterをオートメーション化する場合、大事なのは:
・ひたすらブランドのPRしか話さないボットは無意味
・顧客のサポートをするボットが有益
と言うこと。また実際に効果的なボットを作るには、プログラムで処理する部分と、実際に人が発言・反応するハイブリッドモデルが有効と考えている。全部オートメーション化することは無理。
実現するにはTwitterのキャラクター設定も非常に重要。例えば
「ケイティはブリストル大学に通う新しいことに興味がある最近彼氏と別れたばかりの女子大生」
など。具体的であればある程良い。
他には:
・自動化する際は色々なパターンのセリフを用意すること。
・リプライやリツイートも重要。
・実際のセリフを大量に用意するのは大変なので、Twitter上に存在する発言を拾ってきてアレンジして使うのが現実的。
・対象ユーザーがネットでアクティブな時間を調べ、それに合わせていつ人が実際に対応するか決める。
などなど。
。。。ハイブリッドモデルの半オートメーションモデルって面白いですね。実際の事例を見てみたいです。
—
次はPierrefar.comのピエール・ファー。フリーのプログラマーだそうで。
まずはオートメーションの重要性を説明。
オートメーションは、マーケッターにマーケッターの仕事をより効率的に行う手助けをするためにある。
Twitterマーケティングは、分析、モニタリング、エンゲージメント(実行)の繰り返し。
—
■モニタリングのオートメーション
・アグリゲーション
・・自社のドメインにリンクしているツイート
・・特定のキーワード(ブランドやユーザー名)を含むツイート
・特定のランディングページにリンクしているツイート
。。。下記のURLから自動モニタリングボットのサンプルコードをダウンロードできるそうです!興味ある方は是非:
http://perrefar.com/ses-2010/
(試したらリンクが切れているようです。記録ミスか、後でアップされるのか。確認できたら更新します。)
—
■エンゲージメントのオートメーション
・定期的な自動ツイート
・特定のキーワードを含むツイートを自動でフォロー
・フォローしてくれたユーザーを自動フォロー
・新しいフォロワーに自動でDM送信
・ブログやプレスリリースを自動ツイート
・リプライの自動化
&
・「Nag Followig」(ナグ・フォローイング)
自動でフォローを行い、相手もフォローしてくれない場合は数日後にフォローを外す。これを何度か繰り返してフォローを促す。
どれも注意して使う必要がある。特に最後のナグ・フォローイングは危険。相当注意しないとブロックされる可能性大。
。。。最後のは凄いですね 笑
—
■分析のオートメーション
・Google Analytics
・・どこから実際に来たかパラメーターを挿入するなどして分析する
・フォロワー分析
・・フォロワーの言語、地域
・・リツイートしてくれるフォロワー
・・・最重要なので得点を与えることも可能
・ランディングページのA/Bテスト
・ソーシャルメディアのクリックをトラック
取得できるデータはできるだけ取得して、クリエイティブな分析をしよう。
。。。分析の部分は一気に流したので細かく追えませんでした m(_ _)m
—
最後にFreestyle Interactiveのトレーシー・ファルケ。ここで会場にTwitterのオートメーションを既にしているかアンケート。200人弱中、20人弱、いました。範囲にもよるでしょうが、既に結構やってるんですね。
Freestyle Interactiveはイギリスで結構大手のエージェンシーのようで顧客もかなりいるようです。ソーシャルメディアは数年前から普及していたが、Twitterに関しては企業から相談が激増している、と。
オートメーションに関して注意すべき点を事例と共に話してくれたのですが、逐一メモれませんでした。ポイントのみ、まとめます。
・Twitterのコミュニケーションで一番重要なのは、人。オートメーションは人との人とのコミュニケーションをより円滑に行う手段。
・100%のオートメーションは不可能。80%のオートメーションと20%の実際のコミュニケーション。
・現状、余りにスパム的なオートメーションが多すぎる。有名企業のTwitterにも数多く存在する。明らかにロボットが自動投稿・返信している内容は逆に引いてしまう。
・カスタマイズされたコンテンツデータベースをどこまで作りこめるかが重要。
・・ルールとトリガー
・・UGC
・・属性データ
・・カスタムパラメーター
・・キャンペーン
などなど。
・効果測定も重要。既存の解析ツールに独自のTwitter専用の解析ツールを開発して利用している。
・投資が必要と思われるだろうが、プラットフォームよりコンテンツにより投資すべき。
。。。クライアントに大企業が多いだけあり、かなりお金をかけて取り組んでいるようですね。大手?がここまで既に取り組んでいるとは。日本でここまで取り組んでいく代理店は出てくるのでしょうか。
—
。。。以上です。ブログのオートメーションとメールのオートメーションの両方の要素が合わさったような感じですね。まだまだ進化の過程にあるとは思いますが。オートメーションと聞くと、ついスパム的な発想をしてしまいますが、メール会員に登録した際に送るThank youメールもオートメーションですし。部分的に使えばかなり効率的かもですね。と言うか、Twitterがもっと普及すればオートメーションって範囲はともかく絶対に必要になってきそうです。
僕のTwitterの知識、特にオートメーションに関してはかなり足りないこともあり、知識を吸収しながらメモを取っていたので非常に疲れました。。。参考になる記事になっているか不安ですが、内容は豊富だったので幾つか小ネタはあればと。
あ、これでSES London終了です!数日以内に別途、全体の感想を記事にまとめようと思います。余り推敲もしていない記事ばかりでしたが、リアルタイム感を伝えたく。読んで下さった皆さま、ありがとうございましたm(_ _)m
16 years ago
午後のセッション「Why Does Search Get all the Credit?」。モデレーターはFoviance applied insightsのニール・メイソン。パネリストはClearSaleingのアダム・ゴールドバーグ、iProspectのマルセロ・サンチアゴ。iProspectってかつて世界最大のSEM会社の1社だったと思います。どこかの大手広告会社に40億位で買収されて話題になりました。もちろん最先端を走っている会社なんでしょうけど、久々に聞きましたね。
まず最初にニール・メイソン氏。初めに
「The Purchase Path」(購買パス)
と言う概念を紹介。トレードマーク取ってます。
購買パスを調べて問題点を明らかにし、問題点を改善していくことが重要と。購買パスには心理的には最終的な購買までに4つのプロセスを踏む。
興味
↓
検索
↓
検討
↓
購買決定
↓
購買
実際のネット上の遷移は色々ある。実際に購買までに実例のパターンには色々ある。
Froogle → アドワーズ
直接訪問 → 比較サイト
メール→メール→検索
などなど。
購買パスの遷移を実例分析すると色々なことが見えてくる。
例えば下記のデータがある:
—
パスパターン 22
検索で始まる 5
検索で終わる 11
パスのステップ 66
パス中の検索 26
—
パスパターン 10
最後がブランド検索の検索 7
最後がブランド以外の検索 3
—
最後が検索、特にブランド検索で終わるパターンが多い。
また別に実例を見てみると下記のデータがある;
—
パスパターン 22
検索で始まる 6
検索で終わる 61
パスのステップ 73
パス中の検索 11
直接訪問で終わる 11
—
この種の分析で言えることは、バナー広告は見られているしれないがクリックされずにデータに残るケースもある、と言うこと。この点は注意しないといけない。
また別のデータ:
—
購買数 31
ブランド検索で終わる 17
ブランド以外の検索で終わる 13
—
最終的に検索で購買するパターンが大半。途中でバナー広告を見ていたケースもある。しかし最終行動の時点ではクリックされないケースが多い。
また別のデータ:
—
パス 22
検索で始まる 5
検索で終わる 8
パスのステップ 47
パス中の検索 14
アフィリエイトで始まる 0
アフィリエイトで終わる 9
—
アフィリエイトのトラッキングの関係で始まった数値が測定されていない可能性がある。
—
この種の効果測定の手法は現在、進化し続けている。
最後のクリック
↓
全クリックを均等に評価
↓
特定のクリックを排除(例:30日以前)
↓
ルールベース(最後のクリックが50%、他は均等、など)
↓
より高度なアルゴリズム
この分析ができればできる程、広告の費用対効果が正確に測定できる。
—
最後に、何故検索が全ての評価を得るのか?を再度まとめ。
1) 最後のクリック vs 購買パス
2) 技術的な課題
3) ブランド検索が何故全ての評価を得るのか?
4) アフィリエイトが何故全ての評価を得ないのか?
5) 革命ではなく進化が必要
—
。。。以上でした。最後のまとめは良く分かりませんでしたが、、、、効果測定をどのように行うべきか、と言う話題は、初日のキーノートでもこの話題は出ていました。海外はもちろん、日本でもまだまだ最後のクリックをベースに効果測定を行っている会社がほとんどとは思いますが、今後重要になっていく分野なのは間違いないですね。特にソーシャルメディアの影響力を測るには不可欠の要素になっていくと思います。
—
さて次はiProspectのマルセロ・サンチアゴ氏。iProspectのブラジル支社の代表だそうです。
最初に広告業界の教祖?ジョン・ワナメーカー氏がかつて語った名言「広告費の半分は無駄になっている。しかしどの半分が無駄なのかは分からない。」を紹介。
—
そして「What Sticks」(何が刺さるか)アプローチが重要、と話します。
このアプローチに重要なのは下記:
・ゴールを共通化する
クライアントとエージェンシーの間で、またクライアントの組織間でもゴールを共通化することが重要。マーケティングキャンペーンの評価をする時に共通化されたゴールを元に、評価しなければ正しい評価が行えない。
・プランB、つまりバックアッププランを用意する
最初の施策がそのまま通じるとは限らない。常に別プランを用意すること。
・お金の価値を知ること
費用対効果、投資価値を常に念頭に置きながらキャンペーンを行うべき。
—
次にiProspectが考えるニューメディアのパラダイムを紹介。
メディアには3種類あると。
Bought / 購入メディア – いわゆる広告として購入するメディア。既存メディア含む。
Owned/ 所有メディア – 自社のウェブサイト。
Earned / 獲得(?)メディア – ソーシャルメディア。ブログやSNS、Twitterの記事、レビュー。
メディアをこの3つの観点から考えるでき。
—
iprospectの調査では、
「67%の検索行動は、オフラインで何かを見た影響で行われている:
まだまだインターネット以外のメディアも重要。
しかし
「55%のマーケッターが、検索マーケティングとオフラインマーケティングを連動させていない」
(対象データ不明です)
でもある、と。
検索とオフラインまで行かなくとも、検索とディスプレイ広告を連動させるだけでも効果がある、と。実際にバナー広告と検索マーケティングを併用した方が効果的だと言う数字を紹介。
—
次に効果測定の方法について。
・オンラインとオフラインの購買行動の両方をトラッキングしているか?
・キャンセルされた購買をトラッキングのデータに含めているか?
Google Analyticsを使っている人は多いと思うが、正確にトラッキングできているか一階調べた方が良い。実際の購買数と、Analyticsで取得している購買数を定期的に比較すべき。
—
。。。最初の人に比べて、余りに幅広すぎる話題で参考になる情報が無かったです。iProspec、、、かつてのエッジさが無くなったのでしょうか。
—
次にQ&A。
Q.
購買パスのデータはどうやって取得しているのか?
A.
(ニール氏)自社開発したソフト。Cookieを使っている。
Q.
ネット広告の効果測定は余りに大量のデータが取れ、何を指標にしたら良いか分からないことがある。パネリストは何を指標にしているのか?
A.
(ニール氏)ケースバイケースだが、現状の測定方法では購買行動の直近のアクションに評価が集まりやすく、検索に評価が集まりやすい。データに出ないからと言って他の手法を完全に無視しないことが重要だ。説明したように、データの取得方法が無いわけではなく、そこから見えてくるものもある。
(マルセロ氏)僕はこの業界に15年以上、関わっているが時に重要なのはどれだけ単純化して考えられるか、と言うことだ。目的を明確にして余計な情報にまどわされないことも大事。
(マルセロ氏)インターネットが未だにニューメディアと言われることに改めて驚かされる。広告業界は中々進化しない。未だにTVの視聴率ばかり気にしているだけで、効果測定のことは全く考えない。
。。。僕の考えじゃありません!
Q.
購買パスを分析をした後に、効果があるパスが分かるとする。その後にユーザーに効果的なパスを通らせるにはどうしたら良いのか?
A.
(ニール氏)最終的にはユーザーの判断になり、全てコントロールできるわけではないが、出稿する広告媒体や検索キーワードの調整である程度対応することは可能だ。
(マルセロ氏)サイトを改善するのは大変だが、ランディングページで誘導先を絞るなどすることで、ある程度誘導したい遷移を辿らせることはできるだろう。
Q.
購買の評価をする時の「アルゴリズム」はどうやって決めるのか?
A.
(ニール氏)基本的には過去の購買パスを分析して適切と考えるアルゴリズムを研究するしかない。現状、試行錯誤しながら行っているのが現状。
—
以上でした。購買パスの分析と効果測定の考え方は、まさにこれから普及していく考え方でしょうね。繰り返しになりますけど、ソーシャルメディアの効果測定を正しくするには必須の技術・方法である気がします。
SEO Japan フィード を購読