16 years ago
日経と地方紙7紙がコラボで「綾鷹 幕末風遊紀行」を公開。3人の直木賞作家が新聞紙面で幕末登場人物による物語を、サイトでは幕末エピソードをユーザーが投稿。毎月お...
16 years ago
さて明日帰国ですが、テンションが覚めないうちにSES London参加の総括でもしておきますか。
まず最初に一言、今回はホント、書きました。。。SES開催中に書いた文字数を合計すると、メールを別にすれば過去3~4年に書いた文章を全部足した以上の文章量だったと思います 笑 最初からセッションのリアルタイムレポートすることは決めていたとは言え、正直書けるか不安だったのですが、やってみると意外と書けるものですね。セッションが次から次にあり、次のセッションの前に文章アップしないとリアルタイムレポートが崩壊してしまう、と言う雑誌の原稿の締め切り以上の強迫観念が結果的にプラスに働いたかもです。
個人の話はともかく、今回のSES Londonですが、イベント名がSES(Search Engine Strategies)、直訳すると「検索エンジン戦略」を考えるイベントにも関わらず、効果測定やサイト改善の話が多かったのが印象的でした。3日間の最初のキーノートは全てサイト分析&改善の話だったのが象徴的です。
SEO業界10年の古参者からすると、もう少し検索マーケティングの未来の話が聞きたかったな、、と思う所もあります。もちろんPPCやSEOのテクニック的な話は各セッションで行えば良いわけですけど。PPCのみのセッションは参加しなかったのですが、最新のキーワード広告管理ツールの話など最先端の話は幾つかあったみたいです。SEOに関して言うとグレーゾーン~ブラックハットな話や伝説のブラックハットのSEOマスターがセッションで出てきて面白かった、と言うのはあるのですが、余り最新のテクニックどうこう、、と言う話題はほぼ無かったですね。ユニバーサルやローカルサーチで少し、程度で。
全体的に、何かこの業界にいてモーティベーションを感じる話がもっと聞きたかった気はします。全体通して、幾つか新しいトレンドはあるものの、数年前に僕が参加したアメリカで行われたSESと比較して、さほど内容変わっておらず「検索マーケティングの未来ってあるのか?!」と思いたくもなるような印象さえ受けました。
もちろん、キーノートやセッション中の話で部分部分には未来を感じる話題や意見もあったのですけどね。例えばリアルタイム検索やローカルサーチなどトピックとしては色々あったのですが。何かこう、「この業界に居続けてメディアやマーケティングの進化を体感したい!」と言う未来の可能性を感じる話があればな、、、と感じました。僕がそういうことを重視する人間だからかもですが。SESのために言っておくと、参加した人のブログとかTwitterを見る分には大半の人が満足していたようでした!
後、ソーシャルメディア、特にTwitterに関するセッションや話題が多かったのは正に今の時代、と言う感じです。数年前のSESではブログのセッションは少しありましたが、ソーシャルメディアなんて言葉さえ出てこなかったですからね。ソーシャルメディアは企業やエージェンシー・代理店が対応する以前に確実に普及してしまった分野ですから当然と言えば当然かな、と。ソーシャルメディアマーケティングと検索マーケティングが切っても切れない関係になりつつあるのは疑いは無いです。
ポジティブな意見が少なく恐縮ですが、同時にリアルタイム検索、ローカル検索、ユニバーサルサーチ(何故か最後だけサーチにしてますが・・・)など新しい技術やトレンドも登場し確実に普及しつつあるのは感じました。この1年でSNS、Twitterを主軸にソーシャルメディアがネットの中心メディアに躍り出る状況まで達し、またそこで新たな検索ニーズが発生し、従来型の検索エンジン、検索アルゴリズムだけでは対応仕切きれない状況があるのもまた事実。
今はまだ何とかなってるとは思いますが、今後その分野の検索サービス側の進化は確実に問われるわけで、世界で圧倒的シェアを誇るGoogleがその位置を維持し続けられるか、と課題は当然Googleも感じていると思いますし、逆にYahoo+マイクロソフト陣営はまだまだ現状に対して勝負できる余地があると考えているのかもしれません。
検索サービスはより進化を求められ、当然進化していくでしょうし、企業やエージェンシー、代理店も対応が求められていくのは間違いありません。
。。。だからこそ、もっと夢のある話を聞きたかったのですが。。。
最後に、少し客観的に考えてみたのですが、世界と比較した日本のSEOの問題点としては下記があるのかな、と感じました。SEOに特化して考えているのは僕がSEMでは無くSEOのプロですのでお許しください:
—
日本のSEOの問題点:
1. リンク対策中心のSEOに偏り過ぎ
2. ユニバーサルサーチ対応が遅れ気味
3. ローカルサーチ対応が遅れ気味
—
まず 1 に関してですが「お前が言うな!」と言うツッコミは覚悟してます。僕の会社でもリンク対策が中心になっているのは事実。言い訳がましくて恐縮ですが、やろうと思えばSEOに関するサービスは全て業界トップクラスの内容で提供できる自信はありますし、実績もそれなりにありますが、現状の検索市場と重要性、また事業上の判断からか全体の比率的にはリンク対策中心のSEOになっているのが現状です。SEOを補完するサイト解析やLPOも頑張っていますけど(半分PR)。
世界の中でも日本は最も多種多少なリンク対策サービスが存在する国と思いますし、正直な所、その80%はサービス提供者が意識するかどうかはともかくブラックハットなサービスと思います。僕自身もその現状を決して良いとは思っていませんが、リンク対策無しには順位が上がらないこともまた事実。ある意味、必要悪と割り切って取り組んでいる部分もあるのですが、今回のSES参加を通して、それに甘んじず常に広い視点でSEOや検索マーケティングを考えていくことが重要だな、と改めて感じています。
2 に関しては、ユニバーサルサーチが特にGoogleにおいては実際かなりの確率で検索結果に導入されているにも関わらず、企業や代理店、SEO会社の対応レベルが低すぎると言うのは感じます。ただこれは日本の場合、Yahoo!が検索シェアを未だにGoogleより持っており、Yahoo!のユニバーサルサーチの対応度はGoogleより多少低い、と言うのもあるとは思いますが。
しかしマイクロソフトとYahoo!の提携がヨーロッパ、アメリカで法的に認められたこともありますし、Bingはかなりユニバーサルサーチを意識した検索エンジンになっていると思いますし、今後、BingがYahoo! Japanの検索エンジンになるにつれ、状況は一変するかもしれません。この観点から、検索マーケティングに取り組む人はユニバーサルサーチへの意識を現状から持っておくべきとは思います。目の前の仕事に忙しくなりがちですが、実際、Googleで色々実験できるわけですし、きっとそこで得たノウハウが後でYahoo!でも生きてくると思います。
最後に 3 ですが国土の広いアメリカや多数の国が存在するヨーロッパではよりニーズがあるのかな、と言う気もします。僕も地方出身ですし、地方を無下にするわけじゃないですけど日本は良くも悪くも東京中心の市場がありますからね。とは言え地方の主要都市はそれなりに人口もいるわけですし、ローカルサーチが進化・普及することで、生活者の人にとってももっと便利な検索サービスが出来上がる気もします。
日本市場でもGoogleは素早く、またYahoo!も負けずとローカルサーチ市場は深堀りしてくるでしょうが、日本の場合、ローカルサーチの進化にローカルの企業やサービスプロバイダーが対応していけるのか・活用仕切れるのかが心配だったりします。逆にそこにビジネスチャンスが存在するのは間違いないなく、競合の多い東京で頑張るより特定の地方都市で高品質のサービスで圧倒的なシェアを誇る地域ネット代理店などが出てきてもおかしくはないですよね。頑張れローカル!頑張れ地方!って感じです。
—
さて最後に締めのコメントを少し。
今回のSEO Japan再開は事前に全くPRもしておらず、とりあえずセッションの記録をつけていこう、、、と言う趣旨から記事執筆を始めたのですが、思った以上に多くの方に読んでいただき、SEO Japanを再開して本当に良かった、と思っています。
もちろん、これは多くの方にブログやTwitter、ソーシャルブックマークでご紹介いただいた結果であり、皆さんには本当に感謝しています。特にSEO業界の重鎮である住さんとTwitterで初日の深夜に語り合った結果、一気にTwitterフォロワー数&当サイトのアクセス数増加につながったのが大きかったですね。改めて住さんありがとうございましたm(_ _)m。ご覧になった方は滝日と住さんって相当仲良いのかな、と思った方も多いと思いますが、最後にあったのは3年前 汗 ただ、なんと言うか、いつ会ったり話したりしても素直にコミュニケーションできる方です。性格は180%違うと思いますけど 笑
他にはSEO業界の御意見番である渡辺さんに取り上げてもらったのも大きかったですね。お二人と違って情報発信活動を完全休止していた僕ですが、相手をしていただき本当に感謝です。
後、諸々ブログやTwitterで今回のSES Londonレポートを取り上げていただいた方、本当にありがとうございます。またTwitterのフォロワーになっていただいた方、僕は現在、リアルタイムの情報収集活動から引退した人間なので(かつてRSSの本を書いた人間が言うのもなんですが)リフォローほとんどしておらず恐縮です。
また今回のSEO Japan再開後、早速「いつまで続けるの?どうせすぐ止めるでしょ。」と言う声を幾つかいただいていますが、少なくとも今年2010年は定期的にこの種の海外カンフェレンスに参加してリアルタイムレポートを行っていく覚悟です。自分自身や会社のPRもありますが、包み隠さない、限りなくリアルタイムに近い情報提供を通して日本のウェブマーケッター(僕自身や僕の会社のスタッフ含む)の方に参考になる、未来に期待を持って日々の仕事を頑張ろうと思えるようなレポートを少しでも伝えていければ、と思います。
海外情報を発信しつつ言うのも何ですが、今回改めて確認しましたが、日本はSEO、PPC、ブログ、Twitter、、、マーケティング手法レベルでは海外に全く負けていません!Googleがアメリカ発なのでどうしても遅れを取る、感じる部分もありますが、SEOのテクニック、ブログ、Twitter等、むしろ日本が最先端な分野も多い。それを再確認し、自信を持っていただければと。もちろん、海外の情報は部分部分で参考になる点は多々ありますし、日本人ってテクニックに走って本質を見失いがちな傾向もありますから、このレポートを通してその辺を振り返る機会にしていただければ良いのかな?と。
なんか偉そうな締め方になってしまいましたが、僕にできることはせいぜいこの程度ですので、、、。帽子の色はその時その時使い分けますが、SEO、SEM、ウェブマーケティングの未来に向かって皆様と走っていきたいと思っています。
と言うことで、次回のカンフェレンス参加までしばし沈黙。
16 years ago
最終日、最後のセッションは「Automating Twitter」。SESの最後のセッションがTwitterと言うのも時代の流れですか。
モデレーターはRank-Mobileのシンディ・クラム。パネリストはCrea8 New Mediaのポール・マッデン、Pierrefar.comのピエール・ファー、Freestyle Interactiveのトレーシー・ファルケ、そしてファントマスター!
—
まずはいきなりファントマスターの登場。「Twitterの話だけど、どちらかと言うとブラックハットなSEOで知られています」と自虐的な自己紹介。
ファントマスターはTwitterで1日$500稼いでいると。顧客の生涯価値、ライフタイムバリューに換算すると、と言うことですが。
—
Twitterのオートメーションはスパム以外の目的でも使える。
まずは便利なツールを紹介したい。
SocialOomph
このツールはかなり色々なことができるのだが、例えば投稿の時間指定投稿ができる。自動投稿はもちろんヨーロッパからアメリカにマーケティングしたい場合は有効だろう。
投稿内容も事前に設定してランダム投稿までできる。Twitterにスパム認定されてブロックされないための工夫が色々できるようになっている。
例えば同じ投稿を15時間毎に投稿できたりする。
。。。と言ってここで実際の設定画面を見せてくれたのですが、引用的な文章以外に、いかにもユーザーと会話しているような内容の文章が全部設定されている 汗 さき程ちらっと見た時は実際の会話もたまにしているのかな、と思ったのですが全くのウソと判明 汗
http://twitter.com/fantomaster
このツールを上手に使えば小遣い稼ぎには十分使えるだろう。ただし「Low Tone / ロートーン」、目立たせないことが大事。
他にはTweetMinerも便利。
TweetMiner
リツイートしたい相手を探す時に使える。
—
URL短縮サービスは Bit.ly 他色々あるが、オススメなのは、
zi.ma
まずドメインが短いのが良い。
—
完全にオートメーションの話でした。Twitterは今回のSES Londonからまともにやり出したので知識が無くて恐縮ですが、どれも知らなかった。。。でも、既に結構進化したオートメーションツールが出ていますね。後でそれぞれ調べてみよう。
最後にモデレーターに「オートメーションで他に注意することは?」と聞かれて答えたのが「アバターには注意。興味をひくために女の子の画像を使うようなことは止めた方が良いかも。」と言うことでした。
。。。しかし1日$500稼ぐってどうやって計算したのか謎は残る。
—
次はCrea8 New Mediaのポール・マッデン。
まず
「オートメーションは誰でもできる。ボットや人工知能の歴史は長い。」
と言う一言から。
Twitterをオートメーション化する場合、大事なのは:
・ひたすらブランドのPRしか話さないボットは無意味
・顧客のサポートをするボットが有益
と言うこと。また実際に効果的なボットを作るには、プログラムで処理する部分と、実際に人が発言・反応するハイブリッドモデルが有効と考えている。全部オートメーション化することは無理。
実現するにはTwitterのキャラクター設定も非常に重要。例えば
「ケイティはブリストル大学に通う新しいことに興味がある最近彼氏と別れたばかりの女子大生」
など。具体的であればある程良い。
他には:
・自動化する際は色々なパターンのセリフを用意すること。
・リプライやリツイートも重要。
・実際のセリフを大量に用意するのは大変なので、Twitter上に存在する発言を拾ってきてアレンジして使うのが現実的。
・対象ユーザーがネットでアクティブな時間を調べ、それに合わせていつ人が実際に対応するか決める。
などなど。
。。。ハイブリッドモデルの半オートメーションモデルって面白いですね。実際の事例を見てみたいです。
—
次はPierrefar.comのピエール・ファー。フリーのプログラマーだそうで。
まずはオートメーションの重要性を説明。
オートメーションは、マーケッターにマーケッターの仕事をより効率的に行う手助けをするためにある。
Twitterマーケティングは、分析、モニタリング、エンゲージメント(実行)の繰り返し。
—
■モニタリングのオートメーション
・アグリゲーション
・・自社のドメインにリンクしているツイート
・・特定のキーワード(ブランドやユーザー名)を含むツイート
・特定のランディングページにリンクしているツイート
。。。下記のURLから自動モニタリングボットのサンプルコードをダウンロードできるそうです!興味ある方は是非:
http://perrefar.com/ses-2010/
(試したらリンクが切れているようです。記録ミスか、後でアップされるのか。確認できたら更新します。)
—
■エンゲージメントのオートメーション
・定期的な自動ツイート
・特定のキーワードを含むツイートを自動でフォロー
・フォローしてくれたユーザーを自動フォロー
・新しいフォロワーに自動でDM送信
・ブログやプレスリリースを自動ツイート
・リプライの自動化
&
・「Nag Followig」(ナグ・フォローイング)
自動でフォローを行い、相手もフォローしてくれない場合は数日後にフォローを外す。これを何度か繰り返してフォローを促す。
どれも注意して使う必要がある。特に最後のナグ・フォローイングは危険。相当注意しないとブロックされる可能性大。
。。。最後のは凄いですね 笑
—
■分析のオートメーション
・Google Analytics
・・どこから実際に来たかパラメーターを挿入するなどして分析する
・フォロワー分析
・・フォロワーの言語、地域
・・リツイートしてくれるフォロワー
・・・最重要なので得点を与えることも可能
・ランディングページのA/Bテスト
・ソーシャルメディアのクリックをトラック
取得できるデータはできるだけ取得して、クリエイティブな分析をしよう。
。。。分析の部分は一気に流したので細かく追えませんでした m(_ _)m
—
最後にFreestyle Interactiveのトレーシー・ファルケ。ここで会場にTwitterのオートメーションを既にしているかアンケート。200人弱中、20人弱、いました。範囲にもよるでしょうが、既に結構やってるんですね。
Freestyle Interactiveはイギリスで結構大手のエージェンシーのようで顧客もかなりいるようです。ソーシャルメディアは数年前から普及していたが、Twitterに関しては企業から相談が激増している、と。
オートメーションに関して注意すべき点を事例と共に話してくれたのですが、逐一メモれませんでした。ポイントのみ、まとめます。
・Twitterのコミュニケーションで一番重要なのは、人。オートメーションは人との人とのコミュニケーションをより円滑に行う手段。
・100%のオートメーションは不可能。80%のオートメーションと20%の実際のコミュニケーション。
・現状、余りにスパム的なオートメーションが多すぎる。有名企業のTwitterにも数多く存在する。明らかにロボットが自動投稿・返信している内容は逆に引いてしまう。
・カスタマイズされたコンテンツデータベースをどこまで作りこめるかが重要。
・・ルールとトリガー
・・UGC
・・属性データ
・・カスタムパラメーター
・・キャンペーン
などなど。
・効果測定も重要。既存の解析ツールに独自のTwitter専用の解析ツールを開発して利用している。
・投資が必要と思われるだろうが、プラットフォームよりコンテンツにより投資すべき。
。。。クライアントに大企業が多いだけあり、かなりお金をかけて取り組んでいるようですね。大手?がここまで既に取り組んでいるとは。日本でここまで取り組んでいく代理店は出てくるのでしょうか。
—
。。。以上です。ブログのオートメーションとメールのオートメーションの両方の要素が合わさったような感じですね。まだまだ進化の過程にあるとは思いますが。オートメーションと聞くと、ついスパム的な発想をしてしまいますが、メール会員に登録した際に送るThank youメールもオートメーションですし。部分的に使えばかなり効率的かもですね。と言うか、Twitterがもっと普及すればオートメーションって範囲はともかく絶対に必要になってきそうです。
僕のTwitterの知識、特にオートメーションに関してはかなり足りないこともあり、知識を吸収しながらメモを取っていたので非常に疲れました。。。参考になる記事になっているか不安ですが、内容は豊富だったので幾つか小ネタはあればと。
あ、これでSES London終了です!数日以内に別途、全体の感想を記事にまとめようと思います。余り推敲もしていない記事ばかりでしたが、リアルタイム感を伝えたく。読んで下さった皆さま、ありがとうございましたm(_ _)m
16 years ago
午後のセッション「Why Does Search Get all the Credit?」。モデレーターはFoviance applied insightsのニール・メイソン。パネリストはClearSaleingのアダム・ゴールドバーグ、iProspectのマルセロ・サンチアゴ。iProspectってかつて世界最大のSEM会社の1社だったと思います。どこかの大手広告会社に40億位で買収されて話題になりました。もちろん最先端を走っている会社なんでしょうけど、久々に聞きましたね。
まず最初にニール・メイソン氏。初めに
「The Purchase Path」(購買パス)
と言う概念を紹介。トレードマーク取ってます。
購買パスを調べて問題点を明らかにし、問題点を改善していくことが重要と。購買パスには心理的には最終的な購買までに4つのプロセスを踏む。
興味
↓
検索
↓
検討
↓
購買決定
↓
購買
実際のネット上の遷移は色々ある。実際に購買までに実例のパターンには色々ある。
Froogle → アドワーズ
直接訪問 → 比較サイト
メール→メール→検索
などなど。
購買パスの遷移を実例分析すると色々なことが見えてくる。
例えば下記のデータがある:
—
パスパターン 22
検索で始まる 5
検索で終わる 11
パスのステップ 66
パス中の検索 26
—
パスパターン 10
最後がブランド検索の検索 7
最後がブランド以外の検索 3
—
最後が検索、特にブランド検索で終わるパターンが多い。
また別に実例を見てみると下記のデータがある;
—
パスパターン 22
検索で始まる 6
検索で終わる 61
パスのステップ 73
パス中の検索 11
直接訪問で終わる 11
—
この種の分析で言えることは、バナー広告は見られているしれないがクリックされずにデータに残るケースもある、と言うこと。この点は注意しないといけない。
また別のデータ:
—
購買数 31
ブランド検索で終わる 17
ブランド以外の検索で終わる 13
—
最終的に検索で購買するパターンが大半。途中でバナー広告を見ていたケースもある。しかし最終行動の時点ではクリックされないケースが多い。
また別のデータ:
—
パス 22
検索で始まる 5
検索で終わる 8
パスのステップ 47
パス中の検索 14
アフィリエイトで始まる 0
アフィリエイトで終わる 9
—
アフィリエイトのトラッキングの関係で始まった数値が測定されていない可能性がある。
—
この種の効果測定の手法は現在、進化し続けている。
最後のクリック
↓
全クリックを均等に評価
↓
特定のクリックを排除(例:30日以前)
↓
ルールベース(最後のクリックが50%、他は均等、など)
↓
より高度なアルゴリズム
この分析ができればできる程、広告の費用対効果が正確に測定できる。
—
最後に、何故検索が全ての評価を得るのか?を再度まとめ。
1) 最後のクリック vs 購買パス
2) 技術的な課題
3) ブランド検索が何故全ての評価を得るのか?
4) アフィリエイトが何故全ての評価を得ないのか?
5) 革命ではなく進化が必要
—
。。。以上でした。最後のまとめは良く分かりませんでしたが、、、、効果測定をどのように行うべきか、と言う話題は、初日のキーノートでもこの話題は出ていました。海外はもちろん、日本でもまだまだ最後のクリックをベースに効果測定を行っている会社がほとんどとは思いますが、今後重要になっていく分野なのは間違いないですね。特にソーシャルメディアの影響力を測るには不可欠の要素になっていくと思います。
—
さて次はiProspectのマルセロ・サンチアゴ氏。iProspectのブラジル支社の代表だそうです。
最初に広告業界の教祖?ジョン・ワナメーカー氏がかつて語った名言「広告費の半分は無駄になっている。しかしどの半分が無駄なのかは分からない。」を紹介。
—
そして「What Sticks」(何が刺さるか)アプローチが重要、と話します。
このアプローチに重要なのは下記:
・ゴールを共通化する
クライアントとエージェンシーの間で、またクライアントの組織間でもゴールを共通化することが重要。マーケティングキャンペーンの評価をする時に共通化されたゴールを元に、評価しなければ正しい評価が行えない。
・プランB、つまりバックアッププランを用意する
最初の施策がそのまま通じるとは限らない。常に別プランを用意すること。
・お金の価値を知ること
費用対効果、投資価値を常に念頭に置きながらキャンペーンを行うべき。
—
次にiProspectが考えるニューメディアのパラダイムを紹介。
メディアには3種類あると。
Bought / 購入メディア – いわゆる広告として購入するメディア。既存メディア含む。
Owned/ 所有メディア – 自社のウェブサイト。
Earned / 獲得(?)メディア – ソーシャルメディア。ブログやSNS、Twitterの記事、レビュー。
メディアをこの3つの観点から考えるでき。
—
iprospectの調査では、
「67%の検索行動は、オフラインで何かを見た影響で行われている:
まだまだインターネット以外のメディアも重要。
しかし
「55%のマーケッターが、検索マーケティングとオフラインマーケティングを連動させていない」
(対象データ不明です)
でもある、と。
検索とオフラインまで行かなくとも、検索とディスプレイ広告を連動させるだけでも効果がある、と。実際にバナー広告と検索マーケティングを併用した方が効果的だと言う数字を紹介。
—
次に効果測定の方法について。
・オンラインとオフラインの購買行動の両方をトラッキングしているか?
・キャンセルされた購買をトラッキングのデータに含めているか?
Google Analyticsを使っている人は多いと思うが、正確にトラッキングできているか一階調べた方が良い。実際の購買数と、Analyticsで取得している購買数を定期的に比較すべき。
—
。。。最初の人に比べて、余りに幅広すぎる話題で参考になる情報が無かったです。iProspec、、、かつてのエッジさが無くなったのでしょうか。
—
次にQ&A。
Q.
購買パスのデータはどうやって取得しているのか?
A.
(ニール氏)自社開発したソフト。Cookieを使っている。
Q.
ネット広告の効果測定は余りに大量のデータが取れ、何を指標にしたら良いか分からないことがある。パネリストは何を指標にしているのか?
A.
(ニール氏)ケースバイケースだが、現状の測定方法では購買行動の直近のアクションに評価が集まりやすく、検索に評価が集まりやすい。データに出ないからと言って他の手法を完全に無視しないことが重要だ。説明したように、データの取得方法が無いわけではなく、そこから見えてくるものもある。
(マルセロ氏)僕はこの業界に15年以上、関わっているが時に重要なのはどれだけ単純化して考えられるか、と言うことだ。目的を明確にして余計な情報にまどわされないことも大事。
(マルセロ氏)インターネットが未だにニューメディアと言われることに改めて驚かされる。広告業界は中々進化しない。未だにTVの視聴率ばかり気にしているだけで、効果測定のことは全く考えない。
。。。僕の考えじゃありません!
Q.
購買パスを分析をした後に、効果があるパスが分かるとする。その後にユーザーに効果的なパスを通らせるにはどうしたら良いのか?
A.
(ニール氏)最終的にはユーザーの判断になり、全てコントロールできるわけではないが、出稿する広告媒体や検索キーワードの調整である程度対応することは可能だ。
(マルセロ氏)サイトを改善するのは大変だが、ランディングページで誘導先を絞るなどすることで、ある程度誘導したい遷移を辿らせることはできるだろう。
Q.
購買の評価をする時の「アルゴリズム」はどうやって決めるのか?
A.
(ニール氏)基本的には過去の購買パスを分析して適切と考えるアルゴリズムを研究するしかない。現状、試行錯誤しながら行っているのが現状。
—
以上でした。購買パスの分析と効果測定の考え方は、まさにこれから普及していく考え方でしょうね。繰り返しになりますけど、ソーシャルメディアの効果測定を正しくするには必須の技術・方法である気がします。
16 years ago
2010/3/2のcompeteのブログから。
ある車ブランドのディスプレイ広告での調査で、広告を見たグループは、ブランドの純粋想起や広告の記憶で上昇があったが、ブランド好感度は少し下がったという。マーケターはこれをどう解釈すべきだろうかということで、この記事では、実際のネットでのビュースルーや検索件数の上昇といった行動データも使おうと言っている。まあこれだけのことなんだけど、いろんな角度から定量定性データで検証すべしといったところか。


Hiromi.Ibukuro@gmail.com (衣袋 宏美(いぶくろ ひろみ))
16 years ago
Webサイトのアクセスログを解析するためには、専用のツールが必要です。今回はこのツールについて、それぞれの特徴と選択のポ...
16 years ago
本特集では、2008年に日本コカ・コーラのインターラクティブ・マーケティングを統括する江端 浩人氏にインタビューしました。そ?..
16 years ago
昨年 10 月に始動した
ウェブマスターツール Labs 、皆さん、ご利用いただいているでしょうか? ウェブマスターツール Labs には、「
不正なソフトウェアの詳細 」や「
サイトのパフォーマンス 」という機能と共に、「
Fetch as Googlebot 」というツールがあります。このツールをご利用いただくと、Googlebot がクロールしたコンテンツを見ることができます。つまり、Google がどのようにあなたのサイトを見ているかが確認出来る便利なツールなのです。
そんな「 Fetch as Googlebot 」に、Google のモバイルクロールについて確認するオプションを追加しました 。
Fetch as Gooblebot-Mobile
公開当初、「 Fetch as Googlebot 」はモバイルサイトに対応していませんでしたが、公開後、モバイル端末向けサイトを管理しているユーザーの方々から、「 Googlebot-Mobile でページがどのように取得されるか確認する機能が欲しい」という、多数のご要望をいただきました。このような声にお応えし、Fetch as Googlebot に「 Googlebot-Mobile 」 のオプションを追加しました。日本語サイトで使用されることの多い cHTML と XHTML/WML の 2 種類のクローラーに対応しています。
是非この機能を活用して、あなたのモバイルサイトが Google にどのようにクロールされているか確認してみてください。そしてもし、Googlebot がサイトにアクセスできていないなどの問題が見つかった場合は、以前掲載した記事の「
モバイルサイトを正しく Google に認識させるためには 」や「
Google モバイル検索についてのウェブマスター向け情報 ( Google Japan ブログに掲載 ) 」などを参考に、トラブルシューティングしてみてください。
ご意見、ご質問は
ウェブマスターヘルプフォーラム でお待ちしております。
Google のクローラーが、あなたのサイトのウェブページをどのように取得しているか、よりよくご理解いただくために、役立ていただければ幸いです。
Written by 今泉竜一, ソフトウェアエンジニア
16 years ago
Posted by 菅谷正樹 プロダクトスペシャリストチーム
平素より Google AdWords および AdWords API をご利用いただきありがとうございます。
AdWords API v200909 への移行期間が残り 50 日を切りました。以前からお知らせしている通り、大部分の v13 サービスは 2010年4月22日 (太平洋時間)をもって、ご利用いただけなくなります。4月22日以降、下記 v13 サービスはアクセスできなくなりますので、まだ移行が完了していないお客様は早めにご対応ください。
下記 v13 サービスにつきましては、同様の機能が v2009 サービスで利用可能になるまでは、継続してご利用いただけます。
上記 3 サービスにつきましては、同様の機能が利用可能になるまで、少なくとも 4ヶ月は猶予期間を設けますのでご安心ください。
既存の v13 サービスと新しい v2009 サービスを同時に利用する場合のサンプルコードを用意しました。お客様のアプリケーションの移行にご活用頂ければ幸いです。

noreply@blogger.com (Google Blog)
16 years ago
最終日、午前最後のセッションは「Duplicate Content & Multiple Site Issues」。重複コンテンツとミラーサイトの課題、と言うテーマ。昔からSESであるセッションですが、出たことが無かったのとパネリストが気になったので出てみました。
モデレーターはJoblr.netのアン・F・ケネディ。パネリストはXSEOのマット・ペインズ、deMib.comのミケル・スヴェンセン、オムニマーケティングのシャリー・トゥロゥ(Shari Thurow)、そして再びファントマスター!
ちなみにファントマスターは、クローキングのソフト&サービスを昔から売っている英語圏では有名なSEOのプロです(サイトはこちら)。クローキングと言うどちらかと言うとグレーゾーン~ブラックハットに近いSEO手法(本人はホワイトハットのつもりだと思いますが)を行っており、風貌も体もがっしりしており髭を伸ばして声も低く、ヒッピーと言うかグールー的なので(会場ではZZ Topと紹介されてました)有名な人です。
まずはオムニマーケティングのシャリー氏。この人も昔から本を書いたりセミナーで話しているベテランです。ホワイトハット派の人ですし、見た目も話し方も優しい感じで小学校の先生みたい。
ただし内容は重複コンテンツの危険性や対処法など基本的な話が多かったのでパス。1つ言えば「テンプレートが共通でも特に問題は無いが、実際のコンテンツが違うことが重要。」辺りですかね。逆に言えば、コンテンツが同じか似すぎていたらテンプレートが違っても意味が無い」と言うことでしょうか。
—
次にXSEOのマット・ペインズ。
・重複コンテンツのリスクは、ランキングが下がる可能性があると言うこと。
・通常は最後に認識されたコンテンツが優先して表示されやすい。逆に言えば、このロジックをブラックハット的に悪用すれば、他社のコンテンツページの順位を下げる手法も無いことはない。とは言え、コンテンツへのリンク評価が重要であることには変わりなく、効果は一時的。
・重複コンテンツで削除されたページがあると思った場合はGoogleにcacheが残っているか検索し、cacheが無ければ削除されたと思った方が良い
・アフィリエイトやセッションID等で重複ページが登録されてしまっている場合、ウェブマスターツール上で削除するなどの処置をした方が良い。
・www、www無し、IPの3つのアドレスでページをホスティングしているケースで、まれに順位が下がることがある。ホスティング会社の設定ミスの場合もあるが。www無しか有りのアドレスにそれ以外のケースは転送させた方が無難。
。。。ミニティップスと言う感じでした。最後のはそうなのかな。。?
—
そしてファントマスターの登場。
いきなり画面に変数を含んだHTMLテンプレートを投影。
—————–
#CARBRAND# の自動車販売
#CARBRAND# の自動車に関する情報、 #CARBRAND# の自動車のレビューはこちら。
(適当に訳しました)
—————–
SEO対策用にテンプレートを使えば簡単に大量のページが生成できる。専用ソフトも色々ある。しかし上記レベルの単純な変数の入れ替えでは、全てが重複ページとして判断されてしまう。テンプレートや変数の表示バリエーションを複雑にし、ページ毎の内容を重複コンテンツとして判断されないレベルまで変更する必要がある。
僕らがやる場合は、専用ソフトで文章のほぼ全てにバリエーションを設けてページ毎のコンテンツが全く違う内容に見えるような手法を取っている。
。。。初心者のためのドアページ作成方法、のような内容でしたが、話の内容は重複コンテンツと見なされないページを自動的にどうやって大量生成するか?と言う限りなくグレーゾーンに近い内容。流石のファントマスターでした。
日本もこの辺はワードサラダとかブログの自動投稿ソフトを中心にかなり進んでいますけどね。良いのか悪いのかはともかく。あ、僕の会社ではワードサラダとかブログの自動投稿はやっていませんので。全部が全部クリーンな手法です、とは胸を張りませんが 汗
—
最後にdeMib.comのミケル・スヴェンセン氏。重複ページと重複コンテンツの違いを説明。
重複ページ
・特定のコンテンツに複数のURLが存在する
・技術的な仕様でそうなっている場合が多い
重複コンテンツ
・同じコンテンツが全く違う複数のURLに存在する
・技術的な理由以外でなっている場合が多い
。。。なるほど。
そして重複ページの対処法を説明。
・ドメインはwww有りか無しに統一した方が良い。
・httpとhttpsは特に気をつけるべき、検索エンジンは未だに誤認識する場合がある。
・上記の問題を防ぐには、サイトのグローバルナビゲーションのリンクは絶対パスでhttp://から指定し、検索エンジンに正しいURLを伝えるようにする。
・パンくずナビゲーションのリンクのURLがユーザー繊維で同じページなのに変わってしまうケースはどちらかに統一する。
・セッションIDやアフィリエイトやキャンペーンIDは注意する。検索ロボットがアクセスしてきた場合は、外すか、?を#と入れ替える(Google Analyticsの設定で同一ページと見なせる)。
・ページがリクエストされた際に URL の形式をチェックし、本来と違う形式のURLであれば正しい形式のURLに301転送するスクリプトを作成し、サイトレベルで導入することも手法。
。。。シャリーさん以上にテクニカルなアドバイスを色々教えてくれました。なるほど、と言えばなるほど、なものもありますね。意外とやってませんが。。。と言うか、そこまでやる必要があるのか、と言う気もしますが。
—
最後にQ&A。
Q:
ファントマスターの手法は危険ではないか?インデックス削除されたらどうするんだ?
A:
(ファントマスター)サイトは1つである必要はない。100のサイトを作ればいいだけだろう。
。。。流石ファントマスター。
ここでモデレーターが「1つの高品質のサイトを作る方が良いのでは?」と突っ込み。ファントマスターの答えは:
僕は決してブラックハットの話だけをしているわけではない。この手法は使い方によっては、重複コンテンツと判断されないで効率的にサイトを構築することができる。
。。。でした。さらに今の質問に重ねて次の質問。
Q:
複数のサイトを作るのは結果的に非効率的にならないか?
A:
(ファントマスター)100は言いすぎかもしれないが、要はやり方次第。
。。。それはそうなんですけど。
Q:
海外の支社が別言語のサイトを作る際に、会社情報以外のコンテンツに関しては本社の英語コンテンツを使いたいと言うのだが、重複コンテンツと見なされないか?
A:
(スヴェンセン)結論から言うと、そのまま使わせてはいけない。楽にコンテンツを流用しようとしているだけだし、Googleからのトラフィックを期待しているだけ。どちらにしても検索結果に両方のページが出ることは無い。オリジナルのコンテンツを作ってもらうべき。
—-
上には書きませんでしたが、Q&Aの途中で、シャリーが「今日の内容で私がホワイトハット、ファントマスターはブラックハットと考えるのは止めてほしい。ファントマスターは非常に賢い人。とても尊敬しているし、私も状況によってはクローキングをすることもある。」と言っていたことが印象的でした。ファントマスターが「ブラックハットと言われても気にしないけど。」と答えてましたが 笑
内容は特に得るものがあったわけではないですが、パネリストの話が同じくSEO業界のベテランとしては楽しかったです。
16 years ago
タイトルがイマイチですが原題が「Introduction to Information Retrieval on the Web」なので。SES運営会社であるインサイシブ・メディアのコンテンツ部門副社長であるマイク・グレハンがプレゼン形式で。
この人、確か元々結構有名な人な気が。。。数年前にSESで講演聞いたことあるような。ま、いいですか。
—
まずインパクトのある一言。
「Googleは世界中のありとあらゆる情報に簡単にアクセスできるようにする、と言っているが、十分に成功しているとは言えない。」
そしてワールド・ワイド・ウェブや検索エンジンの仕組みを紹介。久々に聞きました。。。内容は細かい&大体の人は知っていると思うのでスキップします。
以下、話の流れに沿ってポイントを。
・Googleは常にウェブの情報を収集し、また更新しようとする。何故ならウェブは常に拡大し続けている。
・検索エンジンのロボットはリンクを辿ってテキスト情報を収集する。それだけ。
・SEOはいかにGoogleに情報を効率的に取得させるかと言う作業。
・検索エンジンの情報解析の仕組みを理解すれば、必要とされるSEOは自然と明らかになる。「検索エンジンに理解されやすいページ」、いわゆる「サーチフレンドリーページ」をコーディングするテクニックは10年前から存在する。キーワードをTITLE、ヘッドライン、ボディコピーに特定のタグに記述する。グローバルナビゲーションを付ける、など。
しかしページの内容は誰でも自由に記述することができる。キーワードを詰め込んだページは簡単に作成できる。どの情報が正しいのか?
クラインバーグと言う科学者がリンク分析の概念を発明した。アルタビスタ(当時人気の検索エンジン)で「Search Engine」で検索してもアルタビスタが結果に出ない。日本の自動車メーカーについて検索してもTOYOTAやHONDAが検索結果に出ない。ページの内容以外の評価指標が必要と考えた。
そこでリンク分析の概念ができた。リンクを受けているページは信頼性が高いのでは?またページ同士の関連性もあるのでは?インターネット全体のリンク分析をしてみると、インターネットには、リンクの中心となるハブやオーソリティ的なサイトがあり、其々に特定の情報に関するコミュニティがあることが分かった。
それを検索エンジンのアルゴリズムに本格的に導入したのがGoogle。
—
そしてリンク対策がSEOの重要な作業となった。
—
そして様々な会社が「クリエイティブなリンクの取得方法」を考えてSEOを実施してきた。
・・・
現在のSEOは、
・HTMLページのテキスト
・リンクデータとアンカーテキスト
に加えて、
・ソーシャルメディア – タギング、ブックマーキング、レビューなど
も重要になってきた。しかしもっと進化していく必要がある。
・・・
ここでインターネットユーザーについて考えてみたい。ユーザーの行動には3種類ある:
1. インフォメーショナル – 情報を収集している
2. ナビゲーショナル – 訪問したいサイトが決まっている
3. トランザクショナル – 特定のアクションを行う
ユーザーの行動データには下記の2種類がある:
・ユーザーの検索キーワード
・ユーザーのページ遷移
Googleは上記を分析して検索結果の有益性を調べることができるまで進化している。
検索エンジン上での検索クエリーや検索結果のクリック率や滞在時間を分析しているだけではない。Googleツールバーを使っている人も多いだろうが、ツールバーがどれだけの情報をGoogleに供給しているか考えたことがあるだろうか?
・・・
さらにユーザーの意図まで理解することができるだろうか?
Googleは例えばこんな仮説を立てることができる。商品購入に関するキーワード検索(例:「パソコン 通販」など)が行われた場合、そもそもオルガニック検索の結果を出す必要があるのだろうか?全てアドワーズの商品広告でも良いのかもしれない。
実際にGoogleはそういう実験をしている。アドワーズの広告にプラスボタンを追加して、それをクリックすると、広告エリアが広がって商品写真とリンクで画面がいっぱいになる。オルガニック検索を出すことにこだわるよりユーザーにとっても便利かもしれない。
・・・
検索の未来はどうなる?
・UGC(ユーザー生成コンテンツ)とプロが作ったコンテンツの比率は5:1。圧倒的にUGCが多い。
・検索体験はもっと進化し便利になる。
・様々な種類の情報への需要が広がる。
・フィードバックのループによる改善が続く。
一番の変化はソーシャルネットワークで情報を探す行動が格段に増えること、かもしれない。既にYoutubeの検索回数はGoogleを超えるかも。ユーザーによるQ&Aサイトもニーズが高まっている(Naverを紹介)。
—
今後、ますます下記が加速化していく:
・ローカル、モバイル、ソーシャル、マルチメディア検索が統合されていく。
・ネット上のソーシャルコミュニティが生み出す情報が一方的なブランドメッセージのカウンターバランスとなる。
・アプリケーションが特定の情報を配信するツールとしてウェブブラウザーに置き換わる。
マーケティング手法も多様化せざるえない。
・・・
最後にYahoo!のサーチリサーチ部門副社長の「「HTMLとHTTPが、現在のコンテンツ流通の仕組みに適しているかは疑問だ」と言うコメントを紹介して終了。
・・・
。。。短期間で一気にウェブと検索エンジンの歴史、そして未来をSEOやマーケティングと関連付けて話してくれました。色々考えさせられることはありますが、まとめる言葉まで消化できてません。ただSEOに限定せずウェブの分野で新しい新規ビジネスを考えたくなるような内容でした!個人的にはキーノートよりはるかに示唆に富んでいて良かったです。
16 years ago
さて、いよいよSES London最終日です。今日は長丁場で頑張ろー。最初のキーノートは、ウェブ解析業界の重鎮、ジム・スターン氏による「Social Media Metrics」。ウェブマーケティング系のベストセラーを何冊も書いています。このMetricsと言う単語、日本語でどう訳すのがベストなのでしょうか。。。効果指標?固いのでタイトルは効果測定方法と意訳してみました。
ちなみに同じ名前の本を5月に発売するそうです。色々なトピックについて立て続けに話していったので要点をまとめて。
■マーケティングとは?
マーケティングは、羊とニワトリだ、と。
「羊を買うのにニワトリが一羽では足りない。二羽でも足りない。四羽で足りた。」
そこにはネゴシエーションとコミュニケーションがあった。それがマーケティングだ。
しかし大量生産、流通、マスメディアの現代、マーケティングは、声を荒げて自社の製品サービスを目立たせるだけ目立たす行為に変わった。
■データとは?
インターネットにはサーバーログからアクセス解析ソフト、アイトラッキングまで大量のデータが存在し、取得することができる。現在の技術を使えば、大半の、大量のデータを測定することができる。
より多くのデータを取得することが重要では無い。重要なのはデータの意味を理解し、分析すること。
■ソーシャルメディアの定義
ジム氏の考えるソーシャルメディアの定義。
「コンテンツを簡単に流通させるプラットフォーム全て」
オンラインのツールに限定されない。電話もその一種。駅の掲示板もその一種。
ソーシャルメディアはインターネットで急激に拡大しており、今後、人間のコミュニケーションの中心メディアになる。
■効果測定のゴール
ビジネスには3つのゴールがある。
1. もっと収益を上げる
2. コストを下げる
3. 顧客を幸せにする
そして顧客に対するのサブゴールは下記:
注目させる。
教育する。
広告を打つ。
マーケティングする。
販売する。
助ける。
カスタマーサービス。
関係する。
ソーシャルメディアは「関係」に強いが全てに利用できる。
評価指標の基準は下記:
リーチ – 対象顧客にどこまでリーチできるか
フリーケンシー – 何度、顧客にリーチするか
効果測定はどうする?
高速道路の看板を実際に見られているのか良く分からない。
ネットのバナー広告も同様。
↓
ブロゴスフィアを分析すると、ある程度の測定はできる。
ブログ自身の効果測定もRSSの購読者や記事の閲覧数である程度測定できる。
↓
そしてTwitter。Twittersphere(ツイッタースフィア)の分析でリーチやフリーケンシーの分析もある程度できる。
↓
これらにどれだけの意味があるのか?
■「アウェアネス」(Awareness / 認知度)の分析
・ブランド認知度
・ブランドで喚起される属性と質
ケンタッキー・フライド・チキンだったら、カーネル・サンダースのロゴがケンタッキーのロゴと認知されるか。どんなイメージが一緒に想起されるか。安い、美味しい、手軽、早い、指をなめる、など。
■口コミの力
口コミを活用すると一気にリーチ、フリーケンシーとアウェアネスは、拡げることができる。YouTubeのビデオが代表的。対してお金をかけずに作ったビデオが一か月で何百万人の人に見られる。
しかしその価値はどの程度あるのか?
それがどのように顧客・ユーザーに受け止められたかが重要。
ポジティブか?
ネガティブか?
最新のネット技術やサービスを利用すれば、ブロゴスフィアやTwitterの投稿を分析し、特定のブランドに関する内容の投稿数、そしてそれがポジティブかネガティブな内容か、と言うことまである程度、自動で解析することができる。通常は投稿内容に含まれたキーワードや文章を解析することで判断するが、しかし精度はまだまだ高いとは言えない。
(とある英語の自動解析サービスで「オバマ」についての自動解析を紹介し、半分程度の解析が間違っていることを説明)
様々なテクノロジーが存在し、研究がなされてきたが、文章解析のレベルはまだまだ低く、顧客の「態度」を正しく測定することは難しい。
■インフルエンサーの特定
ソーシャルメディアで重要とされるインフルエンサーを調べる方法もある。ブログであればRSSの購読者数やリンク数で分析できる。Twitterであればフォロワーやリツイート数で分析できる。
これらのデータをマッピングして分析すると、色々面白いデータを見つけることができる。
人の関係にも、話題の分析にも使える。
インフルエンサーは記憶に残り続ける、影響力を持ち続ける人もいるが、多くは常に移り変わる。亡くなっても影響力のあるマイケル・ジャクソンは特別。
■ソーシャルアクションとビジネスアクション
ソーシャルアクションには色々ある:
訪問
クリック
リツイート
ブログの投稿
ブログのコメント
レビュー
ブックマーク
これらをビジネスアクションにつながる必要がある:
購読
登録
購入
リピート購入
・
・
■ソーシャルメディアに参加する価値
10,000人がシャンプーについて会話しているとする。
新しい顧客の生涯価値(ライフタイムバリュー / LTV)が$29(利益)とする。
会話に参加することで、5%が顧客になるとする。
そのうち5%がリピート顧客になるとする。
・
・
・
参加価値があるか計算できる。
・・・
そして最後に締めの一言。
マーケティングは羊と最初に言った。羊をブランディングするか、ダイレクトセールスするか方法は色々あり、効果測定の方法は色々あるが、重要なのは顧客と関係することだ。
—-
。。。余り具体的な話では無く、それぞれ知っていることばかりだったので、正直、あまりピンとくるものが無かったのですが、測定自身が目的では無い、ソーシャルメディアで重要なのは顧客と関係を築いていくことだ、と言う基本的な考えを再認識する上では良かったですかね。
16 years ago
原題は「Link Building Methods and Risks」。We Build Pageのジム・ボイキン。CEO兼リード・ニンジャだそうです。SESのイベントで良く話している人ですね。
最初に「会場にGoogleで働いている人はいないよね?」と軽く笑いを誘ってスタート。2002年から7年以上、「Internet Marketing」でGoogle1ページ目のいることが自慢らしい 笑 コンテンツとリンクのスペシャリストだそうです。スタッフが35人いるらしいので、それなりの規模でやっているようですね。
ちなみにジム氏の会社では、2008年末まではリンクを買っていたそうですが、それ以降は買っていないそうです。
とは言え、ビッグワードで上位表示するにはリンクを買わないと無理、とも言い切りました。
。。。アメリカのSEOスペシャリストが言い切るとは。
—
しかし有料リンクにはリスクもある。有料リンクがペナルティを受けるリスクは常にある。正直、リスクは低い。ビッグワードで上位表示されているサイトの被リンクを見れば大半のサイトがリンクを買っていることは明らか。
リンクを買うことのリスクは色々ある:
1. Googleの有料リンクのフィルターに直接ひっかかる
2. 有料リンクのブローカーのネットワーク自身がペナルティの対象になり、リンク購入者までペナルティの対象になる
3. 誰かがブログであなたの有料リンクを公開し、Googleが自身が恥をかかないようにリンクを購入しているあなたのサイトをペナライズする
4. 難関ビッグワードで1位になった結果、競合があなたのサイトをGoogleにSPAMレポートしてペナライズされる
5. 特定のサイトから1,000のリンクを一晩で受けてペナライズされる
6. 自然なバックリンクが一つもなくてペナライズされる
などなど。
。。。正直、都市伝説的な要素も多そうですが・・・?
—
次に仮にペナルティを受けた際の対象方法を説明。
基本はGoogleにレポートするしかない。ペナルティの対象になったと思われるリンクはできるだけ外し、自分が無知だったことを説明する。SEO業者に騙されたと言うのも手。二度とやらないのでペナルティを外してください、と頼み込む。
それでも駄目なら会社の社長があなたを首にして社長自らGoogleに再度頼むしかない、そこまですれば対応してくれるかも。
。。。だそうです。
—
ここで有料リンクに関するQ&A。
Q:
もしも有料リンクを買うならどこで買うべきか?
A:
ブローカーも直接買ってもリスクはある。幾つか多分大丈夫な所もあるが、、、後でお酒をおごってくれたら教えても良いけど 笑(質問者は可愛い女性)
Q:
Yahoo!ディレクトリは有料リンクじゃないのか?
A:
有料リンクに間違いない。Googleが問題視しないのは謎。ネットに存在するほぼ全てのディレクトリはSEO目的で利用されている。ちなみにマット・カッツは数カ月前に、ディレクトリ登録するなら Yahoo! と Best of the Web は安全と言っていた。理由は人がレビューしているからだそう。それが理由で良いのか、と言う感じだが。
。。。日本でもYahoo!も含めてほぼ全てのディレクトリがSEO対策で利用されていますよね。それ言いだしたら全てのサイトが有料リンク買ってることになるけど。
Q:
急にリンクを増やすとペナルティにひっかかるのか?
A:
Googleは1日に何千もリンクが増えれば絶対に判別できる。ただリンクが張られたサイトをペナライズすると言うよりは、リンクの評価をしない対応を取るだろう。リンクの数で言うと僕の顧客で最大の顧客でも自然なリンクは一カ月に80程度。
。。。ソーシャルメディア入れたら一晩で数百リンク獲得も可能とは思いますけどね。ドメイン単位で考えれば上の通りかな。
Q:
ブロガーに記事を書いてもらう手法は効果があるのか?
A:
いろいろ言われているが意外とある。しかしフィルターにかかる可能性もあるし、特にお金を払って書いてもらう時は注意する必要がある。
。。。日本でも一時流行りましたが、もうダメですよね。
Q:
プレスリリースのSEO効果はあるのか?
A:
ある。しかしリンクを大量に得れると言ってもリリースの内容は同じでダプリケイトコンテンツでもある。全てのリリースからのリンクがそのまま評価されるとは思わない。
—
そして有料リンクの締めに再度一言。
最後に言っておくと、有料リンクを買わない決断をした場合は、結論から言うと現状はビッグワードでの上位表示は諦めた方がよい。ロングテールで勝負する覚悟をした方が良い。
。。。全てが全てそうとも限りませんが、、、ただそういう面はあるのも事実。だからうちのようなSEO会社もリンク対策をやる、と言うかやらざるえないんですけど。良くも悪くも
—
次にトラストランクの話。
ドメインが古かったり、古いドメイン、特に教育関係のドメインからリンクを得ているサイトの評価は「トラストランク」が高い。ページランクの概念はもう古い。
トラストランクの高いページを作ることが大事。例えば自分たちがリンクキャンペーンを行った場合、下記のような教育・政府系のリンクを平均的に得ている:
23% edu
21% org
5.5% k12
4% ac.uk
1.5% gov
残りはそれ以外
なんでここまで教育系のリンクが得られるのか?
そこで重要になるのが「トラストベイト」の概念。
皆も知っているであろう「リンクベイト」とは違う。
リンクベイトは、大量にリンクを集めることを意識したブログコンテンツを作成すること。リンクベイトの記事は内容に価値がなく一時的に消費されて終わってしまうコンテンツも多い。
「トラストベイト」はもっと質が高い。
基本的に学生と研究者がターゲット。
リンクの対象は、1998年以前のサイト、ブログ以外のサイト。
ここをターゲットにすることでトラストランクの高いサイトからのリンクを得ることができ、結果的に順位も上がる。
例えばGoogleで「pool safety(プールの安全性)」と言うキーワードの検索結果を見てみる。
#1 – 39リンク
#2 – 89リンク
#5 – 94リンク
#1のサイト程、リンク数は少ないが、トラストランクの高いサイトからのリンクが多い。とは言えどれも元々さほどリンクが多く無い。逆に言うと新たにページを作っても、努力次第でこれ以上のトラストランクの高いサイトからのリンクを得ることは不可能では無い。
実際に行う手順、まずは上位表示されているページより質の良いコンテンツを含んだページを作成し、リンクをしているサイトにメールしてリンクを張ってもらう。一見、大変と思うが、リンク先の数が少ないので作業的にはそれほど大変ではない。
実際に実施した場合、依頼した5%以上のサイトがリンクを張ってくれる。
「トラストベイト」になりうるコンテンツは、特定の情報に関して、ネット上に既に存在する有益な情報ページへのリンクを上手にまとめたページを作成するのが効果的。
。。。ブログのリンクベイトと余り変わらない気もしますが。日本でも最近多いですよね。いわゆる「まとめページ」の範囲でしょうか。リンクを獲得する対象をより検索エンジンの評価が高いと思われる教育系のドメインや古いサイト、つまりトラストランクの高いサイトをターゲットにしている点が違いですかね。しかし、上げたいキーワードによっては難しそうなケースもありそうですが。。。とは言えコンセプトは面白いです。
—
次に内部リンクの話。1ページからリンクの数を張れば張るほど、各ページに伝わる評価は落ちる。重要なページを意識してリンクを張る必要があると。
また同じサイトの複数のページから特定のページにリンクを張る時は可能であればいくつかの違うアンカーテキストで張った方が効果が高いと。
。。。普通の話でした。
—
。。。以上。1時間、ひたすらリンクの話と言うのも珍しいし貴重なセッションですね。有料リンクだけのセッションも聞いてみたい所です。有料リンクを今も買っている・使っている人を別に立ててディベートとか。まぁ、リスクがあるからやるかどうかはその人次第、と言う結論にはなりそうですが。
16 years ago
千里金蘭大学(児童学科)によるこどもコラボプロジェクト「世界でひとつの絵本をつくろう!」。絵本に出てくる主人公の気持ちをイメージしてオリジナルストーリーを作成...
16 years ago
「アメーバピグ」と「ペプシネックス」がコラボで期間限定「ペプシネックス」キャンペーンをアメーバピグで展開。「ペプシネックス」のオリジナルアイテムが用意されてい...
16 years ago
Yahoo! JAPANを運営するヤフー株式会社は4月1日より、ライトメディアが運営するオークションベースのオンライン広告取引プラットフォーム「Right Me...
16 years ago
米Googleは3月1日、オンライン写真編集サービスの米Picnikの買収を完了したと発表した。買収総額などの詳細は非公表。買収により、傘下の写真共有サービスP...
16 years ago
株式会社電通は、中国市場に事業進出する日系クライアントの事業戦略立案や販売戦略の立案、実施管理などのマーケティング活動支援事業を行う新会社「株式会社電通マーケテ...
16 years ago
生活者視点の次世代ソリューションにおけるプランニング実績や知見を持つ専門スタッフを、組織の壁を越え結集させ、複雑化するクライアント企業の悩みにソリューションを提...
16 years ago
プロトコーポレーション「Goo」。佐々木希さんの出演するテレビ広告に出てきた謎のキャラクター「鬼店長」のブログがあったりする。
noreply@blogger.com (Kenji)