14 years 9ヶ月 ago
3月14日~3月16日、サンフランシスコで開かれているコンバージョン率改善に関するイベント「Conversion Conference」に来ています。私の会社でもDLPOというコンバージョン改善サービスを行っているので勉強の一環で。日本は歴史的な震災で未だ予断を許さない状況かと思いますが、インターネットを通じた日本の復興・発展のためにも負けずにレポートしていきたいと思います。またこの度の震災にて命を失われた皆様には心よりお悔やみ申し上げます。まず始めはキーノートスピーチ「ソーシャル時代のコンバージョン」。 — SEO Japan コンバージョン改善に関するイベントが2日間もあるということ自体、アメリカのウェブマーケティングのレベルの高さを感じますが(最も去年から始まったばかりみたいですが)、さてどんな内容になるのか。 キーノートのスピーカーはイベントの主催者でもあるティム・アッシュ。SiteTuners.comというコンバージョン改善に特化したマーケティング会社のCEOです。 まず最初の会場にアンケート。「コンバージョン改善に特化したポジションの人はいる?」数十人挙手。「去年は同じ質問で一人もいなかった。すごい進歩だ!」 以下、内容。 ソーシャルメディアランドスケープ。様々なプラットフォームをユーザーが行き来している。複雑。 「ソーシャルメディアの専門家」はたくさんいるが。。 ソーシャルメディアは本当に新しい存在なのか? ソーシャルメディアは People 、我々自身に関することだ。 テクノロジーでは無い。 オランウータンから未開地の部族まで常にソーシャルだった。 「ソーシャルネス」に限界はあるか? 150のルール。150前後に人の集団までは、人々がダイレクトな関係やロイヤリティをお互いに感じることができる。それを超えると不可能。 実際に、軍隊のユニットやクローズドな社会で生きている宗教グループも150人以下になっている場合が多い。 ソーシャルの交流で人々は何を価値を見出すか? 人々が望まないこと。 ・信じていることや言葉、行動が合わない。 ・混乱。 「Consitency」、一環していることが重要。 コミットメント。 人々は一度考え方や意見を決めると、例えばプレッシャーになったとしても、それに基づいて行動しようというコミットメントをする。 – Dr. Robert Cialdni コミットメントについて。 ・毎日の生活をシンプルに生きやすくする。 ・覆すことが難しい。 ・より大きなコミットメントにつながることが多い。 ディズニーの最大のコミットメントは「ゲストの安全」。 最も価値のあるコミットメントは? ・ボランティア(自発的) ・パブリック(公共性) ・小規模 人々はコミットメントに自発性、公共性を持たせることで価値を見出す。 ——— 上記から導き出される、ソーシャルメディアのコンバージョンにつながる手法は? 1. 共有を簡単に 興味がある人々の前にトリガーを置くことが重要。 人々が行動を起こすには、モーティべーション、アビリティ(行動の実現性)、そしてトリガーの3つが同時にあることが重要。行動が起きない時はそのいずれかが欠けている。 – スタンフォード大学パースエージョン研究所 例えばラジオで募金を募集しても車を運転している最中なら募金したくでもできない。 ウェブの例。アウトドア通販のREI。商品ページに、FacebookのLikeボタン。5段階の評価ボタン。メール送信。ソーシャルの共有ツールを全て提供。 5つのマイクロコンバージョン ・Facebookのいいね!ボタン ・ツイート ・レビューを書く [...]
14 years 9ヶ月 ago
SMX West最後のセッションは毎度お馴染み、注目の「Ask The SEOs」。壇上にずらりと並んだSEOの専門家がSEOに関する様々な質問に答えます。 — SEO Japan モデレーターはダニー・サリバン。スピーカーはBlueGlass Interactiveのグレッグ・ボーザー、Bruce Clayのブルース・クレイ、サーチエンジンランドのバネッサ・フォックス、Performicsのトッド・フリーセン、Netconcepts創立者のステファン・スペンサー、High Rankingsのジル・ウォーレンというアメリカのSEOエキスパートとしてお馴染みの顔ぶれ。 パンダ・アップデートの特徴は? グレッグ:サイトを全体の品質で評価するようになった。低品質のコンテンツが多いサイトは評価しない。ロングテールでも上がりにくい。Googleはコンテンツ自体もスパムとみなすようになってきた。大規模なコンテンツスパマーが増えたせいともいえる。 バネッサ:作りたててで内容が無いページが多い場合はとりあえずnoindexタグを張っておき、中身が充実したら外す。Googleのマイリーが昨日薦めた手法。 ブルース:3カ月前からコンテンツの複雑性を判断する機能がついたが、それが多少コンテンツの品質判断の基準の参考になるかもしれない。 ステファン:Googleは複数のシグナルを分析する。ソーシャルでコンテンツが評価されればプラスになる。 トッド:Googleのブロック機能が今後シグナルになる可能性は十分ある。 サリバン:ブロック機能のデータは今回は全く使わなかったと明言していた。ただ将来的に使う可能性はある。 サリバン:eHowが今回のアップデートで生き残ったのは何故だ?皆がターゲットになると思っていた。ただeHowは品質はともかく見た目は広告も少ないし、他のコンテンツサイトより信頼できるサイトに見える。順位が落ちなかったことと関係あるかもしれない。 バネッサ:ユーザーにとってのサイトの信頼性は重要。 将来重要になると思われるSEOのテクニックはある? グレッグ:これまではとりあえず大量にコンテンツを投入して一部が結果を出せばよいという考え方が通った。これからは難しい。サイト全体の品質を考える必要が出てきた。大量ページのサテライトサイトを作る手法は通じなくなってくるかもしれない。 ステファン:内部リンクの調整がもっと重要になってくるかもしれない。 ブルース:キーワードが検索される意図をより理解する必要があるだろう。検索ユーザーのペルソナを理解して意図をつかむ。意図は検索ユーザーのロケーションやデバイスによって差も出る。これらを理解してより多くの検索ユーザーを満足させられるコンテンツを提供できるかが重要。 ジル:SEOのためのトリックは通じなくなる。検索ユーザーのことを考えてコンテンツを提供する地道な作業が重要。 トッド:リンクを大量に集めるだけでは効果がなくなる。 グレッグ:そうはいってもGoogleの傾向を分析し、キーワード分散や比率を考えて内部・外部を含む対策を行うことは重要であり続ける。それがSEOの仕事。無視することはできない。リンク戦略に関してクライアントにアドバイスもできない。 サリバン:SEOは重要だが、サイトやサイトが提供している製品サービスがまずありき。良いモノがあればそれを最大限PRしていくのは当然。その辺を理解せずSEOだけに取り組む人が多いのもまた事実。 ペナルティを受けたと思われる判断基準は? グレッグ:50位以上順位が下がったら危ない。インデックス削除されていれば手動の可能性もある。 トッド:サイトがペナライズされる場合、1つの要素というよりは複数の要因がある場合が多い。有料リンクを外して再申請すればインデックスが保障されるわけでもない。 グレッグ:有料リンクを買っただけど順位が劇的に下げることはまずない。過去長期にわたって色々なスパミーなことをやってきたかが影響する。検索エンジンはウェブマスターが思っている以上にサイトについて時間軸で理解している。 ブルース:50ペナルティを受けた会社から問い合わせがあった。有料リンクは買っていないといわれたが、詳しく調べると一部の部署が有料リンクを買ってリンクファームに参加していた。全て削除したら戻ってきた。 Bingのシェアが30%になってBing対策を何か行うようになったか? バネッサ:基本的にGoogleと同じ。特に特別な考慮をする必要はない。 グレッグ:Googleと比べてBingの進化は多少タイムラグがある。Googleではもう効果がないが、Bingでは効果があるテクニックもある。場合によってはBing対策を特別に行う。 バネッサ:BingはFlashをクロールしない。Canonicalタグの対応も悪い。テクニカルな観点から考えると個別に対応すべきこともあるといえばある。 ブルース:海外では大半の国でGoogleのシェアが90%以上なのでGoogleだけでいい。それよりもツイッターやフェイスブックなどソーシャルプラットフォームで検索サービスになりつつある点も無視できない。 何か会場に伝えたいことは? ステファン:SEOツールはツールに過ぎないと言えば過ぎないが、使い方によっては作業を大幅に削減できるのも事実。賢く使おう。 ブルース:マット・カッツ含めて専門家の言うことを鵜呑みにしないこと。サイト毎に様々な条件があるし、自分でテストしよう。 グレッグ:シグナルが複数あることを理解する。ウェブのソーシャル化でシグナルは多様化する一方だ。特に人によるレビューや意見。今後のランキングに大きな影響を与えていくはず。 トッド:SEOとPPCが完全に分断されて運用されているケースが多い。担当者が違ってもお互いに情報交換しながら両者をより効率的に運用するべき。 バネッサ:リンクが最も重要だった時代からユーザー体験に重要度が変わってくると思う。ウェブマスターツールやアナリティクスのデータをもっと活用していく必要もあるだろう。 ジル:検索結果ページ自体が複雑化している。ブレンド検索やソーシャルの結果がもっと取り込まれていく。特にソーシャルとローカル。またページ単位のSEOで無くサイト全体を考えたSEOがより重要になっていく。検索ユーザーの意図を理解することも重要。 サリバン:リンク構築は重要であり続けると思うがそれが全てでなく、1つのシグナルと認識すべき。フェイスブックやツイッターも益々重要になってくるだろう。 毎回恒例のSEOセッションですが、前の検索エンジンのセッションと比較しても1つの質問に対して皆が答えを掘り下げて答える形で、米国のSEO専門家の考えがより理解でき、いつも以上に勉強になりました。正直、時差ぼけが直らないままで、睡魔との闘いだったのですが、我慢して最後まで出て良かったです。というわけで、SMX West 2011、無事に終了です。 — SEO Japan
14 years 9ヶ月 ago
最終日3つ目のセッションは毎回お馴染みの「Ask the Seach Engines」。正直、無茶苦茶眠いのですが頑張ります。。。先程のセッションとほぼ同じ面子ですが何か新しい話が聞けることを願って。 — SEO Japan モデレーターはダニー・サリバン。スピーカーはマット・カッツ、マイクロソフトのデュアン・フォレスター、新興検索エンジンBlekkoのCEOリッチ・スクレンタ。 マット、ファーマー・アップデートはいつアメリカ以外に適用されるのか? Google:できるだけ早くと思っているが、国や言語別に多少の調整は必要で時間はかかる。今回のアップデートでターゲットにした問題はどちらかというとアメリカ国内のサイトに多かった。海外への影響は比較的少ないとも思う。 サイトの初回訪問ユーザーと他のユーザーに違うコンテンツを見せているが、問題になるか? Bing:検索エンジンが見つければ何らかの対応がとられる可能性はある。 Google:ジオターゲティングなどコンテンツの配信の種類を変える仕組みは普及してきている。検索エンジンに全く違うコンテンツを見せるのはリスキーと思ってもらえばいい。「検索エンジンに特別コンテンツを見せているか」どうかが判断基準になる。 シンディケーションサイトからのリンクは評価が低いのか? Bing:仮に200のサイトからリンクが張られていても評価は余りしないだろう。 Google:記事を書いて多数のサイトに配信する。検索エンジンはそれらのリンクを評価しないようにしている。 Blekko:当然評価しないようにしている。どのサイトを重複コンテンツを見なしているのかも確認できる機能を提供している。 Bing:SEOのために記事を作成してシンディケーション配信することは労力を考えると止めた方が良いかもしれない。 現実世界では、大手ECサイトが有料リンクを買ったり、スポンサー記事を書かせたりしている。自然にリンクを集めるだけでは限界がある。 Google:リンクを得て上位表示することを第一に考えるのではなく、良いサイト・コンテンツ・サービスを提供してロイヤルユーザーを育てることが重要。そうすればリンクも自然に集まりトラフィックも増える。「いかに他のサイトと差別化できるか?」と言うことを考える。そうすれば自然にリンクも集める。 Bing;オーソリティになることが重要。好きなことに一生懸命取り組んでその分野のオーソリティになる。何にでもいえる。サイトも同じだ。上位表示されるのに何百もリンクがいるわけではない。特定の分野に特化しそこで評価を得れば、全体にもプラスになる。 「PageRank This!」ボタンを作れないのか?皆が使うと思うけど。 Google:サイト評価を送るフィードバックボタンという意味?面白いアイデアだと思う。 2ページあった1ページが1ツイート、もう1ページが1リンクを渡したらツイート経由のページが上位表示された。ツイートの方が効果があるのか? Google:ツイートされたページはリアルタイム性があるとみなされて上位表示された可能性もある。単純に判断すべきではない。ソーシャルリンクは様々な意味で効果があると思うし、シグナルではあるが、それだけでいい話ではない。 UGCサイトで新しいページが作成された時、どのように認識するのか?例えばQ&Aサイトで質問だけで出ているページは質が低いと判断されかねない。 Bing:赤ちゃんが醜いといっているような質問だ 笑。PR活動も同時に行ってできるだけ回答がもらえるサイトにすることが大事だろう。 Blekko:クールなPRコンテンツを作って人を集めることはお金をかけなくともできる。 Google:Quoraは最初から品質にこだわって成功した。 キーワードが完全にマッチしたドメインやアンカーテキストの重要性が高すぎるのでは? Google:対応中だ。 プレスリリースサイトは有料リンクなのか?意図的にキーワードリンクを入れているリリースも多くある。 Bing:SEOを意識しすぎたプレスリリースだけに頼ることは危険だと思う。 Google:プレスリリースが単純に配信されただけでは余り評価しないかもしれない。ただそこからリリースが派生してネット上で取り上げられるようにあればそこにあるリンクはシグナルでもあり評価されるようになる。 CSSでテキストを隠すテクニックはどうなんだ? Google:隠しテキストは良いアイデアではない。 リンクファームからリンクを受けたらサイトに悪影響はあるのか?競合の順位を下げられることになるが。 Google:今のアルゴリズムはまずリンクを無効化することが基本。 Bing:それが起こるべきでないことは理解している。 Blekko:基本的には良いシグナルだけをカウントしようとしている。 Blekkoはどうやってインデックスから排除したコンテンツファームを20決めたのか? Blekko:アルゴリズムで判断した。広告が多すぎたり、質が低いコンテンツを問題視した。 Google:広告が多いサイトが悪いと即判断はできない。 BlekkoはXMLサイトマップを見ないのか? Blekko:今は見ていない。いずれ見るかもしれない。 パンダ・アップデートで低品質のコンテンツが多いサイトは高品質のコンテンツがあってもまとめて順位が下げられるという話があるが。 Google:サイト全体として低品質のコンテンツが多すぎればサイト自体が低品質と判断されかねない。ただアルゴリズム変更は今年だけでもまだまだ予定している。中長期的にユーザーに気に入られて利用されるサイトを作ることを目指すべき。 ホワイトハットクローキングをどうやって処理する? Google:Google的にはホワイトハットクローキングという言葉は矛盾している。例外はない。Flashサイトであればテキストベースのサイトを用意してユーザーにもアクセスできるようにしておけば良いだけ。 サイトのトラフィックとランキングに関連性はあるか?人気サイトはより上位表示されてもおかしくない。 Google:アイデアとしてはあると思うが今は採用していない。ツールバーでデータを取って参考にしているという噂があるがしていない。 Bing:シグナルとしてはあるが、ランキングに影響は与えていない。 Blekko:ISPからトラフィックデータを買うことはできる。参考にした場合、ビッグワードには良いかもしれないがロングテールの場合は効果があるか微妙。 [...]
14 years 9ヶ月 ago
最終日2つ目のセッションはGoogleのマット・カッツも登場する注目の「The Spam Police」セッション。SEO業者真っ青の内容になるのでしょうか。。 — SEO Japan モデレーターはダニー・サリバン。スピーカーはマット・カッツ、Bingのサシ・パササラシー、新興検索エンジンBlekkoのCEOリッチ・スクレンタ。 サリバンのイントロ。まずBingの持ち時間は10分、Blekkoの持ち時間は8分、Googleは20分。別に僕がGoogleを好きだからじゃない 笑。マットがスパム対策に一番長く取り組んでいるからだ。勘違いしないでほしい。 まずはBingから。 スパムとは? スパムページとは1種類、またはそれ以上のスパムを使ったページ。 基本的にはスパムが順位に与える影響をなくすというスタンス。 スパムの種類 コンテンツとリンク。 スパム手法 ページ: キーワード詰込み – 今は大抵見破る。 ドメインパーキング – 意味が無いコンテンツと広告を掲載するケース。 隠しコンテンツ – テキスト、リンク。同一色。hidden、invisibleタグ。 自動コンテンツ – 検索クエリーから自動的にページ生成。ワードサラダ。サイト内にコンテンツとして存在する価値がほとんどない。 リダイレクト – クローキング。 サイトハイジャック – サイトの一部分をハイジャックしてコンテンツを掲載したり商品を売る(バイアグラ率高い)。EDU系ドメインやソーシャルサイトで良く行われる。 スケアウェア – マルウェアをダウンロードさせる。 リンク: リンクファーム。 有料リンク。 相互リンク。関連性がないとスパム的。 次はGoogleのマット・カッツ。 今日は幾つかスパムの例を紹介したい。 ページの下に大量の隠しテキスト。コンテンツ的にはページに書いてあっても問題ないのに、デザイン的にやっている。 クローキング。 キーワードスタッフィング。キーワードのミススペルの全バージョンを記述。 ワードサラダで限りなく普通の文章を自動生成。見方によっては詩的な文章 笑。 相互リンク依頼の自動送信メール。僕のサイト(マットカッツ.com)にも大量に届く 笑。やりすぎの相互リンクは危険。 有料リンク。サイドメニューのリンクを掲載。コンテンツ本体にリンクテキストを挿入。ペイー・パー・ポストでもよくある。検索エンジンは無償で張られたリンクを最も評価する。リンクされるコンテンツ・サイトを作るべき。 ハックサイト。サーバーがハックされないように気をつけよう。常に最新のパッチを適用しよう。中国の個人ブログがハックされて、そこから有料リンク。 パンダ・アップデートのユーザーフィードバックは非常に良い。 もちろんアルゴリズムが100%完璧ということはない。常にユーザーフィードバックを得ながら改善を続けている。 [...]
14 years 9ヶ月 ago
SMX Westもあっという間に最終日。最初のセッションはSEOに関する様々な噂や都市伝説を検証する興味深いセッションから。 — SEO Japan 原題「SEO Myths, Mistakes & The Madness Of Crowds」。モデレーターはサーチエンジンランドのマット・マッギー。スピーカーはSEO業界のベテラン達が勢揃い。BlueGlass Interactiveのグレッグ・ボーザー、Netconcepts創立者のステファン・スペンサー、Omni Marketing Interactiveのシャリー・トゥロゥ、High Rankingsのジル・ウォーレン。ひたすらQ&Aで進行。 ページランクとランキングはイコールか? ジル:間違い。 シャリー:ページランクはもう見ない。 ステファン:ツールバーのページランクはランダムといってもよいのでは?本当の数値はもう少し信用できるんだろうけど。 グレッグ:サイト内でGoogleが各ページをどう評価しているのかという指標としては使える。 ジル:ページランクで検索結果が決まることはない。実際の結果を見れば明らか。 ページランクスカルプティングはランキングに効果がある? ジル:間違い。 ステファン:以前はかなり効果があったと思う。理論上は今もあるのだが、Googleのアルゴリズム変更で効果がなくなった。 グレッグ:大規模サイトでは特定のコンテンツの評価を上げるために効果があった。今は効果が余り無い。 ジル:今でもサイト構成でページにどう評価を与えるかということは重要。スカルプティングは意味がない。 シャリー:サイト構成がきちんとできていれば、スカルプティングはそもそも必要無い。 サイトの表示速度はランキングに影響するか? グレッグ:大きな影響はないが、重要だ。スピードはユーザー行動に影響を与える。 ステファン:遅いサイトはコンバージョンに悪影響だろう。幾つかの書籍も出ているが、サーバーサイドでもクライアントサイドでもスピードの改善をすることで、コンバージョンがかなり改善するケースが多い。 ジル:都市伝説にはそれなりの理由がある。Googleは基本的に早いサイトが好きだ。 シャリー:プライオリティではないが、重要ではある。 ツイートとLikeはランキングに影響するか? ジル:正確にどれくらいかは分からないが、多少はあると思う。さらにトラフィックも得られるだろう。ランキングだけで考えることではない。 グレッグ:人による評価は、機械によるアルゴリズムに加えて重要になってくるはずだ。 SEOを考えるとFlashを使うべきではない シャーリー:少し一般化しすぎだ。ケースバイケース。1ドメイン1URLで全てFlashというサイトは良くないと思うが。 ステファン:ナビゲーションにFlashを使うのは止めた方が良い。 グレッグ:テキストコンテンツをFlashで配信するのは止めた方が良い。Googleはインデックスできるというが上位表示されにくい。 ステファン:テキストをFlash化することでテキストのタグなど一部のセマンテックな情報が失われる。 H1/H2/H3は必ず使うべき? ジル:必ずというわけではない。H1/H2タグで順位が変わることは余りない。 グレッグ:セマンテックな構成が好きだし、僕は使える時は使う。順位にどこまで影響があるか分からないが使える時は使う。 シャーリー:私は様々なテストをしているが、シグナルにはなっていると思う。 キーワード密度はまだ重要なのか? ジル:昔はそうだったが、今は関係ない。キーワード数は幾つでも良い。 シャーリー:ページのコンテンツが特定のテーマであることは重要。検索エンジンも認識するし、ユーザーが検索結果経由で来た時にも目的に沿った情報を提供する意味で重要。 ステファン:キーワードをページに全く使われていなかったり、キーワードをスパム的に連呼する時以外に、キーワード密度は関係ない。 グレッグ:特定のキーワードだけよりキーワードと関係するキーワードもそのページに記述されているかということもセマテック分析では重要になる。色々な関連キーワードを入れることも重要。 XMLサイトマップはランキングに関係ある? ステファン:関係ない。スパイダーのクローリングの順番には多少影響があるかもだが、順位には関係ない。 グレッグ:順位に影響があると思っている人も多いが、関係ない。 ジル:XMLサイトマップがページのインデックスに効果があるか?という質問にすべき。ただそれも微妙ではあるが。 [...]
14 years 9ヶ月 ago
SMX West2日目最後は(途中1本休みました)、毎度お馴染みのマニアックなSEOセッションを。テクニカル系のSEOの質問にGoogleと大手新聞のサイト運営者が答えます。 — SEO Japan モデレーターはサーチエンジンランドのバネッサ・フォックス。スピーカーはバネッサも参加し、Googleのマイリー・オーイとデファイン・メディア(ニューヨークタイムズ子会社)のマーシャル・シモンズ。セッション名通り。Q&Aベース。 Canonicalはいつ使うのがベストか? マーシャル:ニューヨークタイムズ(以下NYT)では何百万というコンテンツを配信しており、また多数のサイトにシンディケーション配信している。Canonicalタグをサイト内で正しく使い重複コンテンツの問題を解決することは、かなり壮大なプロジェクト。時間はかかるが、結果的にはGoogleのサイト内でのクローリング時間も減らし、残りのページの評価も上がる。やる価値はある。 マイリー:重複コンテンツをクロールできないようにする、という形からCanonicalを使ってどのコンテンツがオリジナルかを指定できるようにした方( = 重複コンテンツであってもクロールできるようにする)が良い結果が得られると判断している。ウェブマスターツールズのパラメーター機能を上手く活用することも手だ。 マーシャル:ページネーションを処理する場合、Canonicalタグはどのように設置するのがベストか?例えばCanonicalタグを設置したページには全ページへのリンクを張るべきというが( = 全て表示 と同じ状態)。ページランクの分散率などが気になる。 マイリー:Canonicalの意味としては重複コンテンツをクラスター化して同じコンテンツを特定の情報源に分類する目的がある。例えばページネーションでいうと、10件表示でページ1とページ2があるとする。20件表示で1ページで同じ内容を表示できる。「全て表示」するページがあればCanonicalはそこに向けるべき。同時に向けているページの内容が限りなく(検索結果含め)同じ必要はある。ページネーションの処理の場合は通常問題ない。 バネッサ:検索結果が100万件の場合はどうするのが良いか?全件表示は厳しいのでは。検索結果をさらにカテゴリ化して最終結果まで辿り着るようにする必要もある。 2つのページ内容が違う場合、Canonicalタグを指定しても無視されるのか? マイリー:その可能性が高い。基本的にページ内容がある程度同じじゃないとCanonicalを適用( = コンテンツをクラスター化)しない。例えば検索結果の2ページ目から1ページ目へCanonicalタグが指定されていたら検索結果が全く違うので適用されない可能性がある。使い方としては間違っている。 ユーザーの目的や意図に合わせて表示順などを変えているので、サイト上に大量の重複コンテンツがある。Canonicalタグをこのような場合でも使うべきか? マイリー:URLが違いページが同じであれば使うべき。 CSSで文字を表示外に記述する手法はどうなのか? マイリー:例で説明したい。 CSSで動的画像を使ったナビゲーションをコントロールする場合、その箇所にテキストを置きたい場合がある。例えばグローバルナビゲーションで各カテゴリー画像にカーソルを持っていくとサブカテゴリーの一覧画像が表示される。その一覧コードにH1テキストを挿入し、CSSで position: absolute; left: -999px 等のコードを記述し、テキストが表示されないようにする。かなり使われてきたテクニックだがスパム扱いになる可能性がある。 これからは@font-face機能を使ってテキストを使うことで対応することをおススメする。IE6以降で対応している。 障害者へのアクセシビリティの問題に対応できるのか? バネッサ:どちらかというとポリティカルな話だね。 Display: none;はまだ使えるのか? マイリー:それ自体は問題ない。 Discusのコメンティングシステム(註:ページにコメントできるサービス、多数のサイトが導入)は便利だが、AJAXベースでコメントが表示されるのでインデックスされない。私の知っている人はAJAXベースで文字を表示する場合、別にコメントのテキストをnoscriptでページ内に表示させてGoogleにインデックスさせている。これは手法としては良いのか? マイリー:実際にページに表示されるテキストだし、問題ないと思う。 Flashをクロールできると数年前からいっているが、正直余り機能していない気がするがどうなのか? マイリー:Flashは常に難しいチャレンジだ。GoogleはFlashやFlash経由で外部ファイルも読めるようになったとはいっているが、通常のウェブページのテキストに比べればクローリングの成功率は低い。 バネッサ:BingはFlash対応できていない。それを考えると良いのでは? マイリー:常にチャレンジしているが、Flashが勝手にクロールされることを待つよりはページにテキストを記述することをお勧めする。 Disney.comが使っているテクニックはどうなのか?(註:多少グレーなFlash対策をしているようです) マイリー:個人的にはおススメしない。 サイト上に低品質のページが大量にある場合は高品質のページまで低くサイト毎低く評価される可能性がある。低品質のページを削除すべき、というが、単純に低品質のコンテンツをブロックすればいいだけでは?本末転倒ではないか。 マイリー:考え方はわからなくもないが、そもそも低品質のコンテンツはユーザーにとっても役に立たない場合も多いだろう。その場合は、サイト側で低品質のコンテンツにnoindexタグをつける手法もあるかもしれない。少なくともGoogleに努力していることは伝わる。noindexの場合はGoogleはまた戻ってくる。品質が上がったらnoindexを外せば良い。 バネッサ:巨大サイトの場合はrobots.txtでクロールによる負荷を避ける意味で排除する場合もありえるだろう。 シンディケーション契約しているコンテンツサイトの場合、シンディケーション先のコンテンツもクローリングさせる方法はあるのか?例えばシンディケーション先でコンテンツに関連する独自のコメントや追加情報があり、ページの30%がオリジナルと違うケースなど。 マイリー:どちらかというと、テクニカルというよりクリエイティブな質問の気もするが。 バネッサ:シンディケーションされたコンテンツをオリジナルより価値があるものにすることはかなりのチャレンジ。明確な答えはない。 マーシャル:オリジナルコンテンツが元のサイトで他の大量のコンテンツと一緒に掲載された状態より、シンディケーション先の大手サイトで情報がより整理された状態で配信されることで、結果的にシンディケーション側のコンテンツが検索結果で高く評価されることもあるだろう。 アグリゲーションサイトが氾濫しているし、それなりの質の高いものもあるが、コンテンツはほぼ全て外部サイトからのものだ。例えばショッピングのアグリゲーションサイトは大手サイトが商品キーワードでかなり上位に表示されているが、オリジナルコンテンツは無い。このまま上位に表示されるのか? マイリー:サイトのサービスが良ければ価値があるサイトとみなされサイトにリンクが多く集まりGoogleにも評価される。それはそれで上位表示されて良いのでは。 マーシャル:かなり難しい問題だとも思っている。ある意味誰でもできることだし。そういうサービスばかり乱立しかねない。 [...]
14 years 9ヶ月 ago
さて2日目午後最初のセッションは、昨年末に話題になったレビューサイトの検索結果への影響について。Googleのアルゴリズム調整があったという話もありましたが実際の影響がどれ位あるのか気になるテーマです。 — SEO Japan 原題「Ratings, Reviews & Reputation: Their Growing Impact On Search」。 モデレーターはサーチエンジンランドのマット・マッギー。スピーカーはOutspoken Mediaのレア・ドライズデール、KeyRelevanceのクリス・シルバー・スミス、15milesのグレッグ・スチュワート。 まずは15milesのグレッグ・スチュワート。名前の通り、主にローカル検索に強いサーチマーケ会社。 PC – 5回の検索中、1回がローカル関連。 モバイル – 3回の検索中、1回がローカル関連。 2009年と2010年を比較した場合、地域情報をネットで探す人が増えているという統計を紹介。 レビューサイトを探す割合: 32% – 全検索 40% – ソーシャル検索 45% – 音ばいる検索 4人の1人が検索の際、レビューサイトを参考にする。つまり25%。 ソーシャル検索の場合、40%、モバイル検索の場合、50%に増える。 消費者のうち、実際のレビューを投稿する人は23%。」 マーケッターがすべきこと: 1. 既存顧客にレビューサイトに投稿するよう依頼する。 2. 地域情報サイト(citysearch、yelp)に登録する。Googleの検索結果上でも連動して表示される。 3. ネガティブなレビューに反応する時はきちんとプランニングする。文句や言い訳は逆効果。対応する時はできるだけ早く行い、自分を正当化しないこと。できるだけオフラインで問題解決するよう促す(例えば謝った上で電話番号を記載し電話してもらう)。 4. 量より質。自作自演はばれる可能性がかなり高い。 5. ネガティブレビューを隠そうとしない。多少はネガティブレビューがある方が自然。50%の消費者は良いレビューと悪いレビューの両方がある方を信頼する。良いレビューだけより20%実際に利用する可能性が高い。ネガティブレビューはまた貴重なフィードバックでもある。改善できることは改善する。 6. 知識は重要。レビューサイトは多数ある。いわゆる「評価型」サイトだけではない。facebook、YouTube、Google Maps、yelp、Twitter、Citysearch、foursquareなど。 次はOutspoken Mediaのレア・ドライズデール。レビューのシグナルとテクニックについて。 Googleのレビューシグナルについて。 – レビューアーのロケーション。 [...]
14 years 9ヶ月 ago
初日最初のセッションは、ツイッターに関する話題から。今回はソーシャル関連のセッションに積極的に出るつもりです。ダニー・サリバンとツイッターのデル・ハーヴィーが2人で語る濃いセッションを。 – SEO Japan まずはサリバンから紹介。デル(女性)はツイッターにおけるGoogleのマット・カッツ的な人。トラスト&セイフティ部門のディレクターだそうです。スパム対策他色々なことをしていると。 以下彼女のプレゼン。 私が数年前にツイッターに参加した時はスパムの状況は最悪だった。当時に比べれば大分改善されたが、まだまだ。 ツイッターは特定のアカウントや投稿の質を直接的に判断することはない。特定のアカウントや投稿が他のユーザーにどう評価されているかということをベースに判断する。 ツイッターでやるべきじゃないこと: 1. 複数アカウントを作成して同じメッセージを配信すること。 気付いたらかなりの確率でアカウントを停止する。 2. 同じメッセージや広告メッセージを繰り返し大量に投稿しないこと。 システム的にすぐ気付く。 3. ハッシュタグをスパムに使わないこと。 ハッシュタグは関連性のある内容だけに利用すること。関連性が無いハッシュタグの投稿を繰り返すと、一定期間検索対象から外される。 4. ユーザーを騙すようなリンクを張らないこと。 特にマルウェア関係には厳しい。 5. リプライスパムをしないこと。 リプライを使ってターゲット広告を自動配信しないこと。 6. 自動投稿だけのアカウントにしないこと。 スパマーが良く使う手。 7. ユーザー名を販売しないこと。 ユーザー名を販売する行為が発覚した場合、ユーザー名自体を停止する。ブランド名や会社名が悪用されている場合は個別に連絡してくれたら対応する。 8. フォロワーを販売しないこと。 フォロワー増加サービスが最近増えているが、認めていない。 9. 他ネットサービスのアドレスブック・コンタクトリスト経由でスパムメッセージを送らないこと。 ユーザーから報告があればアカウントを停止する。 10. サードパーティのソフトウェアを使ってツイッターの規定外の行為を行ったりフォロワーチャーンを行わないこと。 フォロワーチャーン(Follower Churn)は相手がフォローしてくれるまでフォローとアンフォローを繰り返す行為。 11. スパム目的でリストに他ユーザーを追加しないこと。 報告を受ければアカウントを停止する可能性もある。 12. oAuth以外のアプリケーションを使わないこと。 非常に危険。アカウントのID/パスワードを相手に渡すことになる。 13. 他ブランドの名前をそのまま使わないこと。 パロディやブランドのファンであれば内容によっては認めている。ただしブランド名をそのまま使うことは基本的に認めていない。 14. キーワード検索による自動処理を行わないこと。 例えば特定のキーワードを含む投稿に対して広告の自動投稿を行う。人が介入していれば問題ない場合も多い。 15. リツイートを自動化しないこと。 例えば特定のキーワードを含む投稿に対して一言コメントを付けてリツイートするなど。人が介入してリアルなコメントがあれば問題ない。 ツイッターで注意すべきこと: [...]
14 years 9ヶ月 ago
今日から2日目です。多少は時差ぼけが直ったので頑張りますか。最初はサーチエンジン&SMXの主催者ダニー・サリバン自らが語るキーノート「サーチマーケティングの現状」。45分間、一人で何を語ってくれるのか。これを聞けばサーチマーケティングの未来が分かる?– SEO Japan 今回のイベントではPPCの話が余りなく、オルガニックの話題が多いが、許してほしい。最近、オルガニック系の話題が多いからね。 少し前までクールと言えばGoogleだったが、今はFacebookとTwitter。 とはいえオールドスクールもクールだ。GoogleやBingもまだまだクール。 Techmeme(IT系のニュースサイト)は、ネット上でバズっている話題をいつも見ることができる。BingがGoogleのデータを検索結果に利用しているというニュースは最近かなり話題になった。 Search is Back! あのニュースからというわけではないが、最近サーチの話題がかなり増えてきた。テククランチでもサーチの話題がかなり増えている。ディマンドメディアの話題やコンテンツファームの話題。Googleのマット・カッツも呆れている程に。2000年より2011年のGoogleが良いといっている。 そしてファーマーズ・アップデート。ネット中がこの話題で盛り上がっている。 実際の所、サーチの話題は尽きたことはない。 サーチでは予想外の変化が突然起こることがある。 昨年のGoogleプレイスの検索結果への統合。 昨年後半、例えばニューヨークタイムズが取り上げたネガティブな投稿を利用して検索結果を上げていると自ら公表した悪質ECサイトの話。5日後にアルゴリズム更新があり、そのECサイトの順位は落ちた。Googleがレビューを検索結果の参考にするというニュースがネット上に拡がった。 新年早々スクレイパーサイトが検索結果の上位にいることがおかしいという話題があった。23日後、Googleはスクレイパーサイト対策のアルゴリズムを導入した。 さらに3週間後、ファーマー・アップデート(パンダ・アップデート)が導入された。 Googleの仕事は早くて素晴らしい?! さて、実際の現状のGoogleの仕事はどうなんだろうか。 例えばパワーポイントに関するとあるロングテールの検索結果。1ページ目の10のサイト。1位はeHow。2位は全く関係ない。3位はパワーポイント2003の情報。4位はまぁまぁ。5位はコンテンツファームAnswers.coのサイト。正直、半数以上が役に立たない。その後も関係ない結果ばかり。 ファーマー・アップデートがどこまで効果的なのか良くわからない。この検索結果はスパムコンテンツというわけではない。ただほとんどが役に立たない検索結果。 スパムではないが、満足できない検索結果が多い もちろんBingやBlekkoも同じような検索結果。Googleだけの問題ではない。 イメージが現実に勝つこともある。12%の検索結果を改善した?実際はどうなんだろう。 Nofollowタグがコメントスパムを絶滅させたとGoogleは言うが、実際はコメントスパムは未だに氾濫している。 次に改善することは何? 例えば最近の有料リンク問題。JCペニーの件。現実的に多くのサイトが有料リンクを買っている。昔からあった話だが、ニューヨークタイムズが取り上げたことでネット上で大きな話題になった。有料リンクが問題視された。 でも有料リンクが絶滅したのか?全ての大手企業が有料リンクを買うことを止めるのだろうか?答えはNOだろう。そもそもJCペニーだって「リンクは買ったのはSEO会社が勝手にやったことだ」と言っている。 リンクに関する問題はNoFolowから有料リンク、スパムリンクまで未だに存在している。 検索エンジンはシグナルを絶望的に探している。 タイトルタグ、文章中のキーワード、リンク、タグ、、、。 サーチ3.0?ローカル、ニュース、ビデオ、ショッピング、、、サーチがバーティカル化することで、余計な情報を省き、適切な検索結果を返す。Googleは既に行っている。 サーチ4.0?ソーシャルとパーソナライゼーション経由の人によるシグナル(Human Signal)を活用する。例えばBingはFacebookを検索結果に統合した。Likeや友達の情報を活用している。 ちなみに別にBingの話をするためにBingからお金をもらっていないよ 笑 GoogleとBingはソーシャルシグナルをどこまで考慮するのか?昨年末に実際に両方の検索エンジンに聞いてみたこともある。両方の検索エンジンが検索結果に考慮すると答えた。その後すぐ、Googleは検索結果にソーシャルを統合した。Bingも統合した。 ソーシャルサーチの課題を知ってる? ソーシャルの情報はリアルタイムで変わり続ける。 “Anyone Know”サーチ(**を知っている?)をGoogleよりTwitterで行う人が増えている現実。 実験的にAnyone Know SEOというTwitterでの発言に別アカウントでサーチエンジンランドを紹介してみた。相手のことを知っているわけではなかったが、実際に多くの人に感謝された。質問している人も必ずしも友達にフォロワーや友達に質問しているわけではない。これは全く既存のサーチと同じ行動だ。 ソーシャルプラットフォーム上でサーチが行われるようになっている。 検索革命の話。 検索エンジンが登場する。家族、友達や専門家に質問していた。答えを得るまでに時間はかかった。 ↓ 検索エンジンが登場。瞬時に、信頼できる、人に知られることなく、質問に対する回答を得られるようになった。全ての情報が正しいわけではない。特に主観的な質問の場合(例えばどちらの携帯電話を買うべきか、など)。 そしてソーシャルネットワークの登場。 ソーシャルネットワークは我々をデジタル化し、検索可能にした。 検索エンジンはどうデジタル化された我々を取り込むのか? パーソナライゼーションの話。2つの重要な時期がある。 2009年12月。金曜日の午後だった。Googleがパーソナライズド検索を利用者がログインしている・していないに関わらず本格導入した。 [...]
14 years 9ヶ月 ago
SEO Japanでも関連記事を多数(多分日本で一番?)紹介しているコンテンツファームの話題がSMX West初日最後の話題に。コンテンツファーム対策のアルゴリズム更新を行ったばかりのGoogleの人が出ていないのですが、その分、自由な議論になるでしょうか? — SEO Japan 原題「”Content Farms” Or The Smartest SEOs In the World?」。モデレーターはサーチエンジンランドのマイク・マッギー。パネリストは今回初?!のYahoo!からルーク・ビーティ、AudienceWiseのマシュー・ブラウン、Blue Fountain Mediaのバーン・ホバート、PerfectMarketのティム・ルーダー。 マイク・マッギーから冒頭のコメント。最近何かと問題視されているコンテンツファームだが、人によって定義がかなり異なる。広告が多い、検索キーワードをターゲットにしている、質が低い、など。むしろ明確な定義はまだ無いといっていい。様々なコンテンツファームがあれば比較的役に立つコンテンツを作り出しているファームもあれば、全体的に質の低いファームもある。 今回のGoogleのパンダ・アップデートは多くのコンテンツファームに打撃を与えたのが事実。Yahoo!やEzineArticlesが代表的。ただeHowなどは特に影響を受けていないようだ。 まさに旬のこの話題、パネリストの発表内容に期待したい。 まずは今回のGoogleアップデートで大打撃をくらったYahoo!からルーク・ビーティ。 Yahoo!のコンテンツネットワークでは40万人以上をネットワーク化している。大半のコンテンツはアソシエイティドコンテンツ.comにホスティングされ、またそこからシンディケーション配信される。 今回のGoogleアップデートでどれ位打撃をくらったかと良く聞かれるが、 AssociatedContent.comへのGoogle経由のアクセスは1/3上がって2/3下がった という印象。インデックス自体は93%が残ってされている。 いずれにしても今回の件で色々と考えるべき課題はより明確になった: ・コントリビューターへの影響は? ・Yahoo!へのトラフィックの影響は? ・品質への影響は? ・マーケッターへの影響は? Associatedcontent.comをYahoo!買収前の歴史をさかのぼって考えたい。 2005年にコンテキスト = コンテンツ広告という概念を考えた その後、 コンテキスト = ハイパーターゲットなディスプレイ広告 に進化していった。 さらにYahoo!買収によってさらに コンテキスト = 消費者のアクティベーション(Consumer Activation) をいかに喚起できるか?というレベルに進化している。 クラウドソーシングによって編集された記事であり広告だ。コンテンツファームと呼ばれることは心外。 ちなみに今日現在、 70%のコンテンツはクラウドソーシングによって作られている。 30%のコンテンツはあなたが知っている人によって作られている。 次にPerfectMarketのティム・ルーダー。何故かプレゼン資料無し。 既存メディアが持っていた価値。現状のネットにおいても既存メディアが提供する品質の高いコンテンツは重要だ。ただウェブの進化に伴い様々なことが変わっている。 30年前、サタデーナイトライブ(註:人気のコメディショー)でこんなシーンがあった。カダフィ大佐のスペルが新聞や雑誌によって、全て違ったというニュース番組を紹介した。ちなみに今もメディアによってスペリングが違い100種類以上あるという話もある。 コンテンツファームとは何か?コンテンツファームは、人々が何に興味があるかということを自動で認識し、そこから低価格で大量のコンテンツを産みだす仕組みを持っている。 1. 大量コンテンツ生成 [...]
14 years 9ヶ月 ago
初日の午後最初のセッションは「検索マーケティングはトラッキングするな!」というタイトル。ユーザーのプライバシー問題が注目される中、ユーザーの行動履歴を取得することに対しての制限が法的にかけられる可能性もある現状と未来に関するお話を。今回から初登場の話題なので参加してみました。 — SEO Japan 原題は「Do Not Track & Search Marketing」。 SEO Japanでもお馴染みサーチエンジンランドのクリス・シャーマンがモデレーター。Antezeta Web Marketingのシーン・カルロス、Looper Reed & McGrawの弁護士トラビス・クラブツリー、Vincodoのティム・デイリー、そしてDidit.comのケビン・リー。弁護士事務所+検索マーケ会社の面々。 まずはクリスがセッションの趣旨を紹介。最近プライバシー問題が世界的に注目されている。昨日もヨーロッパでECサイト以外はユーザーのクッキーをトラッキングしている場合は、サイト訪問時にユーザーにそれを伝えなければいけない法律が可決された。現実的にユーザーがサイトを訪問した時にポップアップでクッキーであなたの情報をトラッキングしていると告知しなければいけない状況を想像できるか?このような動きが世界的に出ている。今日のセッションではそれにまつわる様々な話題を話し合いたい、とのこと。 まずはSEO会社Didit.comのケビン・リー。業界の超ベテランですね。 全体的な話をするとメディアのマーケットプレース化によりサーチと関係なく、広告主はより望んでいるターゲットユーザーにメッセージを伝えることができるようになった。ただその分、ユーザーの行動履歴を追っているのも事実。 行動履歴に関する規制が進むと、広告の関連性は下がらざるえない。一般的に消費者は、個人を特定しているわけではなくとも、自分の行動がトラッキングされているといわれると嫌がるだろう。業界側が啓蒙する必要が多分にある。 サードパーティクッキーが絶滅したらどうなる? 検索という意味ではリファラーデータがなくなるわけではないし、致命的ではない。他の広告システム(アドネットワーク、キャンペーン管理、アフィリエイトなど)の方が致命的だろう。 ブラウザーの設定でクッキーをブロックするユーザーも増えていく。同じく啓蒙活動がいる。 最近流行のリターゲティング広告、ユーザーにとってはどこまでが許容範囲か?離婚の弁護士を進められ続けたらどう思うか?行きすぎなパーソナライゼーションも同じ。 行動履歴問題に関しては、業界全体の啓蒙が必要。正しい技術と戦略を持つことも重要。 次はAntezeta Web Marketingのシーン・カルロス。歴史的にこの問題を見てみたい。 広告業界の有名な台詞。 広告費の半分は無駄になっている。問題はその半分がどこにあるのか分からないことだ。 ウェブが普及してきた頃(1996年~1997年)から、ウェブで可能となった行動履歴のトラッキング技術に関しては懸念の声はあった。2006年でもWall Street Journalは「クッキーはスパイウェア」と言い切った。2009年、ドイツではプライバシー問題からGoogle Analyticsの利用は禁止すべき、との声が上がった。 トラッキング技術はクッキーだけじゃない: 1. クッキー(ブラウザーテキストファイル) 2. Flash LEO(ブラウザークッキーと似ている) 3. リファラー(URLリファラー) 4. クリック(ウェブマスターツール) 5. ビーコン(画像やサーバーコール) トラッキングの活用法: ・ユーザーの行動履歴を取得 ・ユーザー毎に最適なコンテンツを表示 FTC(米連邦取引委員会)も、かなりの懸念をしている。 SEOの観点からのプライバシー問題。最大はキーワードのリファラー。クッキーも場合によっては関係してくる。 まだパニックになる必要はないが、マーケッターであれば、最低限の技術を理解し、議会の動向も確認しておきたい。 次にVincodoのティム・デイリー。 1998年頃からページのカテゴリーに基づいたバナー広告が表示されるようになった。ネットバブル崩壊の後、もっと高いROIを要求する声が広告主から上がった。バナー広告は衰退し、他のチャンネルに手法が移った。もちろん最大のチャンネルは検索、そしてGoogleだった。 [...]
14 years 9ヶ月 ago
さてSMX West、2つ目のセッションはGoogle Instantの導入から6カ月立った今日、Google&サーチマーケ会社がその影響について語るセッションを。日本のGoogleの今後を占う上でヒントになる点もあるかと思い。– SEO Japan モデレーターは同じくダニー・サリバン。スピーカーはGoogleからエンジニアのオサー・ハンソン。他はOptifyのエレズ・バラク、Search Influenceのアンソニー・コールマン、そしてPromediacorpのアヴィ・ウィレンスキーとサーチマーケティング会社の皆さん。 サリバンがまずは冒頭に一言。Google Instantが導入された時、「SEOは死んだ!」という話題が出た。さて、一体どうなのか? まずはGoogleから。セミアニュアルレポートという位置づけでInstantの状況を報告。 導入当時、SEOもだが、検索やシステムを破壊するのでは?!と様々なことをいわれた。 さて。まずは通常の検索にかかる時間を見てみたい。 ユーザーがキーワード入力→平均9秒。 ↓ ネットワーク 400ミリ秒。 ↓ 結果を出す→~300ミリ秒。 ↓ ネットワーク 400ミリ秒。 ↓ ユーザーが検索結果を選ぶ→平均15秒。 ここで発表。 今日からアンドロイドでもGoogle Instantを使えるようになった! Google Instantは、ご存じのように入力されるキーワードを予測して表示する。 例えばfloと入力されたらflowerと表示する。 Google Instantは下記の4つの組み合わせ: タイプする度に変わる瞬間的な検索結果。 検索キーワードの予測。 スクロール。 キーボードナビゲーション(今後強化)。 ユーザーは良いコンテンツを常に探している。 その手助けをする。 Google Instantの最新ロールアウト。対象国を次々に増やしている。Google Chrome Instantのリリース。 Instantの課題。 例えばnetと検索された際に、netflixからnetscapeまでブレンドされた検索結果を表示すべきか? 例えば予測したキーワード毎に検索結果をブロック毎に出すべきか? ユーザーの目の動きを研究。 など。 ブラウザーからオートコンプリート/検索リクエストがGoogleに飛ぶ。 ↓ Googleは予測したオートコンプリートの内容と、検索結果を表示する。 常に効果的なスケーリングを考えて様々な技術的な改善を行っている。 ここから各検索マーケティング会社の報告。 まずはPromediacorpのアヴィ・ウィレンスキー。ボブという人格を立てて様々なケースを紹介。 ボブは小さなカーペット店を営んでいる。ネット上でも良いレビューをもらっている。ところがある日から自分の店に関する不満が急にネットで増えだした。ボブはGoogleにネガティブなレビューをGoogleに通報して削除してもらおうとしたが、Googleはお馴染みのカスタマーサービスで全く返信なし笑 ボブはSEO会社を雇ってネガティブSEO対策を行ったがいまいち効果無し。そしてGoogle Instantが登場。自分の店の名前を入力した時点で、不平不満に関連したキーワードがサジェスションとして表示される事態に。売上は激減。飲酒量は増える一方だった。。。 [...]
14 years 9ヶ月 ago
突然ですが今日からSMX West 2011のライブレポートをさせていただきます!検索系のイベントではSESと並んで双璧のイベントがこのSMX。SMX Westはネット企業のメッカ、シリコンバレーの側で行われることもあり、SMXの中でも最大規模のイベントになっています。まず最初のセッションはSEO的には最も旬な話題の1つ、「ソーシャルシグナルと検索」に関して。 — SEO Japan 原題「Social Signals & Search」のこのセッション、ダニー・サリバンをモデレーターにGoogleのプロダクト・マネッジメントのディレクター、マイク・キャシディとBing Socialのポール・ユウという2大検索エンジンからスピーカーが参加するいきなりの豪華セッションです。 さて以下、内容。 まずはBingのポールから。 ソーシャル以前はウェブページのリンク関係でウェブが成り立っていた。今は人々の関係で成り立っている。 検索する際に、友達の興味や関連情報を一緒に表示させたら誰にとっても便利なのでは? 例えばBingで検索する際に、Facebookの友達の情報を一緒に表示する。例えば特定のレストランを検索結果に表示した際、友達がLikeしていたらその情報も一緒に表示する。映画でも同じ。Bingの検索とソーシャルを統合した結果。例えばWindows 7についての記事が検索結果に表示された時、友達がそのページをLikeしていたらそれも同時に表示する。場合によってはツイッターのつぶやきも同時に表示する。 つまり 「ソーシャルプレゼンスとウェブプレゼンスの融合」 だ。 プロセスとしては単純化すると下記の6段階に分けられる。 ネット上が人々がコンテンツをシェアする。 ↓ コンテンツがFacebookやTwitterに伝わる。 ↓ それらのソーシャルな情報が「公式な形で」Bingにリアルタイムに来る。 ↓ Bingがコンテンツをプロセス、インデックスする。 ↓ Bingがランキングして関連付ける。 ↓ Bingではユーザーが検索、ソーシャルとウェブが融合した体験ができる。 — Bingが参考にするソーシャルの情報。 ユーザーのアトリビュート: 友達・フォロワー・フォロー ユーザーのアクション: リツイート、リプライ、同じリンクをシェアしているユーザー 単純な「Like Farms」(ライク・ファーム = リンクファームと比較してこう呼んでいる)は既に通じない! とはいっても、現状、Like数が品質とかなり関連性があるのも事実。 スパムはコミュニティの分析でかなり特定できる。実際のコミュニティに比べて単純。 検索エンジンがソーシャル化するに連れ、考慮すべきこと: 品質、信頼性、人気、時間軸 良いコンテンツを共有されやすい形で提供することが大事。 スパムは通じない。 続けてGoogleのマイク・キャシディ。元Direct HitのCEOなんですね。どこかで聞いたことがある名前だと思いました。 まず僕自身のことを少し。Direct Hitは検索結果のクリック率を参考にしたアルゴリズムを持っていた。Ask Jeevesに売却した後、XFIREというオンラインゲーム用にインスタントメッセンジャーを手掛けていた。最後にMTVに売った。その後、FriendsTipsという友達によるレコメンデーションサービスを手掛け、Googleに買収され、そのまま僕も参加した。 さてGoogleのソーシャル検索とは何か? [...]
14 years 9ヶ月 ago
GoogleがアドワーズAPIをアップデートしたというニュースが飛び込んできたので週末ながら紹介します。日本の広告代理店さんがどれ位利用しているのか正直不明なのですが、ジオターゲティングやA/Bテストなどかなり高度な機能がAPI経由で利用できるようになったということでご紹介。 — SEO Japan Googleは今日、アドワーズAPIをアップグレードしたことを正式に発表した。今回のアドワーズAPIでは、クライアントに対するレポーティング、より充実したフィルタリング機能、ジオターゲティング、そしてA/Bテストなど様々な実験を行うことができるようになっている。 この最新のアドワーズAPI v201101を使うことで、例えば広告代理店がクライアントのサイトにコンバージョンポイントを設定し広告を管理することができる。例えば自動車メーカーのサイトで特定の車種のページを訪れたユーザーに対して特定の広告を表示することができる。 新しいレポート機能では、広告代理店が複数のクライアントにまたがった統計も見ることができる。これにより広告代理店がクライアント全体の傾向をつかむことができるようになる。また新たに地域別、デモグラフィック別、広告のエクステンション別、URLやクリエイティブ別のコンバージョンを細かく見ることができるようになった。 さらにこのAPIは広告キャンペーンで様々なテストを行うことができるようになった。例えばA/Bテストを簡単にサイトに導入することができる。 またジオターゲティング機能により、ユーザーのロケーションを特定し広告を出しわけることが可能になった。 このAPIのリリースにより、GoogleはAPIのバージョン v13 (レポートサービスとトラフィック予測サービスのみ)、v200909、v201003、そしてv201008を終了するようだ。ビッドランドスケープサービスはデータサービスに統合される。 この記事は、Search Engine Landに掲載された「Google Releases First AdWords API Upgrade Of 2011」を翻訳した内容です。 正直、このニュースが日本の皆さんにどれ位有益か分からないのですがAPI経由でA/Bテストができる話に魅かれてつい即効で紹介してしまいました。使いこんでる人にはとっても凄くて便利なアップグレードなのでしょうが、効果測定周りのビジネスしているベンダーには驚異の話でもあるのかもしれません。私の会社もLPOツールを提供していますかし。ま、高機能+導入コンサルティングで負ける気はしないのですが、ついつい気になってしまうニュースでした。– SEO Japan
14 years 9ヶ月 ago
週末なのでソフトなネタを。Google関連サービスでフォーム入力時に出てくるお馴染みのCAPTCHA画像ですが、Googleならでは?!のちょっと気になる画像をご紹介。この辺の遊び心がMSと違ってネットオタクの心を惹きつけ続ける魅力かも? — SEO Japan 多分僕が最近キーワードリサーチをやりすぎのせいかもしれないけど、、、ちょっと面白いGoogleのCAPTCHA画像を見つけてしまったので皆さんにも紹介したい: GoogleでBingと入力する皮肉 僕以外にもいろいろ面白い画像を見つけた人がいるようなので、ここでまとめて紹介したい: ‘no dick’ あなたが男性ならドキッとするかも・・・(翻訳してみてください) @ ImpactLab ‘retard’ 馬鹿にしてるみたいです @ Techeblog ‘hymen’ 日本語訳は怖くて書けないです @ yogomozilla ‘hymens much’ 意図的でしょ?! @ @ilmv この記事は、DataDialに掲載された「Google’s Amusing Capture 」を翻訳した内容です。 こんな言葉が出てきちゃうんだ、、、という感じですが、これが意図的ならある意味Googleのブランディング戦略って凄すぎ!と感銘する私でした。同時にインドや中国にCAPTCHA画像をひたすら見破ってデータ入力する人たちがいてそれがスパム企業対象に大きなビジネスになっていたりする話を思い出して世界はまだまだ広いなぁ、、、と再度邂逅する私でした。 — SEO Japan
14 years 9ヶ月 ago
一瞬、ドキッとするタイトルですがベンチャー起業家やスタートアップ企業に関わる人は是非一読して考えてみたい内容の記事です。日本でゾンビ企業というと「本来なら淘汰されているはずなのに、保護政策や融資で生き延びている企業」を意味するようですが、起業の本場では成長が止まったスタートアップ・ベンチャー企業は全てゾンビ企業呼ばわりのようです?! — SEO Japan ゾンビ企業が多すぎる。 モントリオールにはかなり広まっていて、他の地域でも同じように存在していることは確かである。ゾンビ企業は、原則的に永遠に生き延びることができるが、決して好転することのない企業である。そういった企業は“延命”のために、税額控除(有害無益であるという議論もある)か、政府からのその他の奨励金を利用しているのだが、所詮はゾンビの世界の生存者なのだ。そして、それはスタートアップ企業にとって良いことであるとは言えない。 私はゾンビ企業を経営したことがある。だから私は、それがどんなものかも、なぜそれをしているのかも、どう損害を与えるかも知っている。Standout Jobs(これもゾンビ化の時期があった)の前に、私は約10年間ある会社を経営していた。2~3回のイタレーションを経たため、それはシンプルなものではなかった。しかし、たしか7年目位にゾンビとなった。私は見て見ぬ振りをし、時間が過ぎ、私はまだその同じ会社を経営していた。ゾンビだ。 私たちはゾンビ企業を抹殺する必要がある。私たちは、より早く、より積極的にそれらを抹殺する必要があるのだ。 それは、すぐに失敗することについての大言壮語ではない。それは、心の奥底ではゾンビ企業を経営していることを分かっている起業家が、その企業を始めるためにすごい呪術と共に最初に使った巨大な斧を持ち出してズタズタに切り裂くための口実だ。今すぐにその企業を抹殺するのだ。待っていてはダメだ。自分の会社がゆっくりと痛々しくゾンビになるという避けられない運命に屈服するのを見ていてはダメだ(目をそらして知らないふりをするのもダメだ)。ゾンビ企業は長生きすることはできる・・・でも価値など何もないのだ。起業家として、あなたは自分のためにも他人のためにも価値のあるものを生み出すことができる。とにかくやるのだ。 確実に、失敗への恐れが問題の一部だ。敗北を認めることもそうである。両方とも不具合を生じさせることがあるが、あなたより先に多くの人達が、継続し大成功をおさめるために、失敗し敗北を認めている。 また、私は強いスタートアップの生態系がゾンビ企業の抹殺をさらに後押しすると考えている。あなたが、必死に自分の会社のゾンビ化を覆すことができるかどうか思案しようとオフィスで1人座っている時には、行動を起こすことはほぼ不可能である。大丈夫なふりをするのはもっと簡単だ。しかし、力強く活気のあるスタートアップの生態系があれば、他の人に頼ったり(アドバイスや精神的支援)、新しい希望のあるスタートアップのための新しく面白いアイディアをブレーンストーミングする生産的な時間を費やすことができる可能性はかなり高い。私は、自分が次に何をすべきか分からなかったために何かを残したり抹殺したりすることに躊躇することが良くあったことを自覚している。継続したネット―ワーキング、コネクション、機会、ブレーンストーミング、猛烈なスピード、アクションを助長するスタートアップの生態系の中には、飛び込むべき新しいチャンスがあふれている。あなたをすぐに生き返らせるたくさんの選択肢があるのだから、あなたはもっと素早く積極的にゾンビ企業を抹殺することができるのだ。 ゾンビ企業は、起業家にとっては死の落とし穴だ。しかし、ゾンビ企業を経営し、何年もとぼとぼと歩き続けることは簡単であるため、私たちは時々その中にいることを忘れてしまう。モントリオールのスタートアップの生態系は発展し続けてきたのだから、私はもっとスタートアップが売買されるのを期待している。人々は、自分のゾンビ企業をより早く抹殺するようになるだろう。なぜなら、彼らはすでに次のチャンスに飛び乗り、新しい共同設立者や新しいアイディアを見つけ、再び世界を舞台にするために復活しているのだ。 ゾンビに死を! この記事は、Instigator Blogに掲載された「We Must Kill Zombie Companies」を翻訳した内容です。 内容は人によって意見があると思いますが、個人的に色々考えさせられることが多い記事でした。私自身も10年近く今の会社を経営してきて規模間はともかく健全な黒字経営ができていますが、正直一時の急激な成長期は過ぎています。未だ懲りずに色々と取り組んでいることから自分の会社を「ベンチャー企業」と位置付けていますが、3年後も似たような状態であれば、ただの成長ステージが終わって緩やかに運営されている1零細・中小企業に過ぎないでしょう。 アメリカのスタートアップなどを見ていると、ある程度成長させた後は大手に売却して次の事業にチャレンジ!というケースも多く、またそういう起業を繰り返することを喜びにしているシリアルアントレプレナーも多いですよね。最も、ニュースで取り上げられるのはそういう話ばかりなので、実際には一定規模に達した後はだらだらと地道に運営を続けている会社も多いのでしょうが。私の会社では多少の規模感にはなったSEOをベースに、今の会社で次の事業を成功させたいと思い日々取り組んでいますが時に「ベースのビジネスがあるせいで次の事業を産み出す取り組みが会社として、個人として中途半端になっているのでは?」と自問することも多々あります。 もちろん1つの会社をじっくりと育てていくどちらかというと日本的な手法にも意味があることとは思いますが、事業毎にリセットして取り組んでいくアメリカ(シリコンバレー?)的手法もありますよね。少なくとも気持ちだけはアントレプレナー気質の私ですが、ここ10年のネット関連企業を見ているだけでも業界を代表する企業や産業自体を育てる邁進役企業を産み出すには後者の方が良い、というか後者のようなやり方じゃないと中々そこまでの新規事業って創造できないのかな、と思ったりすることもある最近です。 いずれにしてもゾンビ企業が蔓延っているだけの産業に未来は無いのは確実、一社でも多くのスタートアップやベンチャー企業が成長が止まることなく大きく育っていくことが日本の未来のためにも大事ですよね。個人的な意見ばかり書いてしまったので、話を大きくして終わることにします。 — SEO Japan
14 years 9ヶ月 ago
QuickOnlineTipsから初心者ブロガーに贈る50のアドバイスを紹介。意外とベテランブロガーに参考になることもあったりするかも? — SEO Japan ゲスト投稿:Sophie Williams 今回は、ブログ初心者のためにブログを書く秘訣についていくつか教えよう。ブログは、自分のアイディアや意見を簡単に共有できるオンラインの日記だ。言いかえると、ブログは、ブロガーが定期的に情報を更新する場所としてのウェブページの形の1つなのだ。 ‘ブログ’という言葉は、ジョーン・バーガー氏が‘ウェブ’と‘ログ’という二つの言葉を組み合わせて作った造語だ。この言葉が最初に使われたのは1997年だった。ブログは、それを介してお金を稼ぐことに真剣な人なら誰でも簡単に維持したり発展させたりすることができる。ブログプロバイダーのほとんどが無料で、よく使われているツールにはLiveJournal、Moveable Type、Bloggerがある。 世界には5000万以上もの非公式ブログが存在する。それぞれのブログは異なるテーマについて書いている。ブログを書くことに関してインターネットの本当の利点は、ブログを読む誰もが完全に自由に自分の意見を述べることができるということだ。ブログは様々な理由から書かれている。個人的な興味で書く人もいれば、ビジネスを目的とする人もいる。個人的興味のブログは、仲間や友人と自分の考えを共有するために書かれている。そして、インターネットを介してそれに出会った人が誰でも読む可能性があるということは明白である。 初心者のためのブログを書く秘訣 ブログには、読者の注意を引くような魅力的なタイトルをつけること。 自分が好きなこと、かつ、自分が知っていることをトピックに選ぶこと。 ブログに書く全ての記事が異なるものであること。 ブログのために書くことが、強制ではなく情熱であること 自分が話そうとしている主要コンセプトが最初の段落に入っていること。さらに、次の段落にはその詳細が入っていること。 背景情報は最後のパラグラフに追加すればよい。 本当に便利で役に立つコンテンツは他の人によって共有されることになる。 コンテンツは王様と呼べるほど大切。 ブログは毎日少なくとも1件の投稿があること。 社会的に活動したり、新しい人と出会ったり、自分のブログ記事を共有したりするために、Twitterのようなマイクロブロギングサービスを使用すること。 オーディエンスにターゲットを絞り、その人たちに好かれるような優れたコンテンツを書くこと。 不適切なリンクを置かないこと。 自分のサイトへのリンクは、頼んだだけでは得られない。 広告リソースや広告サイトにはリンクしないこと。 自分のサイトにコメントをしてくれる人とかかわり合うこと。なぜなら、これが他の訪問者の間で良い印象となるため。 箇条書きや見出しを使ってコンテンツを短く分けて書くこと。 メッセージをインフォーマルでフレンドリーなスタイルで伝えること。 読者からの反応を得ること。 各コメントに返信する必要はない。 自分が読者に伝えるメッセージは、単に言うだけではなく説明すること。 自分が好きではないものについてネガティブなことは言わない方がいい。 特定の場所、名前、連絡先の詳細、住所は言ってはいけない。 たった1つのトラフィックソースに頼ってはいけない。 直帰率が高いことを心配する必要は全くない。 フォーラムは、ほんの少し読者がいるくらいでは始めることはできない。 ソーシャルネットワーキングサイトに多くの時間を費やす。 “Hi”と言ったり、この記事を読めて嬉しいと言うようなコメントは、スパマーによって書かれたものかもしれない。 私達はこういうコンテンツを探していたと言ったり、私達は良い仕事を存続させなければならないと言うコメントは、スパムキューに追いやられるかもしれない。 全く関係のないコメントはスパムの可能性がある。 ブログ記事をあまりにも褒めすぎるコメントはスパムキューに追いやられる。 異なる議題について話したり、終わり方が不適切なコメントはスパムと見なされるかもしれない。 ブログサイトは、それを改名するよりも多く作られる。 自分が書くことを予定している主題がすでに決まっていれば、ブログ名は簡単に作ることができる。 ドメイン名には短いキーワードが入っていて、完全に総称的でないこと。ブログ名は簡潔であること。 自分専用のドメイン名を購入してみること。 自分のブログには覚えやすい名前を選ぶこと。 競合相手のブログ名に似ていないブログ名を選ぶこと。 合字や誤字が入ったブログ名は避けること。 自分のライティングスタイルを見つけてそれにこだわること。 コンテンツに取り掛かる前によく計画を練ること。 ブログタイトルは、読者の注意を引かなければならない。 ブログコンテンツと共に自分自身についても話すこと。 熱心に書くこと。 [...]
14 years 9ヶ月 ago
昨年末にGoogleがソーシャルシグナルを検索結果の基準に使っていることを公言し、FacebookやTwitterをSEOにどう生かす?ということがウェブマーケッターの新たな課題となりましたが、今回は何故かコピーブロガーからそんな疑問に対する答えを。 — SEO Japan ツイッターのリツイートやコンテンツの共有により生まれたリンクが、検索エンジンの最適化を介して、ランキングを上げる効果があるのか気になったことはあるだろうか? 長い間、この疑問に対して、誰も確かな答えを持っていなかった。なぜなら、リンクが検索エンジンのランキングを上げるために“票”扱いされる事態を防ぐため、恐怖のnofollowが大規模なソーシャルサイトの多くで用いられためだ。それでも、新しい読者をコンテンツに引き付ける効果があるため、ソーシャルネットワーキングのリンクは、トラフィックの面でも有益である。 しかし昨年12月、グーグルは若干状況が変わったと認めた。以下に皆さん、そして、そのコンテンツにとって、この変化が何を意味するのかについて説明していく。 2010年5月、グーグルのマット・カッツ氏は、グーグルがソーシャルメディアをシグナルとして利用していないと明言した。しかし、同年の12月、同氏は考えを変えたと同じように堂々と明言したのだ: グーグルは、以前からウェブ検索のランキングでも用いているように、現在もツイッターとフェイスブックのリンクをランキングで用いています。また、ツイッターやフェイスブックでのライターまたはクリエイターの評判を理解するための試みも行っています。[…] 現在は比較的浅く利用しており、有益性に応じて、そして、強度に応じて、時間の経過とともにどの程度利用するのか検討していく予定です。一つ注意してもらいたいのは、かつて大量のリンクを得るために人々が行ったように、「相互的なフォローを手に入れて、大勢のフォロワーを獲得しよう」などとは間違っても考えないことです。 ページランクが、リンクの数に依存しているだけではなく、リンクの質も重要視しているように、質を意味するフォロワー、つまり、ボットや一部のソフトウェアではない実在する人々について考えてみる必要があるでしょう。 要するに、グーグルはソーシャルメディアでの共有はまともな人々から不快な連中を取り除く上で理に適った方法だと決定したことになる。 現在、恐らく影響は今でも弱いものの、グーグルはソーシャルメディアの共有パターンが最良のサイトとページを発見する方法として、 – そしてスパムを10ページ目に蹴落とす方法として信用出来るかどうか探っている。 (思い出してもらいたい。SEOの大原則は、コピーブロガーの大原則と似ている – ユーザーをくだらないコンテンツに導くことなかれ ) シグナル グーグルは約200個の“シグナル”を使って、ページが有益か役立たずかを判断している。 現在、ツイッターやフェイスブックからのリンクは、シグナルとしては弱い部類に入る。つまり、常連のシグナル – 従来のリンクを何本持っているか、リンクを張っているページのオーソリティ、使われているアンカーテキストのタイプ、そして、オンページのキーワードや関連するコピー – が重要視されているのだ。 (この仕組みについて興味があるなら、コピーブロガーが提供するSEOコピーライティングに関する無料のレポートに目を通しておこう) しかし、ソーシャル共有サイトからのリンクは、検索エンジンが利用するシグナルであり – SERPの上位に良質なページを格付けする上で頼りになることが実証されれば、重要視されるようになるだろう。 重要なオーソリティ グーグルとビングは、サイトにリンクをツイートしたユーザーのオーソリティを考慮すると認めている。 実際のオーソリティを持ち、見た目も行動も本物のユーザーが、サイトへのリンクをツイートすると、新人(またはボット)がリンクをツイートするよりも重要度が高いとみなされる。 要するに、フェイスブックの友達が多い人やツイッターのフォロワーが多い人の機嫌を取らなければいけないと言うことだろうか?必ずしもそういうわけではない。 そうではなく、飛び抜けて際立つコンテンツを作成する取り組みを薦める。ソーシャルサイトでの共有の特徴により、最高のアイテムは上位に格付けされる傾向がある。10万人のフォロワーを抱えていなくても、100人のフォロワーの中にはさらに多くのフォロワーを持つユーザーがいる可能性もある。 しかし、最大のユーザーの注目を得るには、最高の作品を提供しなければならない。そのため常に最高の作品を作る努力を心掛けよう。 差別化を図るには? ソーシャルネットワーキングサイトを操作して、フォロワー/友達の数を増やす行為は、絶対に避けてもらいたい。 実際よりも大きく見えるような時代遅れの手品に頼るべきではない。その時間と労力を – ライターとして成長するか、もしくは自分の作品を必要とする優秀なライターと手を組んで – 良質なコンテンツを作るために注ぐのだ。 (交換条件として、料金を支払ったり、ビジネスの専門知識を提供したり、またはグラフィックデザインにおける優れたセンスを提供したり、はたまた美味な洋菓子を提供する手もある。いずれにせよ自分自身で何を与えることが出来るのか考えてみる必要がある) トラフィックを得るためにSEOのみに頼り、ソーシャルメディアを避けているなら、考え直すべきである。 ソーシャル共有はシグナルとして強くなるだけでなく、適切なビジターをサイトに導くメリットが他にも数多くあるからだ。 昨年末、Scribe SEOがツイッターをリンク構築ツールに加えた理由がここにある(今後もソーシャルメディアのリンク構築ツールをリリースしていく予定だ)。SEOが進化するにつれ、Scribeも進化している。 ソーシャルメディアとSEOは、大方の想像とは異なり、似ているところもある —実際に絡み合うようになっており、今後もこの傾向は続くはずだ。 明日、グーグルの気が変わったら? この疑問はSEOの戦略を計画する上で常に考えておきたい疑問である。 ツイッターやフェイスブックをSEO目的でリンクを生成するために利用する取り組みは、短期的な効果しか期待できず、時間を注ぐ価値はないだろう。 しかし以下の目的でツイッターとフェイスブックを利用するなら、私は自信を持って奨励する: リンクを生成し、さらに [...]
14 years 9ヶ月 ago
Googleが行ったコンテンツファーム対策と見られる大規模アルゴリズム更新に関する状況分析をサーチエンジンランドから。SEO Bookの記事よりさくっと読めます。今回、最もダメージを受けたサイトは何とあの会社だったようです。 — SEO Japan 2月24日、グーグルは検索アルゴリズムに対する大きな変更の告知を行った。この変更は、浅はかなコンテンツおよび質の低いコンテンツを検索結果の上位から取り除くための取り組みであった。ターゲットはコンテンツファームだと見られていた。それでは実際にコンテンツファームは影響を受けたのだろうか?どのサイトが被害を受けたのだろうか?そのデータが手元に届きつつある。 皆さんは、ディマンドメディアのウェブサイト「eHow」が、損害を被ったと予想していただろうか?そんな人達が驚くデータが出てきた。2つの調査の結果によると、eHowは恩恵を得ていたことが分かったのだ。現在、データの一部を処理している段階だが、最もダメージが大きかった、“コンテンツファーム”タイプのブランドはAssociated Content(アソシエイティド・コンテンツ)のようだった。 Sistrixが明かす敗者 Sistrix(シストリックス)は、アルゴリズムの変更以前および以降の100万のキーワードを調査した。その後、「ビジビリティ」(シストリックス独自のインデックスのバリュー)で格付けした。ビジブリティは、キーワードでのポジションを失った数、具体的なランキングのポジション、そして、この結果から推測されるクリックスルー率を考慮して算定されている。 インデックスを利用する点は理に適っていると言えるだろう。なぜなら、失ったキーワードの確率のみでランクを決めると、比較的ランクインが少ない一部のサイトが上位の“敗者”リストを独占してしまうからだ。以下に、シストリックスにより、ビジビリティを大きく失ったと算定されたドメインを挙げていく: ドメイン ビジビリティのインデックスの損失 SISTRIX (失った%) wisegeek.com 93.3622 -77% ezinearticles.com 58.4273 -90% suite101.com 50.755 -94% hubpages.com 47.7632 -87% yourdictionary.com 39.5044 -74% brothersoft.com 37.6418 -66% buzzle.com 36.7005 -85% associatedcontent.com 35.7198 -93% freedownloadscenter.com 27.2522 -90% essortment.com 23.4146 -91% fixya.com 22.9456 -80% americantowns.com 22.6942 -91% lovetoknow.com 21.4714 -83% articlesbase.com [...]
14 years 10ヶ月 ago
Googleが検索結果の12%に影響を与えるとまで宣言した久々の大型アルゴリズム更新、ターゲットがコンテンツファームであることは周知の事実になりつつありますが、順位を大幅に下げられたコンテンツファームもあれば下げられなかったコンテンツファームもあります。そんな悲喜こもごもの現状を超えてSEO Bookが分析。 — SEO Japan 世の中を動かすのはお金です メディアは、利鞘が全てである。eHowは1998年に創設され、$3600万ドルのベンチャー資金が投じられていた。しかし、元々のコスト構造は、コンテンツのコストが高いために崩壊した。そして、eHowの経営は大きく傾き、2004年に$10万ドルで売却されていた。オリジナルのサイトのオーナーは、グーグルボットをブロックしていた。グーグルボットのブロックを解除し、既存のコンテンツに基本的なSEOを実施するだけで、このサイトは売却後2年で$400万ドルの収益を獲得するようになり、収益は400倍に増えた。 ディマンドメディアはeHowを2006年に買収し、コンンテンツの価格および質を下げつつ、サイトを拡大していった。その後、同社はeHowに依存した状態で株式を公開し、$15億ドルと評価されることになった。ディマンドメディアのIPOの直前に、グーグルのマット・カッツ氏は、グーグルの公式ブログでコンテンツミルに警告を発していた。 誰も見出さなかった価値を見出す ディマンドメディアが現在の評価額に値するかどうかを問う議論が行われており、一時、ニューヨークタイムズは、About.comをディマンドメディアに組み込み、合併会社の49%を所有することで、ディマンドメディアを買収しかけていた。しかし、7年前にたった$10万ドルで売却されたサイトについて、ここまで白熱した議論が行われている点こそが重要だと私は思う。現在、確かに機会は縮小し、当時とは変わっているはずだが、その他の人達が見出さなかった価値を見出し、見捨てられていたアイテムをリサイクルする取り組みは、とても有益なのではないだろうか。 eHowの取り組みに関する6ページの記事の6ページ目に、OCR ソフトウェアを使って、SEO業者が実行可能なリサイクルのアドバイスが掲載されている: コストを低く抑えることが肝要だと同氏は語った。出来れば、知的財産のコンテンツに料金を支払うことなく、著作権の有効期限が切れているマテリアルを探すべきだと同氏は主張している。1923年以前に出版された本なら全て利用することが出来るようだ。 同氏は大量の古い書籍をウェブサイトに掲載するプロセスを行っていると述べていた。例えば、数時間の作業で、世紀の変わり目のクレオールのレシピをビンテージのクレオール料理のサイトに変えることが出来るようだ。その後、グーグルのアドセンスプログラムを使って、エビや鍋やスパイスに対する広告を載せて、エビのレシピを求めてやってくるビジターを導けばよい。 この取り組みのスピンオフとも言えるのが、LoveToKnow(ラブトゥノウ)であり、1911 百科事典をオンラインで提供している。また、アーティクルベース(寄稿者のサイトにリンクを張ることで人気を得たアーティクルファームの)は、現在、全てのアウトバウンドリンクにnofollow処理を行い、なんと毎月$50万ドルの収益を上げているのだ。 アーティクルベースはどのようにしてここまでの規模に成長したのだろうか?アーティクルベースおよびEジンアーティクルズは、3、4年前に記事ディレクトリサイトが大きく失墜したスランプを乗り越えた“選ばれし少数”のサイトである。しかし、両者のモデルは前回のグーグルのアップデートの後、ピークを迎えたようだ。 検索は政治である コンテンツファームは、検索業界にとって政治的な問題になりつつある。「悪魔のSEO」をプレスの視点で「スパム製造機」へと置き換えつつある。リッチ・スクレンタ氏は、100万のスパムページが毎時作られている点を表すスパム時計を作成した。その後、同氏は、20のコンテンツファームサイトをBlekko(ブレッコ)の検索結果から追放し、スパムマンを見捨てることでさらにスパムを追い詰めた。 また、マイクロソフトもバッシングに加わり、ハリー・シャム氏は、グーグルがウェブ汚染に資金を提供していると強調した。ブレッコのモデルが、グーグルがウェブをゴミのようなコンテンツで汚染していると言う主張に基づいている点に関して、マイクロソフトは同意している。その一方、エンドユーザーの不満は大きいものの、メディアがグーグルに関する見解を求めることが可能なエキスパートは、 – グーグルの恥ずかしい見せかけを強調する行為に快感を覚えているSEO業者を除けば、ほとんどいない。フリーランスのライターは、ウェブを台無しにしたのはマーケティングだと主張するかもしれないが、現時点では、グーグルを擁護する側には、信頼されており、有名な人物は見当たらない。グーグルのアプローチを擁護することが出来るのは、収益のストリームで利益を得ている人達のみである。そのため、グーグルはコンテンツファームに背を向けざるを得なかったのだ。 常に売り込みを意識 ディマンドメディアのローゼンブラットCEOは、営業のプロであり、グーグルがコンテンツファームに関する警告を初めて行った際、同氏は上記の論理を用いて、グーグルの言うコンテンツファームとは“重複するコンテンツ”を意味すると述べ、警告を一蹴した。しかし、次の日、盗作されたコンテンツを配信していることが見つかり、ディマンドメディアは大慌てで対応を迫れたのだった。 グーグルは、ビング等に対する中傷PRキャンペーンを強化したことで、グーグル自身が偽善者もしくは無知に見えてしまっている。例えば、グーグルが詐欺広告を提供している点に気づかず、グーグルのエンジニアが広告ネットワークをこき下ろした件など、例は豊富にある。 ソーシャルアンサー? コンテンツファームに関しては、Answers.com(アンサーズ.com)が$1億2,700万ドルで買収されている点は注目に値し、また、ニュースレターの末尾のアスクセクションのアスクの戦略に関するニュースが巷には溢れている。アンサーファームモデルのソーシャルな面について、フェイスブックがこのスペースに注目していると噂されており、そして、ツイッターはFlutherと呼ばれるソーシャルアンサーサービスを買収している。グルーポンでさえこの分野に注目しているようだ。Quora(クオーラ)はテッククランチで好評を得ているが、既に成熟したテクノロジーのコアを越えて拡大を行うのは難しいだろう。 質の高い回答コミュニティ? 一見すると、StackExchange(スタックエクスチェンジ)の成長には目を見張るものがあるが、プログラミングのニッチからは抜け出せていない。個人的には、このサイトは、ニッチサイトの一部を引っ張るトピックのエキスパートを見つけて、その他のマーケットでも活躍しようと試みている人には、料金を支払うか、サイト内での権利を認める必要性に迫られると思う。最悪の場合、オンラインのスキームに関してプログラマーほどの知識を持っている人が少ないため、その他のサイトは、リーダーシップに欠けるだけでなく、管理するのも難しくなるだろう。ヤフー!アンサーズに掲載されているジャンクを一目見れば分かってもらえるはずだ。ワードプレスのテーマ、そして、オープンソースのCMSツールがQ & Aサイトに用意されているものの、私がこの類のサイトを構築するなら、広範なサイトはスパムに汚染されており、通常のニッチのサイトは大衆に受けいれられるのが難しいため、早い段階で単一の狭いニッチを選択するだろう。このエントリを作成している時点で、グーグルにインデックスされており、100回以上閲覧されているマハロのページは、50ページを下回る。これでは、賄賂やPR処理班が控えていたとしても、完全な失敗と言わざるを得ない。 警告 moultanoと言うあだ名のグーグルのエンジニアが、以下の見解をハッカーニュースで述べた: 組織レベルでは、グーグルは無秩序状態である。特に検索の質においては、かつては自分で有益な取り組みが出来ることを実証すれば、基本的に重要だと思ったことには何でも手を出すことが出来る。このような優先順位を移すメカニズムさえ存在しないのではないだろうか。 私たちはこの問題に長期的に取り組んでおり、若干ではあるが、進歩している。このような取り組みは、最近の批判的なニュース記事が配信される遥か以前から行われてきた。私個人も1年以上前から作業を行ってきた。結果の質を下げずに“トピックの精度”を“質の改善”のために犠牲にする変更を、なかなか行えないことが問題である。しかし、間もなく大きな変更が幾つか実行されるだろう。 トピックに合う劣悪なコンテンツで結果を水増しして、関連性を高める行為の良い例が、前回の検索結果のスクリーンショットに現れている。ブレッコはファームを禁止したが、ファームのコンテンツがないと、トピックに一致する関連するコンテンツはあまり見当たらない(要するに、コンテンツファームは確かに質が低いかもしれないが、コンテンツファームなしでは、同レベルの関連性を維持することは難しい)。 新しいシグナル グーグルはクロームのプラグインを作成し、エンドユーザーにコンテンツミルに関するフィードバックを要請しているが、テクノロジーに詳しい人達にしか接触することは出来ないだろう。そして、フィードバックは非公開である。グーグルは、一部のリンク売買で証明したように、気に入らないサイトを追放するためには、あらゆる手だてを使って正当化を行うことも出来る。メリットがある場合には見て見ぬふりをして、個人的に嫌いなサイトを追い出すのだ。 最近のウォールストリートジャーナルの記事の中で、新しいシグナルがグーグルの関連性アルゴリズムに加えられたと言うアミット・シングハル氏のコメントが掲載されていた: シングハル氏は、グーグルが多数の“シグナル”、つまり、サイトの格付けを行うためのアルゴリズムに導入するファクターを加えたと明言した。以前、グーグルは、ユーザーが検索結果を訪問した後、すぐに“戻る”ボタンをクリックしたかどうかを計測していると述べていた。これはサイトに対する満足感が欠落していることを示唆している。 さらに、グーグルは、変更点を定期的に評価するために雇った社外の人々からのフィードバックを得ている。このような“人間評価者”は、特定の検索クエリに対する結果を調べ、“このサイトにクレジットカードの番号を登録しますか?”や“このサイトから自分の子供の医療に関するアドバイスを参考にしますか”のような質問への回答を求められる、とシングハル氏は述べた。 モデルの進化 コンテンツファームのモデルを、厳しい編集のフォーカス、優秀な編集者、そして、ウィキのソフトウェアを用いて、進化させる方法は注目に値する。元eHowのオーナーによって作られたWikiHowは、相対的なリソースが限定されている点を考慮すると、そのトラフィックのレベル、そして、編集の質はとても高い。ジャック・ヘリック氏は、how-toで2回も大儲けしたのだ。 政治化? AOLはハッフィントン・ポストを$3億1,500万ドルで買収した。それでは今回の買収に関するエントリに目を通してもらいたい。この分析は若干粗いが、少なくとも的を射ているはずであり、- ハッフィントン・ポストのページビューの多くは、プロに委託したコンテンツによって稼ぎだされていると言う、多くの人々の見解を打ち砕いている。 ページビュージャーナリズムと距離を置く編集者達は、既にAOLを辞め始めている。 しかし、コンテンツファームのビジネスモデルに興味があるなら、AOLの事業計画が漏えいしているので確認しておこう スクレイパーサイト vs コンテンツファームを融合する 通常のコンテンツファームに加え、グーグルはスクレイパーのウェブサイトとも戦っている。実際に、別の目的で同じコンテンツを投稿するサイトに対するアルゴリズムの変更が既に実施されており、さらに、コンテンツファーム対策のアルゴリズムが先日実行され、多くのコンテンツファームに大打撃を与えた。それでは、Sistrix(シストリックス)のデータで上位の敗者の面々を確認してみよう。 このリストに名前が挙がっていないコンテンツファームに気がついただろうか?それは最大のコンテンツファームなのではないだろうか?以下にeHowのライバルのリストを掲載する(SEM Rushを基に算定)。赤い背景のアイテムは打撃を受けたページであり、黄色の背景のアイテムもまた影響を受けた仲間のディマンドメディアのサイトであり、緑のアイテムはトラフィックを得たアイテムである。 制裁を受ける [...]
SEO Japan フィード を購読