SEO Japan

Googleのパンダアップデートを振り返る

14 years 11ヶ月 ago
今日からSEO Japan復活させていただきます。今更ながらと思われるかもですが、Googleのパンダアップデートに関する考察をSEO Bookから。SEO Bookにしては軽めの内容です。 — SEO Japan グーグルはインデックスのアップデートを専門家から命名することに奔走し、今回のアップデートを“パンダ”と名付けた。どうやら、エンジニアの一人に因んで命名したようだ。 公式のグーグルのメッセージを私なりに分かりやすく言い変えてみると、こうなる: 信じて欲しい。私達は悪い人と良い人を分け隔てている。 ワイアードがグーグルに好き放題言わせなかったのは痛快だった。 ワイアードは次のように主張した: Wired.com: アルゴリズムを使って、自分達の広告主を優先させないことを証明するため、透明性を保つべきだと誰かが言っても、きっとグーグルは否定するのだろう。 シンガル氏: はっきり言っておこう。お金は私達の決定には影響を与えない。 Wired.com: その証拠を示してもらいたい。 この主張に対するマット・カッツ氏の答えは面白かった: カッツ氏: 「なぜサイトのランキングが落ちたのか?」のような具体的な質問があるなら、そのサイトのランキングが下がった理由を教えるのは、公正であり、当たり前であり、そして、妥当である。しかし、例えば、最新のアルゴリズムが、操作される可能性のあるシグナルを含んでいる場合はどうなるのか。それが100%明白なら、悪い人達は最適化を行い、再び上位にランクインする方法を把握することになるだろう。 望みがあるなら、なんで今まで黙ってたんだ! Blekko(ブレッコ)は、明白およびオープンになる点を重大視しているが、グーグルは秘密主義を通してきた。ユーザーが気に入り、信頼する質の高い文書をグーグルが私達に作成してもらいたいなら、ユーザーが気に入り、信頼するような質の高い文書とは何かを私達に教えてくれてもいいのではないだろうか。 問題は、グーグルのアルゴリズムに明らかに弱点が見受けられる点であり、実際にグーグルは操作される可能性があることを認めている。だからこそ秘密裏に行動する必要があるのだ。マット・カッツ氏は、アルゴリズムをオープンソース化することが可能な時期がやって来ることを願っているものの、その時期は今ではないと述べている。 何か新しい情報は? それでは分かった情報をまとめてみよう。 グーグルは操作される可能性がある。前から知っていたことだが…. グーグルは今でもあまり多くの情報を公開していない。今まで通りと言うことだ…. しかし、このような情報も無視することは出来ない: グーグルは、ディマンドメディアの仕組みと非常によく似た仕組みに関する特許を申請している。つまり、コンテンツが不足しているSERPの分野を探して、ライターに当該のコンテンツを作成するよう促す仕組みである。 この特許は、基本的に、質の低いコンテンツを含む検索クエリを特定して、パブリッシャーかこのトピックを探している人達により質の高いコンテンツを作ってもらうシステムを説明している。 このシステムは、コンテンツの質を確認する際に検索の量を判断材料に入れるため、グーグルが他の誰かにコンテンツの作成を提案する必要がないようにするためには、大きなキーワードのコンテンツの質は優れていなけばならない。 グーグルがこの特許をベースとしたテクノロジーを実装するなら、“コンテンツファーム”モデルを責めていないことは明白である。グーグル自身がコンテンツファームモデルを統合している可能性があるのだ。 その時が来るまでは…. コンテンツファーマーのレッテルを貼られないようにするには 「質の低いパブリッシャーのレッテルを貼られないようにするためには、どうすればいいのか」と言う疑問は残る。とりわけeHowのようなサイトは無傷であり、その一方、カルト・オブ・マックが排除されている現状では不安は募る一方である。注記: カルト・オブ・マックは復帰したようだが、メディアの注目を惹きつけるためだったのか、あるいは、アルゴリズムの調整による結果だったのかは不明である。 グーグルは、ユーザーが役に立つと思うようなコンテンツを求めている。 相変わらずグーグルは“役に立つ”の定義を明かそうとはせず、そのため、コンテンツを配信し、上位にランクインしたいものの、コンテンツファームとは混合されたくない人達は、推測しなければならない。そして、リバースエンジニアリングを多少行うことになるだろう。 SEO Bookの調査、カンファレンスの模様、そして、純粋な憶測を基に、一つの試みを行ってみた: 役に立つ文書は人間の検査をパスする 役に立つ文書は広告で埋め尽くされていない 役に立つ文書は外部へのリンクが十分に張られている 役に立つ文書は別の文書のコピーではない 役に立つ文書は通常検索チャンネル以外の配信チャンネルを持つブランドまたはエンティティによって作成される 役に立つ文書は直帰率が100%ではなく、同じ検索クエリに対して異なる検索結果がクリックされるようなものではない 分かり切った基準ばかりである。それとも検討違いだろうか?他に判断材料はあるだろうか?アルゴリズムに関して、e-HowとSuite 101の違いは何だろうか?利用のパターンが違うのだろうか? しかし、ユーチューブの件はいまだに説明が行われていない。するとまた次の主張に行きつく: Wired.com: 証拠を示してもらいたい。 ユーチューブ、確かにそのドメインは非常に有益だが、一部のページは、 – あまり役に立つとは思えない。ユーチューブもパンダアップデートの鉄槌を受けただろうか? [...]

東北地方太平洋沖地震被災者・被災地への支援につきまして

14 years 11ヶ月 ago
この度の東北地方太平洋沖地震により被災されました皆様に心よりお見舞い申し上げます。 SEO Japanを運営するアイオイクス株式会社では、今回の震災による被災者・被災地の現地復興に役立てていただくため、準備が整い次第、義援金を寄付させていただくこととしました。 被災地の一日も早い復興と、皆様のご無事を心よりお祈り申し上げます。 2011年3月17日 アイオイクス株式会社 代表取締役社長 SEO Japan 運営責任者 滝日伴則

アダプティブ・コンテンツと行動ターゲティング – Conversion Conference 2011

14 years 11ヶ月 ago
さて今回はちょっと上級と思われる内容のセッション。アダプティブ・コンテンツと行動ターゲティングについて。ちょっと難しそうな内容ですがさてさて。ちなみにアダプティブ・コンテンツとは、ユーザー行動に基づいて最適なコンテンツを表示することです。日本だと言葉として余り使われませんが、コンテンツターゲティングと似たようなものでしょうか。さてさて。 — SEO Japan 原題「Adaptive Content & Behavioral Targeting」。Madera Labsのジャスティン・デイビスとAmadesaのピート・オルソン。 まずはMadera Labsのジャスティン・デイビス。制作会社のデザイナーだそうです。 Amazon.comは35%の売り上げをアダプティブ・コンテンツ経由で売り上げている。 時間によるアダプティブ・コンテンツ。 何故? 新しい発見・気付きをユーザーに与える。 ユーザーの障害を減らす。 コンバージョンを増やす。 関連性を近づける。 まずはコンテンツから。 コンテンツベースのフィルタリング。 ユーザーの過去の購買行動からフィルタリングする。 Amazon.comが得意とする分野。過去の購買履歴からおススメ商品を表示する。 コラボレティブ・フィルタリング 同じくAmazon.comも得意。同じような購買行動をしている他ユーザーの購買行動を元におススメ商品を表示する。ソーシャル・プルーフ(social proof)の一種。 時間によるアダプティブ・コンテンツ = レコメンデーション — インターアクション。 2000年前半。BBCのサイト。ユーザーがクリックしたコンテンツが多いニュースセクションの背景を濃くする手法を入れた。効果は不明だが(公表されていない)興味深い。 アダプテーション・ループ 最初にインターフェース ↓ ユーザーの反応 ↓ システムによる判断 ↓ インターアクションの仇ぷレーション ↓ 最初に戻って繰り返し ・・・ ゴールは何か? 最初のインターフェースはどうするべきか? 見るべきユーザーの反応は何か? システムはどのようなユーザーの反応を判断すべきか? アダプティブ・コンテンツのチャレンジ データを集める。。 データを分析する。 小さなことから1つ1つ始める。 Amazon.comは今回話したことを最も効果的に実践している。 繰り返しになるがAmazonの35%の売り上げはアダプティブ・コンテンツ経由。 続いてAmadesaのピート・オルソン。大手LPOツールの会社ですね。 アダプティブなウェブサイトとは? [...]

スマートフォン&モバイルサイトのコンバージョンを最適化する37のコツ – Conversion Conference 2011

14 years 11ヶ月 ago
Conversion Conference初日午後のセッションは、モバイルメディア、主にスマートフォンにおけるオプティマイゼーションという内容。モバイル大国日本でも余りコンバージョン最適化の努力をしているサイトは少ない気がしますし気になる話題です。ちなみにモバイルサイトと記事では書いていますが、スマートフォンと思っていただいてもそのまま通じる内容です。スマートフォンサイトを作る企業・制作会社も増えていると思いますし、読んでおきたい。 — SEO Japan スピーカーはEight by Eightのエイミー・アフリカ。 モバイルで重要なこと。 1. スピード。最も重要。 モバイルショッパーは15秒待たない。とにかくスピードが重要。 平均的なモバイルサイトのファイルサイズは230-240k。 B2B、B2Cであっても100k以下が理想。 さらに理想は10k以下。 2. ゴールを明確に。 ゴールは1つ。ブランディング、エンゲージメント、顧客獲得、カスタマーサービス、顧客維持、、、なんでもいいが1つだけにする。 PCサイトと同じと考えるべきではない。どちらかというと真逆の場合も多い。 3. 1つのことに集中する。 リードを得る。注文を得る。メールアドレスを得る。 4. SEOも忘れずに。 モバイルでもサーチエンジン経由でアクセスしてくるユーザーが多い。サーチ経由で来たユーザーを確実に目標とするページにリダイレクトする。 Eコマースサイトなら右上にショッピングカートのボタンを表示してサイトがEコマースサイトと分からせる。 今のところ、モバイルのアドワーズ広告はPCより41%安い。もっと活用すべき。 5. ユーザーが買いたい場所で売る。 Fコマース(Facebookのコマース)。電話。ブリック&モルタル。ウェブサイト。ライブチャット。Vチャット(ビデオチャット)。メールなどなど。 6. シチュエーショナル・コンテキストが鍵。 Situational Context – ユーザーがどこにいるか?ユーザーの周りで何が起こっているか?場所。時間。行動。ユーザーの意図・行動が変わる。どこまでくみ取れるかが大事。 7. ブランドマッチ。 1ページが全て。スクロールさせない。ブランド認知が一瞬でできるようにする。色・デザインも重要。ブランドマッチが無いと離脱率が高まる。 8. ユーザーを認識。 ユーザーエージェント、cookie、スクリプト、、ユーザーのデバイスを正しく認識する。iphoneでzapposのサイトにアクセスするとアプリをダウンロードするよう促される。私は好きではないが、やり方としてはある。 9. ユーザーがどこから来ているか? ツイッターから?検索エンジンから?表示する内容を変える。ソーシャルメディアから来たユーザーには共有ボタンをつける、など。 10. ユーザーリンキング。 製品を写真で撮ってメールで友達に送る。友達がメールで返信してくる。などなど。様々なユーザーのタッチポイントに対応できるようにし、電話番号や検索フォームなどユーザーがサイトにアクセスしてきた時に望ましい行動ができる情報を表示する。 ユーザーが情報にアクセスしてから実際に購買するまでにEコマースでいえば平均50日前後かかる。 11. アプリはモバイルサイトでは無い。アプリはアプリ。 アプリかモバイルサイトどちらかだけをやるならモバイルサイトが良い。アプリは流行りだがアプリだけだとダウンロードする前に離脱するユーザーも多い。 アプリとモバイルサイトは違う。顧客の種類も違う。期待も違う。 12. iPadはモバイルデバイスではない。 [...]

A/Bテストと多変量解析テストの成功事例 – Conversion Conference 2011

14 years 11ヶ月 ago
2つ目のセッションは、まさに直球ど真ん中ともいうべき、スプリットランテスト(A/Bテスト)と多変量解析(マルチバリエイト)テスト。事例ベースのセッションなので参考になる・驚きのあるデータが多数あります。特に「ページの表示速度」とコンバージョンの関係はSEOに関わる人も注目。 — SEO Japan スピーカーはSiteSpectのエリック・J・ハンセンとWingifyのパラス・チョプラ。SiteSpectは有名なLPOツールの会社です。Wingifyは簡単LPOで最近話題のビジュアルサイトオプティマイザーの会社なんですね。 まずはWingifyのパラス・チョプラ。 僕らのクライアントの結果は平均50%コンバージョンがあがった、といきなり宣言。常に保障はできないけどね、と笑いを取ってセッション開始。 A/Bテストと多変量解析テストのどっちが効果的か? 多変量解析テストはテクノロジーも優れているし、魅力的だがA/Bテストでも効果を十分に上げることができる。 A/Bテストはディテールでは無く、様々なユーザー体験をテストすることができる。例えばページ全体のデザイン。メッセージング。A/Bテストで効果的なデザインテンプレートを発見した後、多変量解析テストでさらに効果を上げることができる。 Test Among Good Options(TAGO) テストすべき要素はほんの一部しかない。無駄なテストはしない。100%の中の極数%。逆にいうと間違ったテストをしない。 (ここでデザインが良いサイトと悪いサイトを見せる) どっちのコンバージョンが高いと思う?80%がデザインが良いサイトに挙手。 何故か?画像が多い。デザインが綺麗で信頼性がある。ブランド認知度が高い。ナビゲーションが簡単。などなど。 実際に大半の人がデザインが良かったサイトが良いと思う。 その決断は一瞬でなされる。1/20秒以下で決まる。 ファーストインプレッションは重要。 最初の決断は、最後のコンバージョンに大きな影響がある。様々な調査で証明されている。 コンバージョン・ファンネルのボトムから変える。 ショッピングサイトの決済ページのユーザビリティ。サイト内の利用率自体はホームページや商品ページに比べ必然的に低くなるが、改善することでのコンバージョン改善率は極めて高い。サイトのデザインは色々手を加えるのに決済ページの改善をやってないサイトが多すぎることに、いつもイライラする 笑 例えば決済ページに、購入完了までのステップ数を表示したり、セキュリティ証明の画像を張るだけでも効果がある。とある事例では(lumensという照明家具の通販サイト)決済ページのコンバージョン率が50%も上がった。 他にも例えば登録ユーザーのログインページ。新規ユーザーの登録リンクを目立たせていない、登録ユーザーが前提になっているようなページが多い。 ログインページで新規ユーザーと既存ユーザーへのアプローチを同等にすることが重要。新規ユーザー登録率が上がる。 他の改善事例。 ランディングページをリデザインし、基本となるテンプレートを作成した上でターゲットユーザー別のランディングページを作成。 ベースのテンプレート。大きな画像。より魅力的な登録ボタン(登録、ではなく、**を始める!)。コンバージョンまでのステップ数を表示数。 アドワーズ広告のキーワードやメッセージ別に全部個別のランディングページを作成。結果、30%のコンバージョン改善を実現。1年で1億円近い売上アップ。ROI1600%。実施に3週間。 あなたが思っているより改善できることは多い! 次はSiteSpectのエリック・J・ハンセン。Mozilla.comのFirefoxダウンロードサイトの改善例を紹介。 Mozilla.comは実は世界でアクセス数が多いサイトのトップ50に入るサイト。1カ月のページビューは2009年12月で700万。Firefoxのシェアは2009年で40%。ダウンロード数は1300億以上。 FirefoxとMozilla.comに可能な限り最高のユーザー体験を提供するモラル的な必要性がある。 – Mozilla.com CEO サイトの最適化に社内で2名の専属のチームがいる。 2009年の11月、mozilla.comは最適化テストは長期的に常に行っていく作業ということを社内で認識し、より本格的な最適化テストを行うことにした。 テスト1: ・コンバージョン = Firefoxのダウンロード数 ・ちなみにFirefoxのダウンロードページのコンバージョン率は80%近い ・ダウンロードのランディングページを改善し、コンバージョン率を改善 ・多変量解析テストを実施。32のバリエーション。 ・・「機能」に関するコピー ・・「ティップス」に関するコピーの場所 ・・フッターの詳細 ・・ボタンのデザイン ・・ダウンロードの統計 ↓ 主に3つのパターンでテスト。 [...]

SEO vs CRO – サーチとコンバージョンの同時最適化 – Conversion Conference 2011

14 years 11ヶ月 ago
Conversion Conference最初のセッションはなんとSEOとCRO(Conversion Rate Optimization、コンバージョン率最適化)に関するSEO Japanにぴったりな内容です。 — SEO Japan 原題「SEO vs. CRO – Tactics for Optimizing Both Search & Conversion」。Agillianのカルロス・デル・リオとEllianceのアブ・ノアマン。共にウェブマーケティング会社のCEO。 まずはEllianceのアブ・ノアマンから。 サーチ ブランド コンバージョン IA(インフォメーション・アーキテクチャ) 其々の要素が別々に運用されているケースが大半。もう少し統合してできないか?SEOとデザインの融合、SEOとコンバージョンの融合など。より効果的なSEOが実現できる。 コンバージョンファンネルを分析。ユーザーにもファンから半信半疑なユーザーからコンバージョンする気が元々無いユーザーまで色々ある。 量より質が重要。 事例ベースで説明したい。その1。 Duquesne大学のビジネススクール。サステナビリティのMBAプログラムを提供。 戦略。 ユーザーを3種類に分類。 ビリーバー(信頼しているユーザー)をリードする。 リセプティブ(半信半疑な受けなユーザー)をコンバージョンさせる。 ノンビリーバー(興味が無い人)は無視。 サイトで「何故サステナビリティのMBAか?」というページを強調。興味がある人に強調。興味が無い人を排除。 MBAプログラムの評価やレビューを紹介するページも掲載。どのような仕事が得られるかということも紹介。 プログラム紹介のページではビッグワードをターゲット。 実際の生徒の生活も紹介。ローカルキーワードをターゲット。 ブログを執筆し、フィードでコンテンツ配信。ブログやWiki、ニュースサイト等で定期的に紹介されるようになる。リンクも増えて例えば mba sustainability(MBA サステナビリティ) というキーワードで大学のサイトが1位、wikipediaの紹介ページが2位、他ブログで紹介されたページが3位に表示。検索結果上位を独占。ちなみに競合もそれなりにあり、PPCの広告も多いキーワード。 コンテンツ配信を積極的にすることでブログ等のソーシャルメディアで取り上げられ、同時に検索結果の上位表示も実現。2007年の入学は15人だったが、2009年は34人が入学。入学者のGMAT(大学院生用のテスト)の点数も537から570にアップ。生徒の質も上がった。 — 事例その2。 Sophisticated Alloyという製造メーカー。元々ウェブサイトもひどかった。デザインもひどく、コンテンツも無い。大幅にリニューアル。 新サイトでは大手クライアントをホームページで紹介。nasa、HP、3M、ハニーウェルなど堂々たる大手クライアントがいる。 メーカーが得意にしている製品をキーワードで分類し(vacuum meltingなど極めて専門的)、サイトの構成とコンテンツを構築。効果的に上位表示。1ページ目に表示。 数少ないが電話がかかり、またクライアントの質は高くなった。 — 事例その3。 別の小さな製造メーカー。Miller [...]

ソーシャルメディア時代のコンバージョンとは? – Conversion Conference 2011

14 years 11ヶ月 ago
3月14日~3月16日、サンフランシスコで開かれているコンバージョン率改善に関するイベント「Conversion Conference」に来ています。私の会社でもDLPOというコンバージョン改善サービスを行っているので勉強の一環で。日本は歴史的な震災で未だ予断を許さない状況かと思いますが、インターネットを通じた日本の復興・発展のためにも負けずにレポートしていきたいと思います。またこの度の震災にて命を失われた皆様には心よりお悔やみ申し上げます。まず始めはキーノートスピーチ「ソーシャル時代のコンバージョン」。 — SEO Japan コンバージョン改善に関するイベントが2日間もあるということ自体、アメリカのウェブマーケティングのレベルの高さを感じますが(最も去年から始まったばかりみたいですが)、さてどんな内容になるのか。 キーノートのスピーカーはイベントの主催者でもあるティム・アッシュ。SiteTuners.comというコンバージョン改善に特化したマーケティング会社のCEOです。 まず最初の会場にアンケート。「コンバージョン改善に特化したポジションの人はいる?」数十人挙手。「去年は同じ質問で一人もいなかった。すごい進歩だ!」 以下、内容。 ソーシャルメディアランドスケープ。様々なプラットフォームをユーザーが行き来している。複雑。 「ソーシャルメディアの専門家」はたくさんいるが。。 ソーシャルメディアは本当に新しい存在なのか? ソーシャルメディアは People 、我々自身に関することだ。 テクノロジーでは無い。 オランウータンから未開地の部族まで常にソーシャルだった。 「ソーシャルネス」に限界はあるか? 150のルール。150前後に人の集団までは、人々がダイレクトな関係やロイヤリティをお互いに感じることができる。それを超えると不可能。 実際に、軍隊のユニットやクローズドな社会で生きている宗教グループも150人以下になっている場合が多い。 ソーシャルの交流で人々は何を価値を見出すか? 人々が望まないこと。 ・信じていることや言葉、行動が合わない。 ・混乱。 「Consitency」、一環していることが重要。 コミットメント。 人々は一度考え方や意見を決めると、例えばプレッシャーになったとしても、それに基づいて行動しようというコミットメントをする。 – Dr. Robert Cialdni コミットメントについて。 ・毎日の生活をシンプルに生きやすくする。 ・覆すことが難しい。 ・より大きなコミットメントにつながることが多い。 ディズニーの最大のコミットメントは「ゲストの安全」。 最も価値のあるコミットメントは? ・ボランティア(自発的) ・パブリック(公共性) ・小規模 人々はコミットメントに自発性、公共性を持たせることで価値を見出す。 ——— 上記から導き出される、ソーシャルメディアのコンバージョンにつながる手法は? 1. 共有を簡単に 興味がある人々の前にトリガーを置くことが重要。 人々が行動を起こすには、モーティべーション、アビリティ(行動の実現性)、そしてトリガーの3つが同時にあることが重要。行動が起きない時はそのいずれかが欠けている。 – スタンフォード大学パースエージョン研究所 例えばラジオで募金を募集しても車を運転している最中なら募金したくでもできない。 ウェブの例。アウトドア通販のREI。商品ページに、FacebookのLikeボタン。5段階の評価ボタン。メール送信。ソーシャルの共有ツールを全て提供。 5つのマイクロコンバージョン ・Facebookのいいね!ボタン ・ツイート ・レビューを書く [...]

SMX West 2011 – SEOの専門家達に好きなことを聞こう!

14 years 11ヶ月 ago
SMX West最後のセッションは毎度お馴染み、注目の「Ask The SEOs」。壇上にずらりと並んだSEOの専門家がSEOに関する様々な質問に答えます。 — SEO Japan モデレーターはダニー・サリバン。スピーカーはBlueGlass Interactiveのグレッグ・ボーザー、Bruce Clayのブルース・クレイ、サーチエンジンランドのバネッサ・フォックス、Performicsのトッド・フリーセン、Netconcepts創立者のステファン・スペンサー、High Rankingsのジル・ウォーレンというアメリカのSEOエキスパートとしてお馴染みの顔ぶれ。 パンダ・アップデートの特徴は? グレッグ:サイトを全体の品質で評価するようになった。低品質のコンテンツが多いサイトは評価しない。ロングテールでも上がりにくい。Googleはコンテンツ自体もスパムとみなすようになってきた。大規模なコンテンツスパマーが増えたせいともいえる。 バネッサ:作りたててで内容が無いページが多い場合はとりあえずnoindexタグを張っておき、中身が充実したら外す。Googleのマイリーが昨日薦めた手法。 ブルース:3カ月前からコンテンツの複雑性を判断する機能がついたが、それが多少コンテンツの品質判断の基準の参考になるかもしれない。 ステファン:Googleは複数のシグナルを分析する。ソーシャルでコンテンツが評価されればプラスになる。 トッド:Googleのブロック機能が今後シグナルになる可能性は十分ある。 サリバン:ブロック機能のデータは今回は全く使わなかったと明言していた。ただ将来的に使う可能性はある。 サリバン:eHowが今回のアップデートで生き残ったのは何故だ?皆がターゲットになると思っていた。ただeHowは品質はともかく見た目は広告も少ないし、他のコンテンツサイトより信頼できるサイトに見える。順位が落ちなかったことと関係あるかもしれない。 バネッサ:ユーザーにとってのサイトの信頼性は重要。 将来重要になると思われるSEOのテクニックはある? グレッグ:これまではとりあえず大量にコンテンツを投入して一部が結果を出せばよいという考え方が通った。これからは難しい。サイト全体の品質を考える必要が出てきた。大量ページのサテライトサイトを作る手法は通じなくなってくるかもしれない。 ステファン:内部リンクの調整がもっと重要になってくるかもしれない。 ブルース:キーワードが検索される意図をより理解する必要があるだろう。検索ユーザーのペルソナを理解して意図をつかむ。意図は検索ユーザーのロケーションやデバイスによって差も出る。これらを理解してより多くの検索ユーザーを満足させられるコンテンツを提供できるかが重要。 ジル:SEOのためのトリックは通じなくなる。検索ユーザーのことを考えてコンテンツを提供する地道な作業が重要。 トッド:リンクを大量に集めるだけでは効果がなくなる。 グレッグ:そうはいってもGoogleの傾向を分析し、キーワード分散や比率を考えて内部・外部を含む対策を行うことは重要であり続ける。それがSEOの仕事。無視することはできない。リンク戦略に関してクライアントにアドバイスもできない。 サリバン:SEOは重要だが、サイトやサイトが提供している製品サービスがまずありき。良いモノがあればそれを最大限PRしていくのは当然。その辺を理解せずSEOだけに取り組む人が多いのもまた事実。 ペナルティを受けたと思われる判断基準は? グレッグ:50位以上順位が下がったら危ない。インデックス削除されていれば手動の可能性もある。 トッド:サイトがペナライズされる場合、1つの要素というよりは複数の要因がある場合が多い。有料リンクを外して再申請すればインデックスが保障されるわけでもない。 グレッグ:有料リンクを買っただけど順位が劇的に下げることはまずない。過去長期にわたって色々なスパミーなことをやってきたかが影響する。検索エンジンはウェブマスターが思っている以上にサイトについて時間軸で理解している。 ブルース:50ペナルティを受けた会社から問い合わせがあった。有料リンクは買っていないといわれたが、詳しく調べると一部の部署が有料リンクを買ってリンクファームに参加していた。全て削除したら戻ってきた。 Bingのシェアが30%になってBing対策を何か行うようになったか? バネッサ:基本的にGoogleと同じ。特に特別な考慮をする必要はない。 グレッグ:Googleと比べてBingの進化は多少タイムラグがある。Googleではもう効果がないが、Bingでは効果があるテクニックもある。場合によってはBing対策を特別に行う。 バネッサ:BingはFlashをクロールしない。Canonicalタグの対応も悪い。テクニカルな観点から考えると個別に対応すべきこともあるといえばある。 ブルース:海外では大半の国でGoogleのシェアが90%以上なのでGoogleだけでいい。それよりもツイッターやフェイスブックなどソーシャルプラットフォームで検索サービスになりつつある点も無視できない。 何か会場に伝えたいことは? ステファン:SEOツールはツールに過ぎないと言えば過ぎないが、使い方によっては作業を大幅に削減できるのも事実。賢く使おう。 ブルース:マット・カッツ含めて専門家の言うことを鵜呑みにしないこと。サイト毎に様々な条件があるし、自分でテストしよう。 グレッグ:シグナルが複数あることを理解する。ウェブのソーシャル化でシグナルは多様化する一方だ。特に人によるレビューや意見。今後のランキングに大きな影響を与えていくはず。 トッド:SEOとPPCが完全に分断されて運用されているケースが多い。担当者が違ってもお互いに情報交換しながら両者をより効率的に運用するべき。 バネッサ:リンクが最も重要だった時代からユーザー体験に重要度が変わってくると思う。ウェブマスターツールやアナリティクスのデータをもっと活用していく必要もあるだろう。 ジル:検索結果ページ自体が複雑化している。ブレンド検索やソーシャルの結果がもっと取り込まれていく。特にソーシャルとローカル。またページ単位のSEOで無くサイト全体を考えたSEOがより重要になっていく。検索ユーザーの意図を理解することも重要。 サリバン:リンク構築は重要であり続けると思うがそれが全てでなく、1つのシグナルと認識すべき。フェイスブックやツイッターも益々重要になってくるだろう。 毎回恒例のSEOセッションですが、前の検索エンジンのセッションと比較しても1つの質問に対して皆が答えを掘り下げて答える形で、米国のSEO専門家の考えがより理解でき、いつも以上に勉強になりました。正直、時差ぼけが直らないままで、睡魔との闘いだったのですが、我慢して最後まで出て良かったです。というわけで、SMX West 2011、無事に終了です。 — SEO Japan

SMX West 2011 – Google、Bing、Blekkoに何でも聞こう!

14 years 11ヶ月 ago
最終日3つ目のセッションは毎回お馴染みの「Ask the Seach Engines」。正直、無茶苦茶眠いのですが頑張ります。。。先程のセッションとほぼ同じ面子ですが何か新しい話が聞けることを願って。 — SEO Japan モデレーターはダニー・サリバン。スピーカーはマット・カッツ、マイクロソフトのデュアン・フォレスター、新興検索エンジンBlekkoのCEOリッチ・スクレンタ。 マット、ファーマー・アップデートはいつアメリカ以外に適用されるのか? Google:できるだけ早くと思っているが、国や言語別に多少の調整は必要で時間はかかる。今回のアップデートでターゲットにした問題はどちらかというとアメリカ国内のサイトに多かった。海外への影響は比較的少ないとも思う。 サイトの初回訪問ユーザーと他のユーザーに違うコンテンツを見せているが、問題になるか? Bing:検索エンジンが見つければ何らかの対応がとられる可能性はある。 Google:ジオターゲティングなどコンテンツの配信の種類を変える仕組みは普及してきている。検索エンジンに全く違うコンテンツを見せるのはリスキーと思ってもらえばいい。「検索エンジンに特別コンテンツを見せているか」どうかが判断基準になる。 シンディケーションサイトからのリンクは評価が低いのか? Bing:仮に200のサイトからリンクが張られていても評価は余りしないだろう。 Google:記事を書いて多数のサイトに配信する。検索エンジンはそれらのリンクを評価しないようにしている。 Blekko:当然評価しないようにしている。どのサイトを重複コンテンツを見なしているのかも確認できる機能を提供している。 Bing:SEOのために記事を作成してシンディケーション配信することは労力を考えると止めた方が良いかもしれない。 現実世界では、大手ECサイトが有料リンクを買ったり、スポンサー記事を書かせたりしている。自然にリンクを集めるだけでは限界がある。 Google:リンクを得て上位表示することを第一に考えるのではなく、良いサイト・コンテンツ・サービスを提供してロイヤルユーザーを育てることが重要。そうすればリンクも自然に集まりトラフィックも増える。「いかに他のサイトと差別化できるか?」と言うことを考える。そうすれば自然にリンクも集める。 Bing;オーソリティになることが重要。好きなことに一生懸命取り組んでその分野のオーソリティになる。何にでもいえる。サイトも同じだ。上位表示されるのに何百もリンクがいるわけではない。特定の分野に特化しそこで評価を得れば、全体にもプラスになる。 「PageRank This!」ボタンを作れないのか?皆が使うと思うけど。 Google:サイト評価を送るフィードバックボタンという意味?面白いアイデアだと思う。 2ページあった1ページが1ツイート、もう1ページが1リンクを渡したらツイート経由のページが上位表示された。ツイートの方が効果があるのか? Google:ツイートされたページはリアルタイム性があるとみなされて上位表示された可能性もある。単純に判断すべきではない。ソーシャルリンクは様々な意味で効果があると思うし、シグナルではあるが、それだけでいい話ではない。 UGCサイトで新しいページが作成された時、どのように認識するのか?例えばQ&Aサイトで質問だけで出ているページは質が低いと判断されかねない。 Bing:赤ちゃんが醜いといっているような質問だ 笑。PR活動も同時に行ってできるだけ回答がもらえるサイトにすることが大事だろう。 Blekko:クールなPRコンテンツを作って人を集めることはお金をかけなくともできる。 Google:Quoraは最初から品質にこだわって成功した。 キーワードが完全にマッチしたドメインやアンカーテキストの重要性が高すぎるのでは? Google:対応中だ。 プレスリリースサイトは有料リンクなのか?意図的にキーワードリンクを入れているリリースも多くある。 Bing:SEOを意識しすぎたプレスリリースだけに頼ることは危険だと思う。 Google:プレスリリースが単純に配信されただけでは余り評価しないかもしれない。ただそこからリリースが派生してネット上で取り上げられるようにあればそこにあるリンクはシグナルでもあり評価されるようになる。 CSSでテキストを隠すテクニックはどうなんだ? Google:隠しテキストは良いアイデアではない。 リンクファームからリンクを受けたらサイトに悪影響はあるのか?競合の順位を下げられることになるが。 Google:今のアルゴリズムはまずリンクを無効化することが基本。 Bing:それが起こるべきでないことは理解している。 Blekko:基本的には良いシグナルだけをカウントしようとしている。 Blekkoはどうやってインデックスから排除したコンテンツファームを20決めたのか? Blekko:アルゴリズムで判断した。広告が多すぎたり、質が低いコンテンツを問題視した。 Google:広告が多いサイトが悪いと即判断はできない。 BlekkoはXMLサイトマップを見ないのか? Blekko:今は見ていない。いずれ見るかもしれない。 パンダ・アップデートで低品質のコンテンツが多いサイトは高品質のコンテンツがあってもまとめて順位が下げられるという話があるが。 Google:サイト全体として低品質のコンテンツが多すぎればサイト自体が低品質と判断されかねない。ただアルゴリズム変更は今年だけでもまだまだ予定している。中長期的にユーザーに気に入られて利用されるサイトを作ることを目指すべき。 ホワイトハットクローキングをどうやって処理する? Google:Google的にはホワイトハットクローキングという言葉は矛盾している。例外はない。Flashサイトであればテキストベースのサイトを用意してユーザーにもアクセスできるようにしておけば良いだけ。 サイトのトラフィックとランキングに関連性はあるか?人気サイトはより上位表示されてもおかしくない。 Google:アイデアとしてはあると思うが今は採用していない。ツールバーでデータを取って参考にしているという噂があるがしていない。 Bing:シグナルとしてはあるが、ランキングに影響は与えていない。 Blekko:ISPからトラフィックデータを買うことはできる。参考にした場合、ビッグワードには良いかもしれないがロングテールの場合は効果があるか微妙。 [...]

SMX West 2011 : スパム警察出勤!

14 years 11ヶ月 ago
最終日2つ目のセッションはGoogleのマット・カッツも登場する注目の「The Spam Police」セッション。SEO業者真っ青の内容になるのでしょうか。。 — SEO Japan モデレーターはダニー・サリバン。スピーカーはマット・カッツ、Bingのサシ・パササラシー、新興検索エンジンBlekkoのCEOリッチ・スクレンタ。 サリバンのイントロ。まずBingの持ち時間は10分、Blekkoの持ち時間は8分、Googleは20分。別に僕がGoogleを好きだからじゃない 笑。マットがスパム対策に一番長く取り組んでいるからだ。勘違いしないでほしい。 まずはBingから。 スパムとは? スパムページとは1種類、またはそれ以上のスパムを使ったページ。 基本的にはスパムが順位に与える影響をなくすというスタンス。 スパムの種類 コンテンツとリンク。 スパム手法 ページ: キーワード詰込み – 今は大抵見破る。 ドメインパーキング – 意味が無いコンテンツと広告を掲載するケース。 隠しコンテンツ – テキスト、リンク。同一色。hidden、invisibleタグ。 自動コンテンツ – 検索クエリーから自動的にページ生成。ワードサラダ。サイト内にコンテンツとして存在する価値がほとんどない。 リダイレクト – クローキング。 サイトハイジャック – サイトの一部分をハイジャックしてコンテンツを掲載したり商品を売る(バイアグラ率高い)。EDU系ドメインやソーシャルサイトで良く行われる。 スケアウェア – マルウェアをダウンロードさせる。 リンク: リンクファーム。 有料リンク。 相互リンク。関連性がないとスパム的。 次はGoogleのマット・カッツ。 今日は幾つかスパムの例を紹介したい。 ページの下に大量の隠しテキスト。コンテンツ的にはページに書いてあっても問題ないのに、デザイン的にやっている。 クローキング。 キーワードスタッフィング。キーワードのミススペルの全バージョンを記述。 ワードサラダで限りなく普通の文章を自動生成。見方によっては詩的な文章 笑。 相互リンク依頼の自動送信メール。僕のサイト(マットカッツ.com)にも大量に届く 笑。やりすぎの相互リンクは危険。 有料リンク。サイドメニューのリンクを掲載。コンテンツ本体にリンクテキストを挿入。ペイー・パー・ポストでもよくある。検索エンジンは無償で張られたリンクを最も評価する。リンクされるコンテンツ・サイトを作るべき。 ハックサイト。サーバーがハックされないように気をつけよう。常に最新のパッチを適用しよう。中国の個人ブログがハックされて、そこから有料リンク。 パンダ・アップデートのユーザーフィードバックは非常に良い。 もちろんアルゴリズムが100%完璧ということはない。常にユーザーフィードバックを得ながら改善を続けている。 [...]

SMX West 2011 : SEOの都市伝説を徹底検証

14 years 11ヶ月 ago
SMX Westもあっという間に最終日。最初のセッションはSEOに関する様々な噂や都市伝説を検証する興味深いセッションから。 — SEO Japan 原題「SEO Myths, Mistakes & The Madness Of Crowds」。モデレーターはサーチエンジンランドのマット・マッギー。スピーカーはSEO業界のベテラン達が勢揃い。BlueGlass Interactiveのグレッグ・ボーザー、Netconcepts創立者のステファン・スペンサー、Omni Marketing Interactiveのシャリー・トゥロゥ、High Rankingsのジル・ウォーレン。ひたすらQ&Aで進行。 ページランクとランキングはイコールか? ジル:間違い。 シャリー:ページランクはもう見ない。 ステファン:ツールバーのページランクはランダムといってもよいのでは?本当の数値はもう少し信用できるんだろうけど。 グレッグ:サイト内でGoogleが各ページをどう評価しているのかという指標としては使える。 ジル:ページランクで検索結果が決まることはない。実際の結果を見れば明らか。 ページランクスカルプティングはランキングに効果がある? ジル:間違い。 ステファン:以前はかなり効果があったと思う。理論上は今もあるのだが、Googleのアルゴリズム変更で効果がなくなった。 グレッグ:大規模サイトでは特定のコンテンツの評価を上げるために効果があった。今は効果が余り無い。 ジル:今でもサイト構成でページにどう評価を与えるかということは重要。スカルプティングは意味がない。 シャリー:サイト構成がきちんとできていれば、スカルプティングはそもそも必要無い。 サイトの表示速度はランキングに影響するか? グレッグ:大きな影響はないが、重要だ。スピードはユーザー行動に影響を与える。 ステファン:遅いサイトはコンバージョンに悪影響だろう。幾つかの書籍も出ているが、サーバーサイドでもクライアントサイドでもスピードの改善をすることで、コンバージョンがかなり改善するケースが多い。 ジル:都市伝説にはそれなりの理由がある。Googleは基本的に早いサイトが好きだ。 シャリー:プライオリティではないが、重要ではある。 ツイートとLikeはランキングに影響するか? ジル:正確にどれくらいかは分からないが、多少はあると思う。さらにトラフィックも得られるだろう。ランキングだけで考えることではない。 グレッグ:人による評価は、機械によるアルゴリズムに加えて重要になってくるはずだ。 SEOを考えるとFlashを使うべきではない シャーリー:少し一般化しすぎだ。ケースバイケース。1ドメイン1URLで全てFlashというサイトは良くないと思うが。 ステファン:ナビゲーションにFlashを使うのは止めた方が良い。 グレッグ:テキストコンテンツをFlashで配信するのは止めた方が良い。Googleはインデックスできるというが上位表示されにくい。 ステファン:テキストをFlash化することでテキストのタグなど一部のセマンテックな情報が失われる。 H1/H2/H3は必ず使うべき? ジル:必ずというわけではない。H1/H2タグで順位が変わることは余りない。 グレッグ:セマンテックな構成が好きだし、僕は使える時は使う。順位にどこまで影響があるか分からないが使える時は使う。 シャーリー:私は様々なテストをしているが、シグナルにはなっていると思う。 キーワード密度はまだ重要なのか? ジル:昔はそうだったが、今は関係ない。キーワード数は幾つでも良い。 シャーリー:ページのコンテンツが特定のテーマであることは重要。検索エンジンも認識するし、ユーザーが検索結果経由で来た時にも目的に沿った情報を提供する意味で重要。 ステファン:キーワードをページに全く使われていなかったり、キーワードをスパム的に連呼する時以外に、キーワード密度は関係ない。 グレッグ:特定のキーワードだけよりキーワードと関係するキーワードもそのページに記述されているかということもセマテック分析では重要になる。色々な関連キーワードを入れることも重要。 XMLサイトマップはランキングに関係ある? ステファン:関係ない。スパイダーのクローリングの順番には多少影響があるかもだが、順位には関係ない。 グレッグ:順位に影響があると思っている人も多いが、関係ない。 ジル:XMLサイトマップがページのインデックスに効果があるか?という質問にすべき。ただそれも微妙ではあるが。 [...]

SMX West 2011 : SEOのテクニカルな質問にGoogleが答えます

14 years 11ヶ月 ago
SMX West2日目最後は(途中1本休みました)、毎度お馴染みのマニアックなSEOセッションを。テクニカル系のSEOの質問にGoogleと大手新聞のサイト運営者が答えます。 — SEO Japan モデレーターはサーチエンジンランドのバネッサ・フォックス。スピーカーはバネッサも参加し、Googleのマイリー・オーイとデファイン・メディア(ニューヨークタイムズ子会社)のマーシャル・シモンズ。セッション名通り。Q&Aベース。 Canonicalはいつ使うのがベストか? マーシャル:ニューヨークタイムズ(以下NYT)では何百万というコンテンツを配信しており、また多数のサイトにシンディケーション配信している。Canonicalタグをサイト内で正しく使い重複コンテンツの問題を解決することは、かなり壮大なプロジェクト。時間はかかるが、結果的にはGoogleのサイト内でのクローリング時間も減らし、残りのページの評価も上がる。やる価値はある。 マイリー:重複コンテンツをクロールできないようにする、という形からCanonicalを使ってどのコンテンツがオリジナルかを指定できるようにした方( = 重複コンテンツであってもクロールできるようにする)が良い結果が得られると判断している。ウェブマスターツールズのパラメーター機能を上手く活用することも手だ。 マーシャル:ページネーションを処理する場合、Canonicalタグはどのように設置するのがベストか?例えばCanonicalタグを設置したページには全ページへのリンクを張るべきというが( = 全て表示 と同じ状態)。ページランクの分散率などが気になる。 マイリー:Canonicalの意味としては重複コンテンツをクラスター化して同じコンテンツを特定の情報源に分類する目的がある。例えばページネーションでいうと、10件表示でページ1とページ2があるとする。20件表示で1ページで同じ内容を表示できる。「全て表示」するページがあればCanonicalはそこに向けるべき。同時に向けているページの内容が限りなく(検索結果含め)同じ必要はある。ページネーションの処理の場合は通常問題ない。 バネッサ:検索結果が100万件の場合はどうするのが良いか?全件表示は厳しいのでは。検索結果をさらにカテゴリ化して最終結果まで辿り着るようにする必要もある。 2つのページ内容が違う場合、Canonicalタグを指定しても無視されるのか? マイリー:その可能性が高い。基本的にページ内容がある程度同じじゃないとCanonicalを適用( = コンテンツをクラスター化)しない。例えば検索結果の2ページ目から1ページ目へCanonicalタグが指定されていたら検索結果が全く違うので適用されない可能性がある。使い方としては間違っている。 ユーザーの目的や意図に合わせて表示順などを変えているので、サイト上に大量の重複コンテンツがある。Canonicalタグをこのような場合でも使うべきか? マイリー:URLが違いページが同じであれば使うべき。 CSSで文字を表示外に記述する手法はどうなのか? マイリー:例で説明したい。 CSSで動的画像を使ったナビゲーションをコントロールする場合、その箇所にテキストを置きたい場合がある。例えばグローバルナビゲーションで各カテゴリー画像にカーソルを持っていくとサブカテゴリーの一覧画像が表示される。その一覧コードにH1テキストを挿入し、CSSで position: absolute; left: -999px 等のコードを記述し、テキストが表示されないようにする。かなり使われてきたテクニックだがスパム扱いになる可能性がある。 これからは@font-face機能を使ってテキストを使うことで対応することをおススメする。IE6以降で対応している。 障害者へのアクセシビリティの問題に対応できるのか? バネッサ:どちらかというとポリティカルな話だね。 Display: none;はまだ使えるのか? マイリー:それ自体は問題ない。 Discusのコメンティングシステム(註:ページにコメントできるサービス、多数のサイトが導入)は便利だが、AJAXベースでコメントが表示されるのでインデックスされない。私の知っている人はAJAXベースで文字を表示する場合、別にコメントのテキストをnoscriptでページ内に表示させてGoogleにインデックスさせている。これは手法としては良いのか? マイリー:実際にページに表示されるテキストだし、問題ないと思う。 Flashをクロールできると数年前からいっているが、正直余り機能していない気がするがどうなのか? マイリー:Flashは常に難しいチャレンジだ。GoogleはFlashやFlash経由で外部ファイルも読めるようになったとはいっているが、通常のウェブページのテキストに比べればクローリングの成功率は低い。 バネッサ:BingはFlash対応できていない。それを考えると良いのでは? マイリー:常にチャレンジしているが、Flashが勝手にクロールされることを待つよりはページにテキストを記述することをお勧めする。 Disney.comが使っているテクニックはどうなのか?(註:多少グレーなFlash対策をしているようです) マイリー:個人的にはおススメしない。 サイト上に低品質のページが大量にある場合は高品質のページまで低くサイト毎低く評価される可能性がある。低品質のページを削除すべき、というが、単純に低品質のコンテンツをブロックすればいいだけでは?本末転倒ではないか。 マイリー:考え方はわからなくもないが、そもそも低品質のコンテンツはユーザーにとっても役に立たない場合も多いだろう。その場合は、サイト側で低品質のコンテンツにnoindexタグをつける手法もあるかもしれない。少なくともGoogleに努力していることは伝わる。noindexの場合はGoogleはまた戻ってくる。品質が上がったらnoindexを外せば良い。 バネッサ:巨大サイトの場合はrobots.txtでクロールによる負荷を避ける意味で排除する場合もありえるだろう。 シンディケーション契約しているコンテンツサイトの場合、シンディケーション先のコンテンツもクローリングさせる方法はあるのか?例えばシンディケーション先でコンテンツに関連する独自のコメントや追加情報があり、ページの30%がオリジナルと違うケースなど。 マイリー:どちらかというと、テクニカルというよりクリエイティブな質問の気もするが。 バネッサ:シンディケーションされたコンテンツをオリジナルより価値があるものにすることはかなりのチャレンジ。明確な答えはない。 マーシャル:オリジナルコンテンツが元のサイトで他の大量のコンテンツと一緒に掲載された状態より、シンディケーション先の大手サイトで情報がより整理された状態で配信されることで、結果的にシンディケーション側のコンテンツが検索結果で高く評価されることもあるだろう。 アグリゲーションサイトが氾濫しているし、それなりの質の高いものもあるが、コンテンツはほぼ全て外部サイトからのものだ。例えばショッピングのアグリゲーションサイトは大手サイトが商品キーワードでかなり上位に表示されているが、オリジナルコンテンツは無い。このまま上位に表示されるのか? マイリー:サイトのサービスが良ければ価値があるサイトとみなされサイトにリンクが多く集まりGoogleにも評価される。それはそれで上位表示されて良いのでは。 マーシャル:かなり難しい問題だとも思っている。ある意味誰でもできることだし。そういうサービスばかり乱立しかねない。 [...]

SMX West 2011 : レビュー、レイティング、レピュテーションが検索結果に与える影響とは?

14 years 11ヶ月 ago
さて2日目午後最初のセッションは、昨年末に話題になったレビューサイトの検索結果への影響について。Googleのアルゴリズム調整があったという話もありましたが実際の影響がどれ位あるのか気になるテーマです。 — SEO Japan 原題「Ratings, Reviews & Reputation: Their Growing Impact On Search」。 モデレーターはサーチエンジンランドのマット・マッギー。スピーカーはOutspoken Mediaのレア・ドライズデール、KeyRelevanceのクリス・シルバー・スミス、15milesのグレッグ・スチュワート。 まずは15milesのグレッグ・スチュワート。名前の通り、主にローカル検索に強いサーチマーケ会社。 PC – 5回の検索中、1回がローカル関連。 モバイル – 3回の検索中、1回がローカル関連。 2009年と2010年を比較した場合、地域情報をネットで探す人が増えているという統計を紹介。 レビューサイトを探す割合: 32% – 全検索 40% – ソーシャル検索 45% – 音ばいる検索 4人の1人が検索の際、レビューサイトを参考にする。つまり25%。 ソーシャル検索の場合、40%、モバイル検索の場合、50%に増える。 消費者のうち、実際のレビューを投稿する人は23%。」 マーケッターがすべきこと: 1. 既存顧客にレビューサイトに投稿するよう依頼する。 2. 地域情報サイト(citysearch、yelp)に登録する。Googleの検索結果上でも連動して表示される。 3. ネガティブなレビューに反応する時はきちんとプランニングする。文句や言い訳は逆効果。対応する時はできるだけ早く行い、自分を正当化しないこと。できるだけオフラインで問題解決するよう促す(例えば謝った上で電話番号を記載し電話してもらう)。 4. 量より質。自作自演はばれる可能性がかなり高い。 5. ネガティブレビューを隠そうとしない。多少はネガティブレビューがある方が自然。50%の消費者は良いレビューと悪いレビューの両方がある方を信頼する。良いレビューだけより20%実際に利用する可能性が高い。ネガティブレビューはまた貴重なフィードバックでもある。改善できることは改善する。 6. 知識は重要。レビューサイトは多数ある。いわゆる「評価型」サイトだけではない。facebook、YouTube、Google Maps、yelp、Twitter、Citysearch、foursquareなど。 次はOutspoken Mediaのレア・ドライズデール。レビューのシグナルとテクニックについて。 Googleのレビューシグナルについて。 – レビューアーのロケーション。 [...]

SMX West 2011 : ツイッタースパマーにならない方法

14 years 11ヶ月 ago
初日最初のセッションは、ツイッターに関する話題から。今回はソーシャル関連のセッションに積極的に出るつもりです。ダニー・サリバンとツイッターのデル・ハーヴィーが2人で語る濃いセッションを。 – SEO Japan まずはサリバンから紹介。デル(女性)はツイッターにおけるGoogleのマット・カッツ的な人。トラスト&セイフティ部門のディレクターだそうです。スパム対策他色々なことをしていると。 以下彼女のプレゼン。 私が数年前にツイッターに参加した時はスパムの状況は最悪だった。当時に比べれば大分改善されたが、まだまだ。 ツイッターは特定のアカウントや投稿の質を直接的に判断することはない。特定のアカウントや投稿が他のユーザーにどう評価されているかということをベースに判断する。 ツイッターでやるべきじゃないこと: 1. 複数アカウントを作成して同じメッセージを配信すること。 気付いたらかなりの確率でアカウントを停止する。 2. 同じメッセージや広告メッセージを繰り返し大量に投稿しないこと。 システム的にすぐ気付く。 3. ハッシュタグをスパムに使わないこと。 ハッシュタグは関連性のある内容だけに利用すること。関連性が無いハッシュタグの投稿を繰り返すと、一定期間検索対象から外される。 4. ユーザーを騙すようなリンクを張らないこと。 特にマルウェア関係には厳しい。 5. リプライスパムをしないこと。 リプライを使ってターゲット広告を自動配信しないこと。 6. 自動投稿だけのアカウントにしないこと。 スパマーが良く使う手。 7. ユーザー名を販売しないこと。 ユーザー名を販売する行為が発覚した場合、ユーザー名自体を停止する。ブランド名や会社名が悪用されている場合は個別に連絡してくれたら対応する。 8. フォロワーを販売しないこと。 フォロワー増加サービスが最近増えているが、認めていない。 9. 他ネットサービスのアドレスブック・コンタクトリスト経由でスパムメッセージを送らないこと。 ユーザーから報告があればアカウントを停止する。 10. サードパーティのソフトウェアを使ってツイッターの規定外の行為を行ったりフォロワーチャーンを行わないこと。 フォロワーチャーン(Follower Churn)は相手がフォローしてくれるまでフォローとアンフォローを繰り返す行為。 11. スパム目的でリストに他ユーザーを追加しないこと。 報告を受ければアカウントを停止する可能性もある。 12. oAuth以外のアプリケーションを使わないこと。 非常に危険。アカウントのID/パスワードを相手に渡すことになる。 13. 他ブランドの名前をそのまま使わないこと。 パロディやブランドのファンであれば内容によっては認めている。ただしブランド名をそのまま使うことは基本的に認めていない。 14. キーワード検索による自動処理を行わないこと。 例えば特定のキーワードを含む投稿に対して広告の自動投稿を行う。人が介入していれば問題ない場合も多い。 15. リツイートを自動化しないこと。 例えば特定のキーワードを含む投稿に対して一言コメントを付けてリツイートするなど。人が介入してリアルなコメントがあれば問題ない。 ツイッターで注意すべきこと: [...]

SMX West 2011 : サーチマーケティングの現状と未来

14 years 11ヶ月 ago
今日から2日目です。多少は時差ぼけが直ったので頑張りますか。最初はサーチエンジン&SMXの主催者ダニー・サリバン自らが語るキーノート「サーチマーケティングの現状」。45分間、一人で何を語ってくれるのか。これを聞けばサーチマーケティングの未来が分かる?– SEO Japan 今回のイベントではPPCの話が余りなく、オルガニックの話題が多いが、許してほしい。最近、オルガニック系の話題が多いからね。 少し前までクールと言えばGoogleだったが、今はFacebookとTwitter。 とはいえオールドスクールもクールだ。GoogleやBingもまだまだクール。 Techmeme(IT系のニュースサイト)は、ネット上でバズっている話題をいつも見ることができる。BingがGoogleのデータを検索結果に利用しているというニュースは最近かなり話題になった。 Search is Back! あのニュースからというわけではないが、最近サーチの話題がかなり増えてきた。テククランチでもサーチの話題がかなり増えている。ディマンドメディアの話題やコンテンツファームの話題。Googleのマット・カッツも呆れている程に。2000年より2011年のGoogleが良いといっている。 そしてファーマーズ・アップデート。ネット中がこの話題で盛り上がっている。 実際の所、サーチの話題は尽きたことはない。 サーチでは予想外の変化が突然起こることがある。 昨年のGoogleプレイスの検索結果への統合。 昨年後半、例えばニューヨークタイムズが取り上げたネガティブな投稿を利用して検索結果を上げていると自ら公表した悪質ECサイトの話。5日後にアルゴリズム更新があり、そのECサイトの順位は落ちた。Googleがレビューを検索結果の参考にするというニュースがネット上に拡がった。 新年早々スクレイパーサイトが検索結果の上位にいることがおかしいという話題があった。23日後、Googleはスクレイパーサイト対策のアルゴリズムを導入した。 さらに3週間後、ファーマー・アップデート(パンダ・アップデート)が導入された。 Googleの仕事は早くて素晴らしい?! さて、実際の現状のGoogleの仕事はどうなんだろうか。 例えばパワーポイントに関するとあるロングテールの検索結果。1ページ目の10のサイト。1位はeHow。2位は全く関係ない。3位はパワーポイント2003の情報。4位はまぁまぁ。5位はコンテンツファームAnswers.coのサイト。正直、半数以上が役に立たない。その後も関係ない結果ばかり。 ファーマー・アップデートがどこまで効果的なのか良くわからない。この検索結果はスパムコンテンツというわけではない。ただほとんどが役に立たない検索結果。 スパムではないが、満足できない検索結果が多い もちろんBingやBlekkoも同じような検索結果。Googleだけの問題ではない。 イメージが現実に勝つこともある。12%の検索結果を改善した?実際はどうなんだろう。 Nofollowタグがコメントスパムを絶滅させたとGoogleは言うが、実際はコメントスパムは未だに氾濫している。 次に改善することは何? 例えば最近の有料リンク問題。JCペニーの件。現実的に多くのサイトが有料リンクを買っている。昔からあった話だが、ニューヨークタイムズが取り上げたことでネット上で大きな話題になった。有料リンクが問題視された。 でも有料リンクが絶滅したのか?全ての大手企業が有料リンクを買うことを止めるのだろうか?答えはNOだろう。そもそもJCペニーだって「リンクは買ったのはSEO会社が勝手にやったことだ」と言っている。 リンクに関する問題はNoFolowから有料リンク、スパムリンクまで未だに存在している。 検索エンジンはシグナルを絶望的に探している。 タイトルタグ、文章中のキーワード、リンク、タグ、、、。 サーチ3.0?ローカル、ニュース、ビデオ、ショッピング、、、サーチがバーティカル化することで、余計な情報を省き、適切な検索結果を返す。Googleは既に行っている。 サーチ4.0?ソーシャルとパーソナライゼーション経由の人によるシグナル(Human Signal)を活用する。例えばBingはFacebookを検索結果に統合した。Likeや友達の情報を活用している。 ちなみに別にBingの話をするためにBingからお金をもらっていないよ 笑 GoogleとBingはソーシャルシグナルをどこまで考慮するのか?昨年末に実際に両方の検索エンジンに聞いてみたこともある。両方の検索エンジンが検索結果に考慮すると答えた。その後すぐ、Googleは検索結果にソーシャルを統合した。Bingも統合した。 ソーシャルサーチの課題を知ってる? ソーシャルの情報はリアルタイムで変わり続ける。 “Anyone Know”サーチ(**を知っている?)をGoogleよりTwitterで行う人が増えている現実。 実験的にAnyone Know SEOというTwitterでの発言に別アカウントでサーチエンジンランドを紹介してみた。相手のことを知っているわけではなかったが、実際に多くの人に感謝された。質問している人も必ずしも友達にフォロワーや友達に質問しているわけではない。これは全く既存のサーチと同じ行動だ。 ソーシャルプラットフォーム上でサーチが行われるようになっている。 検索革命の話。 検索エンジンが登場する。家族、友達や専門家に質問していた。答えを得るまでに時間はかかった。 ↓ 検索エンジンが登場。瞬時に、信頼できる、人に知られることなく、質問に対する回答を得られるようになった。全ての情報が正しいわけではない。特に主観的な質問の場合(例えばどちらの携帯電話を買うべきか、など)。 そしてソーシャルネットワークの登場。 ソーシャルネットワークは我々をデジタル化し、検索可能にした。 検索エンジンはどうデジタル化された我々を取り込むのか? パーソナライゼーションの話。2つの重要な時期がある。 2009年12月。金曜日の午後だった。Googleがパーソナライズド検索を利用者がログインしている・していないに関わらず本格導入した。 [...]

SMX West 2011 : コンテンツファームは世界最強のSEO手法か?

14 years 11ヶ月 ago
SEO Japanでも関連記事を多数(多分日本で一番?)紹介しているコンテンツファームの話題がSMX West初日最後の話題に。コンテンツファーム対策のアルゴリズム更新を行ったばかりのGoogleの人が出ていないのですが、その分、自由な議論になるでしょうか? — SEO Japan 原題「”Content Farms” Or The Smartest SEOs In the World?」。モデレーターはサーチエンジンランドのマイク・マッギー。パネリストは今回初?!のYahoo!からルーク・ビーティ、AudienceWiseのマシュー・ブラウン、Blue Fountain Mediaのバーン・ホバート、PerfectMarketのティム・ルーダー。 マイク・マッギーから冒頭のコメント。最近何かと問題視されているコンテンツファームだが、人によって定義がかなり異なる。広告が多い、検索キーワードをターゲットにしている、質が低い、など。むしろ明確な定義はまだ無いといっていい。様々なコンテンツファームがあれば比較的役に立つコンテンツを作り出しているファームもあれば、全体的に質の低いファームもある。 今回のGoogleのパンダ・アップデートは多くのコンテンツファームに打撃を与えたのが事実。Yahoo!やEzineArticlesが代表的。ただeHowなどは特に影響を受けていないようだ。 まさに旬のこの話題、パネリストの発表内容に期待したい。 まずは今回のGoogleアップデートで大打撃をくらったYahoo!からルーク・ビーティ。 Yahoo!のコンテンツネットワークでは40万人以上をネットワーク化している。大半のコンテンツはアソシエイティドコンテンツ.comにホスティングされ、またそこからシンディケーション配信される。 今回のGoogleアップデートでどれ位打撃をくらったかと良く聞かれるが、 AssociatedContent.comへのGoogle経由のアクセスは1/3上がって2/3下がった という印象。インデックス自体は93%が残ってされている。 いずれにしても今回の件で色々と考えるべき課題はより明確になった: ・コントリビューターへの影響は? ・Yahoo!へのトラフィックの影響は? ・品質への影響は? ・マーケッターへの影響は? Associatedcontent.comをYahoo!買収前の歴史をさかのぼって考えたい。 2005年にコンテキスト = コンテンツ広告という概念を考えた その後、 コンテキスト = ハイパーターゲットなディスプレイ広告 に進化していった。 さらにYahoo!買収によってさらに コンテキスト = 消費者のアクティベーション(Consumer Activation) をいかに喚起できるか?というレベルに進化している。 クラウドソーシングによって編集された記事であり広告だ。コンテンツファームと呼ばれることは心外。 ちなみに今日現在、 70%のコンテンツはクラウドソーシングによって作られている。 30%のコンテンツはあなたが知っている人によって作られている。 次にPerfectMarketのティム・ルーダー。何故かプレゼン資料無し。 既存メディアが持っていた価値。現状のネットにおいても既存メディアが提供する品質の高いコンテンツは重要だ。ただウェブの進化に伴い様々なことが変わっている。 30年前、サタデーナイトライブ(註:人気のコメディショー)でこんなシーンがあった。カダフィ大佐のスペルが新聞や雑誌によって、全て違ったというニュース番組を紹介した。ちなみに今もメディアによってスペリングが違い100種類以上あるという話もある。 コンテンツファームとは何か?コンテンツファームは、人々が何に興味があるかということを自動で認識し、そこから低価格で大量のコンテンツを産みだす仕組みを持っている。 1. 大量コンテンツ生成 [...]

SMX West 2011 : 行動履歴で検索キーワードが追えなくなる日

15 years ago
初日の午後最初のセッションは「検索マーケティングはトラッキングするな!」というタイトル。ユーザーのプライバシー問題が注目される中、ユーザーの行動履歴を取得することに対しての制限が法的にかけられる可能性もある現状と未来に関するお話を。今回から初登場の話題なので参加してみました。 — SEO Japan 原題は「Do Not Track & Search Marketing」。 SEO Japanでもお馴染みサーチエンジンランドのクリス・シャーマンがモデレーター。Antezeta Web Marketingのシーン・カルロス、Looper Reed & McGrawの弁護士トラビス・クラブツリー、Vincodoのティム・デイリー、そしてDidit.comのケビン・リー。弁護士事務所+検索マーケ会社の面々。 まずはクリスがセッションの趣旨を紹介。最近プライバシー問題が世界的に注目されている。昨日もヨーロッパでECサイト以外はユーザーのクッキーをトラッキングしている場合は、サイト訪問時にユーザーにそれを伝えなければいけない法律が可決された。現実的にユーザーがサイトを訪問した時にポップアップでクッキーであなたの情報をトラッキングしていると告知しなければいけない状況を想像できるか?このような動きが世界的に出ている。今日のセッションではそれにまつわる様々な話題を話し合いたい、とのこと。 まずはSEO会社Didit.comのケビン・リー。業界の超ベテランですね。 全体的な話をするとメディアのマーケットプレース化によりサーチと関係なく、広告主はより望んでいるターゲットユーザーにメッセージを伝えることができるようになった。ただその分、ユーザーの行動履歴を追っているのも事実。 行動履歴に関する規制が進むと、広告の関連性は下がらざるえない。一般的に消費者は、個人を特定しているわけではなくとも、自分の行動がトラッキングされているといわれると嫌がるだろう。業界側が啓蒙する必要が多分にある。 サードパーティクッキーが絶滅したらどうなる? 検索という意味ではリファラーデータがなくなるわけではないし、致命的ではない。他の広告システム(アドネットワーク、キャンペーン管理、アフィリエイトなど)の方が致命的だろう。 ブラウザーの設定でクッキーをブロックするユーザーも増えていく。同じく啓蒙活動がいる。 最近流行のリターゲティング広告、ユーザーにとってはどこまでが許容範囲か?離婚の弁護士を進められ続けたらどう思うか?行きすぎなパーソナライゼーションも同じ。 行動履歴問題に関しては、業界全体の啓蒙が必要。正しい技術と戦略を持つことも重要。 次はAntezeta Web Marketingのシーン・カルロス。歴史的にこの問題を見てみたい。 広告業界の有名な台詞。 広告費の半分は無駄になっている。問題はその半分がどこにあるのか分からないことだ。 ウェブが普及してきた頃(1996年~1997年)から、ウェブで可能となった行動履歴のトラッキング技術に関しては懸念の声はあった。2006年でもWall Street Journalは「クッキーはスパイウェア」と言い切った。2009年、ドイツではプライバシー問題からGoogle Analyticsの利用は禁止すべき、との声が上がった。 トラッキング技術はクッキーだけじゃない: 1. クッキー(ブラウザーテキストファイル) 2. Flash LEO(ブラウザークッキーと似ている) 3. リファラー(URLリファラー) 4. クリック(ウェブマスターツール) 5. ビーコン(画像やサーバーコール) トラッキングの活用法: ・ユーザーの行動履歴を取得 ・ユーザー毎に最適なコンテンツを表示 FTC(米連邦取引委員会)も、かなりの懸念をしている。 SEOの観点からのプライバシー問題。最大はキーワードのリファラー。クッキーも場合によっては関係してくる。 まだパニックになる必要はないが、マーケッターであれば、最低限の技術を理解し、議会の動向も確認しておきたい。 次にVincodoのティム・デイリー。 1998年頃からページのカテゴリーに基づいたバナー広告が表示されるようになった。ネットバブル崩壊の後、もっと高いROIを要求する声が広告主から上がった。バナー広告は衰退し、他のチャンネルに手法が移った。もちろん最大のチャンネルは検索、そしてGoogleだった。 [...]

SMX West 2011 : Google Instant – デビュー6カ月後の現在

15 years ago
さてSMX West、2つ目のセッションはGoogle Instantの導入から6カ月立った今日、Google&サーチマーケ会社がその影響について語るセッションを。日本のGoogleの今後を占う上でヒントになる点もあるかと思い。– SEO Japan モデレーターは同じくダニー・サリバン。スピーカーはGoogleからエンジニアのオサー・ハンソン。他はOptifyのエレズ・バラク、Search Influenceのアンソニー・コールマン、そしてPromediacorpのアヴィ・ウィレンスキーとサーチマーケティング会社の皆さん。 サリバンがまずは冒頭に一言。Google Instantが導入された時、「SEOは死んだ!」という話題が出た。さて、一体どうなのか? まずはGoogleから。セミアニュアルレポートという位置づけでInstantの状況を報告。 導入当時、SEOもだが、検索やシステムを破壊するのでは?!と様々なことをいわれた。 さて。まずは通常の検索にかかる時間を見てみたい。 ユーザーがキーワード入力→平均9秒。 ↓ ネットワーク 400ミリ秒。 ↓ 結果を出す→~300ミリ秒。 ↓ ネットワーク 400ミリ秒。 ↓ ユーザーが検索結果を選ぶ→平均15秒。 ここで発表。 今日からアンドロイドでもGoogle Instantを使えるようになった! Google Instantは、ご存じのように入力されるキーワードを予測して表示する。 例えばfloと入力されたらflowerと表示する。 Google Instantは下記の4つの組み合わせ: タイプする度に変わる瞬間的な検索結果。 検索キーワードの予測。 スクロール。 キーボードナビゲーション(今後強化)。 ユーザーは良いコンテンツを常に探している。 その手助けをする。 Google Instantの最新ロールアウト。対象国を次々に増やしている。Google Chrome Instantのリリース。 Instantの課題。 例えばnetと検索された際に、netflixからnetscapeまでブレンドされた検索結果を表示すべきか? 例えば予測したキーワード毎に検索結果をブロック毎に出すべきか? ユーザーの目の動きを研究。 など。 ブラウザーからオートコンプリート/検索リクエストがGoogleに飛ぶ。 ↓ Googleは予測したオートコンプリートの内容と、検索結果を表示する。 常に効果的なスケーリングを考えて様々な技術的な改善を行っている。 ここから各検索マーケティング会社の報告。 まずはPromediacorpのアヴィ・ウィレンスキー。ボブという人格を立てて様々なケースを紹介。 ボブは小さなカーペット店を営んでいる。ネット上でも良いレビューをもらっている。ところがある日から自分の店に関する不満が急にネットで増えだした。ボブはGoogleにネガティブなレビューをGoogleに通報して削除してもらおうとしたが、Googleはお馴染みのカスタマーサービスで全く返信なし笑 ボブはSEO会社を雇ってネガティブSEO対策を行ったがいまいち効果無し。そしてGoogle Instantが登場。自分の店の名前を入力した時点で、不平不満に関連したキーワードがサジェスションとして表示される事態に。売上は激減。飲酒量は増える一方だった。。。 [...]

SMX West 2011 : ソーシャルシグナルとサーチの関係

15 years ago
突然ですが今日からSMX West 2011のライブレポートをさせていただきます!検索系のイベントではSESと並んで双璧のイベントがこのSMX。SMX Westはネット企業のメッカ、シリコンバレーの側で行われることもあり、SMXの中でも最大規模のイベントになっています。まず最初のセッションはSEO的には最も旬な話題の1つ、「ソーシャルシグナルと検索」に関して。 — SEO Japan 原題「Social Signals & Search」のこのセッション、ダニー・サリバンをモデレーターにGoogleのプロダクト・マネッジメントのディレクター、マイク・キャシディとBing Socialのポール・ユウという2大検索エンジンからスピーカーが参加するいきなりの豪華セッションです。 さて以下、内容。 まずはBingのポールから。 ソーシャル以前はウェブページのリンク関係でウェブが成り立っていた。今は人々の関係で成り立っている。 検索する際に、友達の興味や関連情報を一緒に表示させたら誰にとっても便利なのでは? 例えばBingで検索する際に、Facebookの友達の情報を一緒に表示する。例えば特定のレストランを検索結果に表示した際、友達がLikeしていたらその情報も一緒に表示する。映画でも同じ。Bingの検索とソーシャルを統合した結果。例えばWindows 7についての記事が検索結果に表示された時、友達がそのページをLikeしていたらそれも同時に表示する。場合によってはツイッターのつぶやきも同時に表示する。 つまり 「ソーシャルプレゼンスとウェブプレゼンスの融合」 だ。 プロセスとしては単純化すると下記の6段階に分けられる。 ネット上が人々がコンテンツをシェアする。 ↓ コンテンツがFacebookやTwitterに伝わる。 ↓ それらのソーシャルな情報が「公式な形で」Bingにリアルタイムに来る。 ↓ Bingがコンテンツをプロセス、インデックスする。 ↓ Bingがランキングして関連付ける。 ↓ Bingではユーザーが検索、ソーシャルとウェブが融合した体験ができる。 — Bingが参考にするソーシャルの情報。 ユーザーのアトリビュート: 友達・フォロワー・フォロー ユーザーのアクション: リツイート、リプライ、同じリンクをシェアしているユーザー 単純な「Like Farms」(ライク・ファーム = リンクファームと比較してこう呼んでいる)は既に通じない! とはいっても、現状、Like数が品質とかなり関連性があるのも事実。 スパムはコミュニティの分析でかなり特定できる。実際のコミュニティに比べて単純。 検索エンジンがソーシャル化するに連れ、考慮すべきこと: 品質、信頼性、人気、時間軸 良いコンテンツを共有されやすい形で提供することが大事。 スパムは通じない。 続けてGoogleのマイク・キャシディ。元Direct HitのCEOなんですね。どこかで聞いたことがある名前だと思いました。 まず僕自身のことを少し。Direct Hitは検索結果のクリック率を参考にしたアルゴリズムを持っていた。Ask Jeevesに売却した後、XFIREというオンラインゲーム用にインスタントメッセンジャーを手掛けていた。最後にMTVに売った。その後、FriendsTipsという友達によるレコメンデーションサービスを手掛け、Googleに買収され、そのまま僕も参加した。 さてGoogleのソーシャル検索とは何か? [...]

GoogleがアドワーズAPIをアップデート

15 years ago
GoogleがアドワーズAPIをアップデートしたというニュースが飛び込んできたので週末ながら紹介します。日本の広告代理店さんがどれ位利用しているのか正直不明なのですが、ジオターゲティングやA/Bテストなどかなり高度な機能がAPI経由で利用できるようになったということでご紹介。 — SEO Japan Googleは今日、アドワーズAPIをアップグレードしたことを正式に発表した。今回のアドワーズAPIでは、クライアントに対するレポーティング、より充実したフィルタリング機能、ジオターゲティング、そしてA/Bテストなど様々な実験を行うことができるようになっている。 この最新のアドワーズAPI v201101を使うことで、例えば広告代理店がクライアントのサイトにコンバージョンポイントを設定し広告を管理することができる。例えば自動車メーカーのサイトで特定の車種のページを訪れたユーザーに対して特定の広告を表示することができる。 新しいレポート機能では、広告代理店が複数のクライアントにまたがった統計も見ることができる。これにより広告代理店がクライアント全体の傾向をつかむことができるようになる。また新たに地域別、デモグラフィック別、広告のエクステンション別、URLやクリエイティブ別のコンバージョンを細かく見ることができるようになった。 さらにこのAPIは広告キャンペーンで様々なテストを行うことができるようになった。例えばA/Bテストを簡単にサイトに導入することができる。 またジオターゲティング機能により、ユーザーのロケーションを特定し広告を出しわけることが可能になった。 このAPIのリリースにより、GoogleはAPIのバージョン v13 (レポートサービスとトラフィック予測サービスのみ)、v200909、v201003、そしてv201008を終了するようだ。ビッドランドスケープサービスはデータサービスに統合される。 この記事は、Search Engine Landに掲載された「Google Releases First AdWords API Upgrade Of 2011」を翻訳した内容です。 正直、このニュースが日本の皆さんにどれ位有益か分からないのですがAPI経由でA/Bテストができる話に魅かれてつい即効で紹介してしまいました。使いこんでる人にはとっても凄くて便利なアップグレードなのでしょうが、効果測定周りのビジネスしているベンダーには驚異の話でもあるのかもしれません。私の会社もLPOツールを提供していますかし。ま、高機能+導入コンサルティングで負ける気はしないのですが、ついつい気になってしまうニュースでした。– SEO Japan
確認済み
3 時間 1 分 ago
SEO Japan フィード を購読

人気記事トップ10

人気記事ランキングをもっと見る