SEO Japan

Googleスプレッドシート、GSC、ChatGPT API を使用して SEO分析を自動化する方法

10ヶ月 2 週間 ago

この記事は、2025年1月30日に Search Engine Land で公開された  Ludwig Makhyan氏「Automate SEO analysis with Google Sheets, GSC & ChatGPT API」を翻訳したものです。

Google スプレッドシートを使えば、サイト監査の自動化、ページ分析、AIを活用した最適化のためのインサイト生成を一括で行うことができます。

SEO分析は多くの時間を要しますが、自動化を取り入れることで反復作業を減らし、重要なWebサイトの最適化を迅速に行えるようになります。

本ガイドでは、Googleスプレッドシート、Google Search Console(GSC)、ChatGPT APIを活用して、カスタムツールを構築し、SEO監査を効率化する方法を詳しく解説します。これにより、AIを活用した最適化のためのインサイト生成を一括で行うことができます。

このツールでできること

  • GSCデータの取得を自動化し、分析のスピードを向上させる
  • AIを活用して、実用的なSEOの改善提案を生成する

仕組み

まず、GSCに接続されているドメインからURLを選択し、ChatGPT APIキーを入力。その後、ページを分析し、AIを活用したSEOインサイトを取得します。すべての作業はGoogleスプレッドシート上で完結します。

自動化できるSEO分析とは?

このツールを設定すると、キーワードランキング、参照 URL、最終クロール日、robots.txt のインデックス作成ステータスなど、GSC からの主要な SEO データにすばやくアクセスできるようになります。

さらに、ChatGPTを活用することで、以下の項目を分析し、改善のための推奨事項を提供します。

  • タイトルタグ
  • メタディスクリプション
  • 見出しタグ
  • コンテンツの最適化
  • キーワードの配置
  • 内部リンクの構造
  • モバイル最適化
  • ローカルSEO対策
  • スキーママークアップ

このスクリプトはすべてを網羅できるわけではありませんが、数秒で詳細なページ分析情報を提供し、手作業にかかる時間を大幅に削減できます。
分析結果を確認した上で、どの推奨事項を実施するかを決定できます。

独自のGSCカスタムツール+スクリプトを設定する8つの手順

スクリプトの設定は一見複雑に思えるかもしれませんが、各手順を慎重に実行し、スクリプトをコピーして適切に動作することを確認すれば、スムーズに導入できます。

事前に準備するものは以下です。

  • ChatGPT APIキー
  • Google スプレッドシート
  • Google Search Console(リンクされたプロパティを含む)
  • Google Cloud Consoleのデータプロジェクト

それでは、このツールを稼働させるための8つのステップを順番に説明していきます。

ステップ1:ツール用のGoogleスプレッドシートを作成する

Googleアカウントをお持ちであれば、以下の手順で簡単に作成できます。

  1. Google ドライブを開く
  2. ツールを保存するフォルダーへ移動
  3. 画面の背景を右クリック
  4. [Google スプレッドシート] → [空白のスプレッドシート] を選択

シート名は自由に設定できますが、今回は「GSC カスタム ツール」と名付けました。

ステップ2:シートに入力する

D1 に ChatGPT API キーを貼り付けます。このキーがない場合は、上記のリンクにアクセスして、このツールが機能するために必要なキーを取得してください。

ここで、両方の列のいくつかの行を結合する必要があります。次の手順に従って、F2 ~ F30 と G2 ~ G30 を個別に結合します。

  • 結合する行を選択します。
  • [書式] > [セルの結合] > [垂直方向に結合]に移動します。

結合する必要がある F 行と G 行に対してこの手順を繰り返します。

ステップ3: Google Cloudプロジェクトを作成する

ツール用の Google Cloud Console データ プロジェクトを作成します。

セットアップが完了したら、「GSC Custom Tool」という名前の新しいプロジェクトを作成します。

Select Project > New Project に移動し、スクリーンショットの例と同様に情報を入力します。

プロジェクトの名前を設定したら、Create をクリックします。

次に、Google Search Console API をプロジェクトに接続します。

検索バーに「Google Search Console API」と入力して選択し、次の画面で「有効にする」をクリックします。

まだやるべきことはたくさんありますが、近いうちにこのプロジェクトを再検討する予定です。

さらに詳しく: SEO タスクを自動化する 5 つの Python スクリプト

ステップ4: アクセスライセンス情報を追加する

さらに調整するには、Google Cloud Console に戻ります。 

画面の左側にある「Credentials」をクリックします。

画面上部の「+CREATE CREDENTIALS」をクリックし、 OAuth Client ID を選択します。 

「Configure Consent Screen」に移動し、「External」を選択します。画面を作成し、以下の情報を入力します。

  • アプリ名
  • GSC アカウントにリンクされたサポートメール
  • 開発者の連絡先情報

入力後、「Save and continue」をクリックし、次の画面(「Add or Remove Scopes」)に進みます。

「Google Search Console API」のスコープを選択し、更新します。その後、「Save and continue」をクリックします。

アクセス権を付与したいユーザーを追加し、「Save and continue」をクリックします。

ステップ 5: GSC データ用の Google Cloud プロジェクトに変更する

ハンバーガーアイコンをクリックし、Cloud overview > Dashboard に移動します。

ページに表示されている プロジェクト番号 をコピーします。

プロジェクト番号に移動し、それを選択して CTRL + C でコピーします。

Google スプレッドシートのファイルを開き、Project Settings と書かれた歯車アイコンをクリックします。

テキストボックスにプロジェクト番号を貼り付け、Set project をクリックします。

ステップ6: Google Apps Scriptに名前を付ける

スクリプトの管理をしやすくするために、名前を追加します。

これを行うには、Project History に移動し、画面上部にある Untitled project をクリックします。

「GSC Custom Tool」と入力して、プロジェクト名を設定します。

ステップ7: マニフェストファイルを編集する

新しく作成した Google スプレッドシート ファイルに Apps Script を統合します。

これを行うには、ファイルを開き、Extensions > Apps Script に移動します。

次に、以下のコードをコピー&ペーストします。

(コードウィンドウ内のコードを選択し、CTRL + C を押してコピーします。その後、Apps Script に戻り、CTRL + V を押してコードを貼り付けます。)

{
  “timeZone”: “America/New_York”,
  “dependencies”: {},
  “exceptionLogging”: “STACKDRIVER”,
  “oauthScopes”: [
    “https://www.googleapis.com/auth/webmasters”,
    “https://www.googleapis.com/auth/webmasters.readonly”,
    “https://www.googleapis.com/auth/script.external_request”,
    “https://www.googleapis.com/auth/spreadsheets”,
    “https://www.googleapis.com/auth/spreadsheets.currentonly”
  ],
  “runtimeVersion”: “V8”
}

ステップ8: アプリスクリプトを作成する

すべてを貼り付けたら、Code.js ファイルに移動して次のコードを貼り付けます。

// Store the OAuth token and logs in script properties
const scriptProperties = PropertiesService.getScriptProperties();
const OPENAI_URL = “https://api.openai.com/v1/chat/completions”;
const SYSTEM_MESSAGE = { role: “system”, content: “You are a helpful SEO expert.” };


function log(message) {
  Logger.log(message); // Regular Apps Script logging
  const logs = scriptProperties.getProperty(‘customLogs’) || ”;
  scriptProperties.setProperty(‘customLogs’, logs + ‘\n’ + message); // Append message to logs
}


function resetLogs() {
  scriptProperties.deleteProperty(‘customLogs’); // Clear logs for a new execution
}


function getLogs() {
  return scriptProperties.getProperty(‘customLogs’) || ‘No logs available.’;
}


function fetchOAuthToken() {
  let token = scriptProperties.getProperty(‘oauthToken’);
  if (!token) {
    token = ScriptApp.getOAuthToken();
    scriptProperties.setProperty(‘oauthToken’, token);
    log(‘OAuth token fetched and stored.’);
  }
  return token;
}


function onOpen() {
  const ui = SpreadsheetApp.getUi();
  ui.createMenu(‘Search Console’)
    .addItem(‘Authorize GSC’, ‘promptReauthorization’)
    .addItem(‘Fetch GSC Properties’, ‘fetchGSCProperties’)
    .addItem(‘Inspect URL’, ‘inspectUrl’) // Add the Inspect URL button
    .addItem(‘AI Analyze’, ‘aiAnalyze’) // Add the AI Analyze button
    .addToUi();
}


function promptReauthorization() {
  const ui = SpreadsheetApp.getUi();
  const response = ui.alert(
    ‘Re-authorize Script’,
    ‘Re-authorizing will revoke current permissions and require you to authorize again. Do you want to continue?’,
    ui.ButtonSet.YES_NO
  );


  if (response === ui.Button.YES) {
    try {
      scriptProperties.deleteProperty(‘oauthToken’); // Clear old token
      const token = fetchOAuthToken(); // Fetch and store new token
      log(“OAuth Token: ” + token);
      ui.alert(‘Authorization successful. No further action is required.’);
    } catch (e) {
      ui.alert(‘Authorization failed: ‘ + e.toString());
    }
  } else {
    ui.alert(‘Re-authorization canceled.’);
  }
}


function fetchGSCProperties() {
  resetLogs();
  const sheet = SpreadsheetApp.getActiveSpreadsheet().getActiveSheet();
  const oauthToken = fetchOAuthToken();


  const sites = getSitesListFromGSC(oauthToken);


  if (!sites || sites.length === 0) {
    SpreadsheetApp.getUi().alert(‘No GSC properties found. Please ensure you have access to GSC properties.’);
    return;
  }


  const siteUrls = [‘Select a property’].concat(
    sites.map(site => site.siteUrl).sort()
  );


  sheet.getRange(‘A1’).setValue(‘Select GSC property’).setFontWeight(‘bold’);
  sheet.getRange(‘B1’).setDataValidation(
    SpreadsheetApp.newDataValidation()
      .requireValueInList(siteUrls, true)
      .build()
  );
  sheet.getRange(‘B1’).setValue(‘Select a property’).setFontWeight(‘bold’);
  sheet.setColumnWidth(1, 150);
  sheet.setColumnWidth(2, 350);
}


let isProcessing = false; // Global flag to prevent recursive triggering


function onEdit(e) {
  if (isProcessing) return; // Prevent re-entry during execution
  isProcessing = true; // Set flag to true


  try {
    resetLogs();
    const sheet = e.source.getActiveSheet();
    const range = e.range;


    // Always clear A3:D30 on edits to B1 or B2
    if (range.getA1Notation() === ‘B1’ || range.getA1Notation() === ‘B2’) {
      sheet.getRange(‘A3:D30’).clearContent();
      sheet.getRange(‘F1:G30’).clearContent();


      if (range.getA1Notation() === ‘B1’) {
        const selectedProperty = range.getValue();


        // Clear A2 and set loading state
        sheet.getRange(‘A2’).setValue(‘Loading results…’).setFontWeight(‘bold’);
        sheet.getRange(‘B2’).clearContent();


        if (selectedProperty === ‘Select a property’) {
          sheet.getRange(‘A2’).clearContent();
          sheet.getRange(‘B2’).clearContent();
          return;
        }


        const oauthToken = fetchOAuthToken();
        const urls = getUrlsForProperty(selectedProperty, oauthToken);


        if (!urls || urls.length === 0) {
          sheet.getRange(‘A2’).setValue(‘No URLs found’).setFontWeight(‘bold’);
          sheet.getRange(‘B2’).clearContent();
          log(`No URLs found for property ${selectedProperty}`);
          return;
        }


        sheet.getRange(‘A2’).setValue(‘Select a URL’).setFontWeight(‘bold’);
        sheet.getRange(‘B2’).setDataValidation(
          SpreadsheetApp.newDataValidation()
            .requireValueInList([‘Select a URL’].concat(urls), true)
            .build()
        );
        sheet.getRange(‘B2’).setValue(‘Select a URL’).setFontWeight(‘bold’);
      }


      if (range.getA1Notation() === ‘B2’) {
        const selectedProperty = sheet.getRange(‘B1’).getValue();
        const selectedUrl = range.getValue();


        if (selectedUrl === ‘Select a URL’) {
          return;
        }


        sheet.getRange(‘A3’).setValue(‘Loading keywords…’).setFontWeight(‘bold’);


        const oauthToken = fetchOAuthToken();
        const keywords = getTopKeywordsForUrl(selectedProperty, selectedUrl, oauthToken);


        if (!keywords || keywords.length === 0) {
          sheet.getRange(‘A3’).setValue(‘No keywords found’).setFontWeight(‘bold’);
          log(`No keywords found for URL ${selectedUrl}`);
          return;
        }


        // Populate keywords and metrics
        sheet.getRange(‘A3:D12’).clearContent(); // Clear any loading message
        keywords.forEach((keyword, index) => {
          if (index < 10) {
            sheet.getRange(`A${3 + index}`).setValue(keyword.query).setFontWeight(‘bold’);
            sheet.getRange(`B${3 + index}`).setValue(keyword.clicks);
            sheet.getRange(`C${3 + index}`).setValue(keyword.impressions);
            sheet.getRange(`D${3 + index}`).setValue(keyword.ctr);
          }
        });
      }
    }
  } catch (error) {
    log(`Error in onEdit: ${error}`);
  } finally {
    isProcessing = false; // Reset the flag after execution
  }
}


function getApiRequestDetails(selectedProperty) {
  const payload = {
    startDate: getThreeMonthsAgo(),
    endDate: getToday(),
    dimensions: [“page”],
    rowLimit: 100,
    orderBy: [{ fieldName: “clicks”, sortOrder: “DESCENDING” }]
  };


  const apiUrl = `https://www.googleapis.com/webmasters/v3/sites/${encodeURIComponent(selectedProperty)}/searchAnalytics/query`;
  return { url: apiUrl, payload: payload };
}


function getSitesListFromGSC(oauthToken) {
  try {
    const url = ‘https://www.googleapis.com/webmasters/v3/sites’;


    const headers = {
      ‘Authorization’: ‘Bearer ‘ + oauthToken,
      ‘Content-Type’: ‘application/json’
    };


    const options = {
      method: ‘get’,
      headers: headers,
      muteHttpExceptions: true
    };


    const response = UrlFetchApp.fetch(url, options);
    log(`Response Code: ${response.getResponseCode()}`);
    log(`Response Content: ${response.getContentText()}`);


    if (response.getResponseCode() === 200) {
      const json = JSON.parse(response.getContentText());
      return json.siteEntry || [];
    } else {
      throw new Error(`Error fetching data: ${response.getResponseCode()} – ${response.getContentText()}`);
    }
  } catch (e) {
    log(`Error: ${e.toString()}`);
    return [];
  }
}


function getUrlsForProperty(property, oauthToken) {
  try {
    const apiUrl = `https://www.googleapis.com/webmasters/v3/sites/${encodeURIComponent(property)}/searchAnalytics/query`;


    log(`API URL: ${apiUrl}`);
    log(`OAuth Token: ${oauthToken}`);


    const payload = {
      startDate: getThreeMonthsAgo(),
      endDate: getToday(),
      dimensions: [“page”],
      rowLimit: 100,
      orderBy: [{ fieldName: “clicks”, sortOrder: “DESCENDING” }]
    };


    log(`Payload: ${JSON.stringify(payload)}`);


    const headers = {
      Authorization: `Bearer ${oauthToken}`,
      “Content-Type”: “application/json”
    };


    const options = {
      method: “post”,
      contentType: “application/json”,
      headers: headers,
      payload: JSON.stringify(payload),
      muteHttpExceptions: true
    };


    const response = UrlFetchApp.fetch(apiUrl, options);


    log(`Response Code: ${response.getResponseCode()}`);
    log(`Response: ${response.getContentText()}`);


    if (response.getResponseCode() === 200) {
      const json = JSON.parse(response.getContentText());
      return json.rows ? json.rows.map(row => row.keys[0]) : [];
    } else {
      throw new Error(`Failed to fetch data: ${response.getResponseCode()} – ${response.getContentText()}`);
    }
  } catch (e) {
    log(`Error: ${e.toString()}`);
    return [];
  }
}


function getTopKeywordsForUrl(property, url, oauthToken) {
  try {
    const apiUrl = `https://www.googleapis.com/webmasters/v3/sites/${encodeURIComponent(property)}/searchAnalytics/query`;


    log(`API URL: ${apiUrl}`);
    log(`OAuth Token: ${oauthToken}`);


    const payload = {
      startDate: getThreeMonthsAgo(),
      endDate: getToday(),
      dimensions: [“query”],
      dimensionFilterGroups: [
        {
          filters: [
            {
              dimension: “page”,
              operator: “equals”,
              expression: url
            }
          ]
        }
      ],
      rowLimit: 10,
      orderBy: [{ fieldName: “clicks”, sortOrder: “DESCENDING” }]
    };


    log(`Payload: ${JSON.stringify(payload)}`);


    const headers = {
      Authorization: `Bearer ${oauthToken}`,
      “Content-Type”: “application/json”
    };


    const options = {
      method: “post”,
      contentType: “application/json”,
      headers: headers,
      payload: JSON.stringify(payload),
      muteHttpExceptions: true
    };


    const response = UrlFetchApp.fetch(apiUrl, options);
    log(`Response Code: ${response.getResponseCode()}`);
    log(`Response: ${response.getContentText()}`);


    if (response.getResponseCode() === 200) {
      const json = JSON.parse(response.getContentText());
      return json.rows ? json.rows.map(row => ({
        query: row.keys[0],
        clicks: row.clicks,
        impressions: row.impressions,
        ctr: row.ctr
      })) : [];
    } else {
      throw new Error(`Failed to fetch data: ${response.getResponseCode()} – ${response.getContentText()}`);
    }
  } catch (e) {
    log(`Error: ${e.toString()}`);
    return [];
  }
}


function getToday() {
  const today = new Date();
  return today.toISOString().split(“T”)[0];
}


function getThreeMonthsAgo() {
  const date = new Date();
  date.setMonth(date.getMonth() – 3);
  return date.toISOString().split(“T”)[0];
}


function inspectUrl() {
  const sheet = SpreadsheetApp.getActiveSpreadsheet().getActiveSheet();
  const url = sheet.getRange(‘B2’).getValue();
  const property = sheet.getRange(‘B1’).getValue();


  // Clear previous inspection results in A15:D30
  sheet.getRange(‘A15:D30’).clearContent();
  sheet.getRange(‘A15’).setValue(‘Inspecting…’).setFontWeight(‘bold’);


  if (!url || url === ‘Select a URL’) {
    SpreadsheetApp.getUi().alert(‘Please select a valid URL in cell B2 before inspecting.’);
    sheet.getRange(‘A15’).setValue(‘No URL selected’).setFontWeight(‘bold’);
    return;
  }


  const oauthToken = fetchOAuthToken();


  try {
    const result = callUrlInspectionApi(property, url, oauthToken);


    // Extract fields from the response
    const indexStatus = result.indexStatusResult || {};
    const mobileUsability = result.mobileUsabilityResult || {};
    const richResults = result.richResultsInfo || {};
    const referringUrls = indexStatus.referringUrls?.join(‘, ‘) || ‘None’;


    // Populate inspection results in the sheet
    sheet.getRange(‘A15’).setValue(`Inspection Results`).setFontWeight(‘bold’);
    sheet.getRange(‘A16’).setValue(`URL:`).setFontWeight(‘bold’);
    sheet.getRange(‘B16’).setValue(url);


    sheet.getRange(‘A17’).setValue(`Coverage:`).setFontWeight(‘bold’);
    sheet.getRange(‘B17’).setValue(indexStatus.coverageState || ‘Unknown’);


    sheet.getRange(‘A18’).setValue(`Robots.txt:`).setFontWeight(‘bold’);
    sheet.getRange(‘B18’).setValue(indexStatus.robotsTxtState || ‘Unknown’);


    sheet.getRange(‘A19’).setValue(`Indexing State:`).setFontWeight(‘bold’);
    sheet.getRange(‘B19’).setValue(indexStatus.indexingState || ‘Unknown’);


    sheet.getRange(‘A20’).setValue(`Last Crawled:`).setFontWeight(‘bold’);
    sheet.getRange(‘B20’).setValue(indexStatus.lastCrawlTime || ‘Not Available’);


    sheet.getRange(‘A21’).setValue(`Google Canonical:`).setFontWeight(‘bold’);
    sheet.getRange(‘B21’).setValue(indexStatus.googleCanonical || ‘Unknown’);


    sheet.getRange(‘A22’).setValue(`User Canonical:`).setFontWeight(‘bold’);
    sheet.getRange(‘B22’).setValue(indexStatus.userCanonical || ‘Unknown’);


    sheet.getRange(‘A23’).setValue(`Mobile Usability:`).setFontWeight(‘bold’);
    sheet.getRange(‘B23’).setValue(mobileUsability.verdict || ‘Unknown’);


    sheet.getRange(‘A24’).setValue(`Rich Results Eligibility:`).setFontWeight(‘bold’);
    sheet.getRange(‘B24’).setValue(richResults.verdict || ‘Unknown’);


    sheet.getRange(‘A25’).setValue(`Referring URLs:`).setFontWeight(‘bold’);
    sheet.getRange(‘B25’).setValue(referringUrls);


    // Log and alert full response for debugging
    const fullResponse = JSON.stringify(result, null, 2);
    log(`Full Inspection Result: ${fullResponse}`);
    //SpreadsheetApp.getUi().alert(`Inspection Completed. Full Response:\n\n${fullResponse}`);
  } catch (error) {
    sheet.getRange(‘A15’).setValue(‘Inspection Failed’).setFontWeight(‘bold’);
    log(`Error inspecting URL: ${error.message}`);
    SpreadsheetApp.getUi().alert(`Error inspecting URL: ${error.message}\n\nLogs:\n${getLogs()}`);
  }
}


function callUrlInspectionApi(property, url, oauthToken) {
  const apiUrl = ‘https://searchconsole.googleapis.com/v1/urlInspection/index:inspect’;


  const payload = {
    siteUrl: property,
    inspectionUrl: url,
    languageCode: ‘en-US’
  };


  const headers = {
    Authorization: `Bearer ${oauthToken}`,
    ‘Content-Type’: ‘application/json’
  };


  const options = {
    method: ‘post’,
    contentType: ‘application/json’,
    headers: headers,
    payload: JSON.stringify(payload),
    muteHttpExceptions: true
  };


  log(`API URL: ${apiUrl}`);
  log(`Payload: ${JSON.stringify(payload)}`);


  try {
    const response = UrlFetchApp.fetch(apiUrl, options);
    const responseCode = response.getResponseCode();
    const responseText = response.getContentText();


    log(`Response Code: ${responseCode}`);
    log(`Response Content: ${responseText}`);


    if (responseCode === 200) {
      const jsonResponse = JSON.parse(responseText);


      if (jsonResponse && jsonResponse.inspectionResult) {
        return jsonResponse.inspectionResult;
      } else {
        log(`Unexpected API Response Structure: ${responseText}`);
        throw new Error(‘Unexpected API response format. “inspectionResult” field is missing.’);
      }
    } else {
      log(`Failed API Call: ${responseText}`);
      throw new Error(`Failed to inspect URL. Response Code: ${responseCode}. Response: ${responseText}`);
    }
  } catch (error) {
    log(`Error during API call: ${error}`);
    throw new Error(`Error inspecting URL: ${error.message}`);
  }
}


function callChatGPT(prompt, temperature = 0.9, maxTokens = 800, model = “gpt-3.5-turbo”) {
  const sheet = SpreadsheetApp.getActiveSpreadsheet().getActiveSheet();
  const secretKey = sheet.getRange(‘D1’).getValue().trim(); // Retrieve the OpenAI API key from D1


  if (!secretKey) {
    throw new Error(“API Key is missing in cell D1. Please provide a valid OpenAI API key.”);
  }


  const payload = {
    model: model,
    messages: [
      SYSTEM_MESSAGE,
      { role: “user”, content: prompt }
    ],
    temperature: temperature,
    max_tokens: maxTokens
  };


  const options = {
    method: “POST”,
    headers: {
      “Content-Type”: “application/json”,
      “Authorization”: “Bearer ” + secretKey
    },
    payload: JSON.stringify(payload)
  };


  try {
    const response = UrlFetchApp.fetch(OPENAI_URL, options);
    const responseData = JSON.parse(response.getContentText());


    if (responseData.choices && responseData.choices[0] && responseData.choices[0].message) {
      return responseData.choices[0].message.content.trim();
    } else {
      log(“Unexpected response format from OpenAI: ” + JSON.stringify(responseData));
      return “Sorry, I couldn’t process the request.”;
    }
  } catch (error) {
    log(“Error calling OpenAI API: ” + error);
    return “Sorry, there was an error processing your request.”;
  }
}


function aiAnalyze() {
  const sheet = SpreadsheetApp.getActiveSpreadsheet().getActiveSheet();
  const url = sheet.getRange(‘B2’).getValue();
  const keywords = sheet.getRange(‘A3:A12’).getValues().flat().filter(Boolean); // Get non-empty keywords
  const inspectionData = sheet.getRange(‘A16:B20’).getValues();


  // Validate input fields
  if (!url || keywords.length === 0 || inspectionData.some(row => row.length < 2 || !row[0].trim() || !row[1].trim())) {
    SpreadsheetApp.getUi().alert(“Ensure the following are filled before running AI Analyze:\n- URL in B2\n- Keywords in A3:A12\n- Inspection data in A16:B20”);
    return;
  }


  // Prepare the prompt for ChatGPT
  const prompt = `
    Analyze this URL: ${url}
    Also the view-source version from: ${url}
    against these keywords: ${keywords.join(“, “)}
    Considering the URL inspection data from Google Search Console:
    ${inspectionData.map(row => `${row[0]}: ${row[1]}`).join(“\n”)}
    Suggest a short list of specific recommendations on how I can improve the page’s SEO. Make sure the recommendations include details such as change this to that, or add something, etc… Be concrete with SEO recommendations.
  `;


  // Display the prompt in G1
  sheet.getRange(‘G1’).setValue(“Prompt Sent to ChatGPT”).setFontWeight(“bold”);
  sheet.getRange(‘G2:G30’).clearContent(); // Clear previous content in column G
  sheet.getRange(‘G2:G30’).merge(); // Merge cells G2:G30
  sheet.getRange(‘G2’).setValue(prompt).setVerticalAlignment(“top”); // Add the prompt and align to top
  sheet.setColumnWidth(7, 400); // Set column G width to 400px


  // Call ChatGPT API
  const analysisResult = callChatGPT(prompt);


  // Display the result in the spreadsheet (Column F)
  sheet.getRange(‘F1’).setValue(“AI Analysis Result”).setFontWeight(“bold”);
  sheet.getRange(‘F2:F30’).clearContent(); // Clear previous content
  sheet.getRange(‘F2:F30’).merge(); // Merge the cells
  sheet.getRange(‘F2’).setValue(analysisResult).setVerticalAlignment(“top”); // Add the AI result and align to top
  sheet.setColumnWidth(6, 400); // Set column F width to 400px


  // Log the response
  log(“AI Analysis Completed: ” + analysisResult);
}

https://script.google.com/home/projects/12hdeVPtEQBTRuCUUkgzbMx6jKrj9ztgoZ2P4zadLAo0ofHBQpfiLqeYB/edit

完了したら、シートに戻って更新し、新しいSearch Console > Fetch GSC Properties を使用します。

使用しているアカウントを選択し、最終的に使用する予定のアプリを選択するように求められるまで、指示に従います。

すべてがうまくいけば、それをまとめ、新しいスクリプトを使用して最初の SEO 分析を実行するという楽しい部分に進むことができます。

スプレッドシート、GSC、ChatGPTツールを組み合わせる

これまで多くのことを行ってきましたが、ツールが実際に動作する様子を見てみましょう。仕組みは次のとおりです。 

  • Search Console > Authorize GSC に移動します
    • GSC に接続されているアカウントを使用していることを確認してください。異なるアカウントでは機能しません。
  • Search Console > Fetch GSC properties に移動します。
    • スプレッドシートの B1 セルに Select GSC property が表示されるようになります。
    • 分析したいドメインを選択し、B1 の URL を選択します。
  • Search Console > Inspect URL に移動します。
    • スプレッドシートに Inspection Results が表示され、カバレッジ、最終クロール日などの情報が確認できます。
  • 最後に、次の操作を実行します
    • Search Console > AI Analyze に移動します。
    • スプレッドシートの AI Analysis Result に結果が表示され、ページの主要要素と改善のための具体的なステップが提示されます。
  • 注意点
    • 指示をそのまま盲目的に従うのではなく、具体的な改善策として活用してください。
  • カスタムデータの追加
    • ChatGPT のプロンプトを変更 したい場合は、スプレッドシートの G2 セル(”Prompt Sent to ChatGPT” の下)を編集してください。

これで SEO 分析を効率化するスクリプトが完成!

GSC、Google スプレッドシート、ChatGPT を組み合わせることで、ページの最適化により多くの時間を費やせるようになります。

スクリプトを試しながら、自分に合った使い方を見つけてください!

詳しく見る: SEO に使用すべき 15 個の AI ツール

seojapan

Googleが警告:​​偽のGooglebotトラフィックに注意

10ヶ月 2 週間 ago

この記事は、2024年12月16日に Search Engine Journal で公開された  Matt G. Southern氏の「Google Warns: Beware Of Fake Googlebot Traffic」を翻訳したものです。

重要点

  1. 多くのウェブクローラーがGooglebotを装っています。これにより、ウェブサイトの分析結果が歪められたり、サーバーリソースが無駄に消費されたりする可能性があります。
  2. 実際のGooglebotトラフィックは、Search Consoleリッチリザルト テストなどのGoogleツールを使用して確認できます。
  3. サーバーの応答やエラーパターンを監視することで、問題のあるクローラーを特定することも可能です。

GoogleのデベロッパーアドボケートであるMartin Splitt氏は、Googlebotを装ったリクエストの多くが実際にはサードパーティのスクレイパーによるものであることを指摘しています。彼は、「Googlebotであると主張するすべてのものが、実際にGooglebotであるとは限らない」と述べ、ウェブサイト所有者に注意を促しました。

偽のGooglebotが引き起こす問題

偽のクローラーは分析を歪め、リソースを消費し、サイトのパフォーマンスを正確に評価することを困難にする可能性があります。

正当な Googlebot トラフィックと偽のクローラー アクティビティを区別する方法は次のとおりです。

Googlebotの検証方法

トラフィックパターンを確認

異常なリクエストではなく、全体的なトラフィックパターンを確認することで、正規のGooglebotトラフィックと偽のクローラーを区別できます。
正規のGooglebotトラフィックは、リクエストの頻度、タイミング、動作が一貫しているという特徴があります。

偽の Googlebot アクティビティが疑われる場合、Splitt 氏は次の Google ツールを使用して検証することを推奨しています。

URL 検査ツール (Search Console)

  • ページにレンダリングされた特定のコンテンツが確認できれば、Googlebotが正常にアクセスしていることがわかります。
  • ライブテスト機能を使って、現在のアクセス状況をリアルタイムでチェック可能です。

リッチリザルトテスト

  • Googlebot アクセスの代替検証方法として機能します。
  • Googlebotがページをどのようにレンダリングしているかを確認できる。
  • Search Consoleにログインせずに使用可能。

クロール統計レポート

  • 検証済みのGooglebotリクエストに基づいた詳細なサーバー応答データを表示します。
  • 正当なGooglebotの動作パターンを特定するのに役立ちます。

注意事項

これらのツールは、Googlebotが何を見て何を実行しているかを検証するためのものです。ただし、サーバーログ内で偽装しているクローラーを直接特定することはできません。

偽のGooglebotからの保護方法

  1. サーバーログをGoogleの公式IP範囲と照合する。
  2. 逆DNSルックアップを使用して検証を行う。
  3. 上記のGoogleツールを活用して、Googlebotの正当な動作基準を確立する。

これらの対策を実施することで、偽のGooglebotによる影響を最小限に抑えることができます。

サーバー応答の監視

Martin Splitt氏は、Googlebotによるクロール要求に対するサーバー応答の監視が重要であると強調しています。
特に注意すべき点は以下の通りです:

  • 500番台のエラー
  • フェッチエラー
  • タイムアウト
  • DNSの問題

これらの問題は、大規模なウェブサイト(数百万ページをホストするサイトなど)のクローリング効率検索の可視性に重大な影響を及ぼす可能性があります。

Splitt氏は次のように述べています:

「サーバーがGooglebotに返した応答、特に500エラーの数、フェッチエラー、タイムアウト、DNS問題には注意してください。」

一部のエラーは一時的である場合もありますが、永続的な問題が確認された場合は、さらなる調査が必要です。

また、Splitt氏は高度な診断を行うためのサーバーログ分析の重要性を指摘しました。サーバーログ分析は簡単な作業ではありませんが、価値のある手段です。彼は以下のように述べています:
「Webサーバーのログを見ることは、サーバー上で何が起こっているかを理解するための強力な手段です。」
参照: Chrome、Edge、Safari、Firefox でユーザーエージェントを変更する方法

潜在的な影響

偽のGooglebotトラフィックはセキュリティ問題だけでなく、以下のようにウェブサイトのパフォーマンスやSEO施策にも影響を与える可能性があります。

Splitt氏は、ブラウザでウェブサイトにアクセス可能であっても、それがGooglebotのアクセスを保証するものではないと強調しています。また、次のような潜在的な障壁も挙げています。

  • Robots.txtの制限
  • ファイアウォールの設定
  • ボット保護システム
  • ネットワークルーティングの問題

今後の展望

偽のGooglebotトラフィックは厄介な問題ですが、通常は稀なケースであり、過度に心配する必要はないとSplitt氏は述べています。ただし、以下のような問題が発生した場合には適切な対策が求められます。

偽のクローラーのアクティビティが問題になったり、サーバーのパワーを過剰に消費したりしたとします。その場合、リクエストのレートを制限したり、特定の IP アドレスをブロックしたり、より優れたボット検出方法を使用したりといった対策を講じることができます。

このトピックの詳細については、以下の動画を参照ください。:

Google SEO Made Easy: Fake Googlebot Traffic

seojapan

問題解決クエリの74%に Google AIの概要が見つかる

10ヶ月 2 週間 ago

この記事は、2025年1月28日に Search Engine Journal で公開された Matt G. Southern氏「Google AI Overviews Found In 74% Of Problem-Solving Queries」を翻訳したものです。

新たな調査によると、Google AIの概要(現 : AIO、旧 : SGE)は検索結果の30%に表示され、問題解決型のクエリでは約74%に出現しています。

※2024年5月【SGE】から【AIO(AI Overviews)】に名称を変更いたしました。
※旧名称【SGE】に関する記事はこちら↓
参考:SGEとは?生成AIによる新たな検索体験と対策

概要

・AI概要は、特にトラフィック量が多いクエリではなく、中程度の検索ボリュームを持つクエリに主に表示される傾向にあります。
・また、問題解決や質問ベースの検索クエリでは、AI概要が最も頻繁にトリガーされることが確認されています。
・さらに、信頼性の高い権威あるサイトは、AI概要に表示される可能性が高くなることがわかりました。

重要な調査結果

1. AI概要は検索結果の3分の1未満に表示

調査した10,000個のキーワードの29.9%にAI概要が表示されましたが、検索ボリュームの11.5%にとどまりました。特に月間検索ボリュームが501~2,400の中程度のクエリで約42%の表示頻度が見られます。

要点:AI概要は全体的な存在感は限られますが、中程度のボリュームのクエリではより一般的です。このことは競争の少ない分野でチャンスがあることを示唆しています。

2. 業界とユーザーの意図が影響要因

通信業界では56%と最も高い割合でAI概要にリンクされたキーワードが表示され、最も低かったのは美容と化粧品の14%でした。問題解決や質問ベースの検索クエリでは、AI概要が74%や69%の高い割合で表示されることが確認されました。逆に、特定のWebサイトの検索など、ナビゲーション型クエリではAI概要がほとんど表示されません。

要点:質問や問題解決を目的としたコンテンツは、AI概要に表示される可能性が高いです。シンプルな業界のブランドは、リスク認識や複雑な問題に関連するトピックを調査することが重要です。

3. 非ブランド用語はAI概要を生成する可能性が高い

非ブランドに関する検索の約33.3%でAI概要が表示されるのに対し、ブランド検索では19.6%と少ない割合で表示されます。ブランド検索は通常、購入に近い時期に行われるため、AI概要は潜在顧客の意思決定初期段階において、ブランド認識に影響を与えます。

要点:AI概要は潜在顧客の購入プロセスにおいて遅延を引き起こす可能性がある一方、意思決定の初期段階や中期段階でブランド認識に重要な影響を与える可能性があります。

4. 従来のオーガニック検索結果への影響

デスクトップの場合、「詳細を表示」をクリックするとAI概要が展開され、ページが約220ピクセル下に移動します。このため、画面上のオーガニック検索結果は下に押し出されることがあります。モバイルデバイスでは、スクロールなしで表示されるオーガニックリストは1つまたは2つに限られるため、SEO専門家にとっては新たな挑戦です。

要点:AI概要が検索結果ページ上部で大きなスペースを占めるため、ブランドは目立つ方法を見つけ、AI概要とその下の通常のオーガニック検索結果の両方に表示されることに重点を置くべきです。

5. 従来のランキングとの重複

上位ランクのURLがAI概要に表示される可能性は高いものの、必ずしもそうとは限りません。上位にランクされたページの約半分がAI概要に含まれており、上位10位外のページもいくつか表示されることがあります。また、注目のスニペットはAI概要と共存することが多く、注目のスニペットがある場合、AI概要にも60%以上の確率で記載される可能性があります。

要点:高いランキングや注目のスニペットはAI概要に表示される保証はありませんが、これらを最適化することで表示される可能性が高まります。競争力を維持するためには、明確で信頼性の高いコンテンツ作成を続けることが重要です。

6. 信頼とYMYL(あなたのお金かあなたの人生か)のトピック

特に金融やヘルスケアなど、専門知識が必要な分野で信頼性があるWebサイトは、AI概要に頻繁に取り上げられます。逆に、RedditやQuoraなどのサイトは検索結果で高いランキングを持っているものの、AI概要にはあまり言及されません。

要点:信頼できる意見、検証済みの情報、信頼性の高いコンテンツを持つWebサイトは、AI概要で引用される可能性が高くなります。

結論

AI概要はまだ比較的新しい機能ですが、特に一般的な質問や問題解決型のクエリでは、その影響が急速に拡大しています。特に、詳細な調査や大きな利害関係を伴う業界では、AI概要の表示頻度が増加し、上位の引用を巡る競争が激しくなるでしょう。

現在、あなたの地域でAI概要が目立たない場合でも、Googleが言語モデルを改善し、より多くのユーザー情報を収集するにつれて状況が変わる可能性があります。

SEO担当者と広告主に重要な2課題

1:AI概要に関連するキーワードやユーザーの意図を特定し、それに応じたコンテンツや広告戦略を調整すること

2:注目スニペットやEEAT(Expertise, Experience, Authoritativeness, Trustworthiness)信号の最適化を続け、AI概要のコンテキストで引用される可能性を高めること

seojapan

Google CEO:検索は2025年に大きく変わる

11ヶ月 1 週間 ago

この記事は、2024年12月6日に Search Engine Journal で公開された Roger Montti 氏「Google CEO: Search Will Change Profoundly In 2025」を翻訳したものです。

GoogleのCEO、サンダー・ピチャイ氏は、ウェブエコシステムに対する懸念をうまく表現できずにいる一方で、2025年にGoogle検索が大きく変わると語っています。

ピチャイ氏は、ニューヨーク・タイムズのディールブック・サミットでアンドリュー・ロス・ソーキン氏からインタビューを受け、その中で2025年にGoogle検索に何が期待できるかについて話しましたが、コンテンツ制作者に対するGoogleの懸念を明確に表現するのに苦労しました。

インタビューでは、Googleが現在業界の他の企業と比べてどのような位置にいるのか、また「デフォルトの勝者」としてふさわしいかどうかについて尋ねられました。その際、ピチャイ氏は、これらの質問は「大きな変化の初期段階である」とインタビュアーに伝え、GoogleがAI分野でリーダーであり、追随者ではないことを強調しました。AI業界全体は、オープンソース化されたGoogleの研究成果、特にトランスフォーマー技術を基盤に構築されており、もしトランスフォーマーがなければ、現在のAI業界は存在しなかっただろうと述べました。

ピチャイ氏は次のように答えています。

「業界にとって、今は非常にダイナミックな瞬間です。これから起こることを考えると、私たちは大きな変化の初期段階にいると言えます。私たちはAIに対して非常に深いフルスタックのアプローチを採用してきました。」

「当社は世界クラスの研究を行っています。世代AIに関して言えば、私たちは世界で最も引用されている機関です。基礎研究からAIインフラストラクチャの構築、さらにはシリコンを基盤としたAIインフラの構築まで、私たちは第6世代のテンソル処理ユニットに取り組んでいます。また、先ほど当社の製品群について触れましたが、当社は5億人のユーザーを抱える15の製品を提供しており、基礎モデルを構築しています。これらの技術は社内で使用され、さらに300万人以上の開発者に提供されています。これはフルスタックの深い投資です。」

「私たちは次世代のモデルに向けて準備を進めており、これから多くの革新が待ち受けていると確信しています。私たちはこの分野の最先端をリードすることに注力しており、その方向で進んでいくつもりです。実際、今日、私たちは3Dシーンを作成するためのテキストと画像のプロンプトに関する画期的な研究を発表しました。この最先端技術は急速に進歩しており、2025年が楽しみです。」

ブルーリンクエコノミーとAI

インタビュアーは、GoogleがAIの先駆者だったが、その後はそうではなくなったと指摘し、特にOpenAIが2022年に急成長し、その後大成功を収めたことに言及しました。そして、ピチャイ氏に対し、Googleが「ブルーリンクエコノミー」を守るためにどれほどの費用をかけて、数千億ドルの価値を持つ「そのビジネスを傷つけたり食い物にしたりしないようにした」のかを尋ねました。

ピチャイ氏は、Googleのすべてのプロジェクトの中でAIが最も多く適用されているのは検索であり、BERT、MUM、マルチモーダル検索が検索品質のギャップを埋めるのに役立っていると答えました。また、検索業界の一部の人々が理解していないことは、2012年にGoogleが画像識別と音声認識にディープニューラルネットワークを使用し、2014年にはテキストの文字列を理解するシーケンストゥーシーケンス学習を世界に紹介した時点で、AIはすでにGoogleの一部になっていたという点です。さらに、2015年にはGoogleが検索結果のランキングに直接関連するAIシステムであるRankBrainを導入したこともあります。

ピチャイ氏は次のように答えました。

「社内で最も積極的にAIを適用した分野は検索で、検索品質のギャップはすべて社内で開発したTransformer技術に基づいています。私たちはこれをBERTとMUMと呼んでおり、検索をマルチモーダルにすることで検索品質を改善し、検索の言語理解を向上させました。これが、社内でTransformerを構築した理由です。」

「過去数年間を振り返ると、AIの進展を見て、Geminiは検索だけで10億人以上のユーザーに利用されています。」

2025年、検索は大きく変化する

ピチャイ氏は、検索が2025年だけでなく、その初めの段階でも大きく変化するだろうと語り続けました。さらに、革新しやすい段階はすでに実現されているため、今後の進展は以前よりも難しくなるだろうとも述べました。

彼は次のように言いました。

「私たちはまだ始まったばかりだと感じています。検索自体は、2025年に大きく変化し続けるでしょう。私たちはこれまで以上に複雑な問題に取り組むことができるようになると思います。そして、2025年の初めの段階でさえ、検索が現在と比べてどのような新しいことを可能にするのかに驚かされることでしょう。」

ピチャイ氏はまた、進歩は容易ではないとも強調しました。

「2025年を見据えると、進歩はより困難になると感じています。簡単に達成できる目標は、もう残っていないと思います。しかし、今後のブレークスルーや差別化の源泉となるのは、技術的なブレークスルーやアルゴリズムの進化、そしてシステムをどのように機能させるか、つまり計画や推論の観点からシステムをどう改善するかにあると考えています。これらが今後の技術的なブレークスルーとなるでしょう。」

検索はなくなるのか?

インタビュアーは、ピチャイ氏に対して、GoogleはAIに十分力を入れているのかを尋ね、ある著者の言葉を引用しました。その著者は、検索以外のAIや他のプラットフォームから答えを得ることが増えているため、Googleの「コアビジネスは危機に瀕している」と指摘し、オンラインコンテンツの多くがAIによって生成されるようになるため、検索の価値は「低下する」と述べていました。

これに対し、ピチャイ氏は、インターネットが偽のコンテンツで溢れている現状こそが、検索の価値をさらに高めると答えました。

ピチャイ氏は次のように述べました。

「コンテンツが溢れかえる世界では、検索のようなものがより価値を持つようになるでしょう。情報が氾濫している中で、信頼できるコンテンツ、つまり確実に使える方法で自分にとって意味のあるコンテンツを見つけるためには、検索の役割が一層重要になると思います。」

また、ピチャイ氏は以下のようにも述べました。

「先ほどおっしゃった通り、現在の世の中には膨大な情報が存在し、人々はさまざまな方法で情報を入手しています。情報は人類にとって本質的なものであり、私たちはその扱い方において多くの変遷を経てきました。例えば、Facebookが登場したとき、人々はYouTubeやFacebook、TikTokなど、まったく新しい方法で情報を入手するようになりました。挙げればきりがありません。」

「しかし、こうした情報消費の構造には多くの問題があると思います。その本質的な問題は、ゼロサム的な見方に基づいていることです。つまり、人々が情報を限られた方法で消費し、それをみんなで分け合っているかのように見えるのです。しかし、実際には人々が行っていることはそうではないのです。」

ピチャイ氏、クリエイターへの影響についての質問につまづく

インタビュアーは次に、コンテンツの価値が下がっているかどうかを尋ねました。具体的には、本のテーマについて調べ、20冊の本を読み、その出典を参考文献に引用して本を出版する人々を例に挙げました。一方で、Googleはあらゆるものを取り込み、一日中コンテンツを「吐き出し」、かつては本を書いていた人々を打ち負かしていると指摘されました。

アンドリュー・ロス・ソーキン氏は次のように語りました。

「それを百万回吐き出すことができるのです。一日に百万回。そして、最初にそれを作った人たちにとって、それが経済的にどうなっているのか疑問に思うのです。」

これに対し、ピチャイ氏は、Googleがパブリッシャーの「エコシステム」への影響や、パブリッシャーにどれだけのトラフィックを送っているかを考えるのに多くの時間を費やしていると述べ、Googleを擁護しました。インタビュアーはピチャイ氏の答えに耳を傾けましたが、重要な問題については触れませんでした。具体的には、Redditや広告で埋め尽くされた検索結果が実際の専門家が作成したコンテンツを押しのけ、ニュースコンテンツの優先順位が下がることで、世界中のニュース組織へのトラフィックに悪影響を与えていることについてです。

ピチャイ氏はこの時点で、返答の言葉を見つけようとしてつまずいたように見えました。彼はウェブサイトについて言及することを避け、「エコシステム」について抽象的に話し始め、そして話すことが尽きると方向転換し、YouTubeのコンテンツIDプログラムにサインアップした著作権保有者にGoogleがどのように補償しているかについて話し始めました。

彼はこう答えました。

「そうですね、それは…とても重要な質問です…ええと…私は…考えます…他のどの会社よりも…ご存知のとおり、私たちは長い間、検索においても、エコシステムに送信するトラフィックについて考えることに多くの時間を費やしてきました。これはよく議論されることですが、私たちはエコシステムに送信するトラフィックについて考えることに多くの時間を費やしています。過去数年間の移行期間中も、それは私たちにとって重要な優先事項です。」

続けて彼は、GoogleのコンテンツプラットフォームであるYouTubeと、著作権で保護されたコンテンツを識別するために使用される「コンテンツID」について話し始めました。コンテンツIDは、音楽、映画、テレビ業界の企業、つまり「YouTubeに頻繁にアップロードされる大量のオリジナルマテリアルに対する独占的権利を所有する」著作権所有者に利益をもたらすプログラムです。

ピチャイ氏は続けました。

「YouTubeでは、コンテンツを理解し、コンテンツIDでコンテンツを識別し、クリエイターの収益化を図ることに多大な努力を払っています。」

「私は…それらは重要な原則だと思います。新しいテクノロジーが登場したときに何がフェアユースなのかを理解することと、IPの価値、つまり人々が費やした努力に比例して価値を還元する方法との間には常にバランスがあると思います。」

アルファベットのCEOの洞察に満ちたインタビュー

インタビュアーは難しい質問をすることに成功しましたが、検索結果に詳しい検索マーケティングコミュニティの多くの人々は、GoogleのYouTubeプラットフォームに参加していないコンテンツクリエイターや、実際の専門家によるコンテンツを押し下げる非専門家のコンテンツについて、さらに詳細な質問をしたのではないかと考えられます。

ニューヨーク・タイムズでのインタビュー(英語)は、こちらからご覧いただけます。

注目の画像:Shutterstock/Shutterstock AI ジェネレーター

seojapan

GoogleはなぜEUで市場シェアを失っているのか?

11ヶ月 3 週間 ago

この記事は、2024年12月3日に Search Engine Journal で公開された Kevin Indig氏「Why Is Google Losing Market Share In The EU?」 を翻訳した記事です。

EUにおけるGoogleの市場シェアの最新の動向と、それに関連する規制上の課題がGoogleのビジネスに与える潜在的な影響について詳しく見ていきます。多くのマーケティング担当者は、GoogleがEU諸国で検索市場シェアを失っていることに気づいていないかもしれません。

EU市場シェア低下の背景

この市場シェアの低下は、Googleのビジネスが危機的な状況にある時期に起こっています。

  • アメリカの司法省は、Googleの持ち株会社「アルファベット」に対する訴訟の中で、GoogleをChromeやAndroidから分離することを推奨しました。(この訴訟やその潜在的な結果については、Monopoly で触れています。)
  • 司法省はまた、Googleの広告事業に対して別の訴訟を起こしています。
  • カナダは、オンライン広告における反競争的行為を理由にGoogleを訴えました。
  • さらに、ChatGPTやPerplexityなどの企業は、急速に知名度と市場シェアを拡大しています。(ChatGPTの急成長については、ChatGPT Search で詳しく取り上げています。)
  • GoogleはEUで、デジタルマーケティング法(DMA)による厳しい規制に直面しています。この問題については、2 Internets で取り上げています。

このような背景を踏まえた上で、2つの重要な疑問が浮かび上がります。それは、市場シェアの低下がどの程度重要なのか、そしてその要因は何なのか、ということです。

簡単に言うと、このシェアの減少は、アルファベットが認めたくないほど深刻な問題です。減少は、競合他社にチャンスを与えるだけでなく、外部要因に対するGoogleの対応力を弱めています。確かに、Googleの収益は依然として堅調ですが、広告市場のシェアは低下しています。

規制、競合他社の台頭、そしてGoogleに対する否定的な感情が、シェア減少の主要な原因となっているようです。

そのため、マーケティング担当者は今後、より多くの検索エンジンを追跡し、最適化する必要が高まっています。また、競争がさらに細分化されることで、検索エンジンからウェブサイトへの参照トラフィックが増加する可能性も考えられます。

Googleで何が起こっているのでしょうか?

過去10年間におけるGoogleの市場シェアは、フランスで-5.6ポイント(パーセントポイント)、ドイツで-3.3ポイントと低下しました。StatCounterによると、2009年1月からデータを測定し始めた以来、これほど低いシェアは記録されていません。

フランスやドイツだけでなく、ほとんどのEU諸国では、過去5年間でGoogleの市場シェアが低下しています(主にモバイル市場で)。具体的には次のような変動が見られました:

  • オーストリア:-4.1ポイント
  • ポーランド:-3.1ポイント
  • スイス:-2.3ポイント
  • オランダ:-2.1ポイント
  • デンマーク:-1.5ポイント

さらに状況は過去12ヶ月間にも続いており、以下のようなシェアの変動が確認されています:

  • フランス:-4.6ポイント
  • オーストリア:-3.2ポイント
  • ポーランド:-2.4ポイント
  • ドイツ:-2.1ポイント
  • スイス:-1.3ポイント
  • オランダ:-1.0ポイント
  • デンマーク:-1.0ポイント

では、いったい何が起きているのでしょうか?トレンドが変化するタイミングを見ると、状況がより明確になります。その変曲点は、2018年11月と2024年4月の2つです。

データによれば、AndroidとAppleがブラウザや検索エンジンの選択画面を導入した1ヶ月後の2024年4月頃から、ユーザーがGoogleから離れ始めたことが示されています。

言い換えれば、Googleはモバイルデバイスやデスクトップデバイスにおけるデフォルトの検索エンジンではなくなり、その結果が徐々に表れ始めているのです。

とはいえ、すべての国でシェアが減少しているわけではありません。一体なぜなのでしょうか?

なぜ一部の国では市場シェアが平坦なのか?

Googleの市場シェアがEU諸国全体で低下しているわけではありません。具体的には、以下の国々ではシェアが比較的安定しています:

  • ポルトガル
  • スペイン
  • イタリア
  • アイルランド

なぜこれらの国々ではシェアが安定しているのでしょうか?これらの国々もヨーロッパの一部であり、ユーザーには選択画面が表示されるにもかかわらず、その理由はデバイスにあります。上記の国々では、デスクトップ市場ではGoogleのシェアは減少しましたが、モバイル市場ではシェアを失っていません。

EU全体でも同様の現象が見られます。過去5年間で、GoogleはEUにおけるモバイル市場で2.1%のシェアを失い、デスクトップ市場では10%のシェアを失いました。

なぜこのようなことが起きたのでしょうか?

その大きな理由の一つは、Appleとの独占的な販売契約です。Windowsは、主に企業向けのコンピュータでの優位性により、EUでのデスクトップオペレーティングシステムとして75%を超えるシェアを占めており、MacOSはわずか15.1%に過ぎません。

また、GoogleのOSであるAndroidはモバイル市場で66.5%のシェアを占めており、これに対してAppleのiOSは33%のシェアを持っています。

加えて、GoogleはAppleデバイスのデフォルトの検索エンジンとなるために200億ドルを支払っています。この契約により、モバイル市場におけるGoogleの地位は強固になっています。ただし、この状況は3月に施行されたDMA(デジタル市場法)によって選択画面が強制されるまでは続いていました。

しかし、Googleの市場シェアが低下した国々はどうでしょうか?これらは3月以前からすでにシェアが低下していた国々であり、その現象はかなり前から始まっていたのです。

なぜ一部の国では後退が早く始まるのでしょうか?

2018年11月には、すでにドイツやポルトガルなどの国でGoogleが市場シェアを失い始めていました。したがって、選択画面やデバイス固有のダイナミクス以外にも何かが影響しているに違いありません。

2018年には2つの重要な出来事がありました。1つ目は、欧州のデータ保護法であるGDPR(一般データ保護規則)が2018年5月に施行されたことです。2つ目は、EUがGoogleのAndroidに関する市場支配について独占禁止法違反と判断し、Alphabetに43億4,000万ユーロの罰金を科したことです。

これらの出来事は、Googleの市場シェアを直接的に減少させたわけではありませんが、Googleに対する不信感を高め、その結果、DuckDuckGoやBingなどの小規模な競合他社にスペースを提供することになりました。

ヨーロッパの人々はプライバシーに非常に敏感であり、規制上の罰金やプライバシー法が消費者行動に米国よりもはるかに大きな影響を与えています。例えば、欧州のプライバシーを重視した検索エンジンであるStartPageでは、検索トラフィックの56%がEUから、21%が米国から来ていることがわかっています。

プライバシーへの懸念が高まる中、ユーザーはGoogleを以前ほど利用しなくなっています。実際、フランスでは2018年11月に、一部の省庁がGoogleをデフォルトの検索エンジンとして使用しないことを宣言しました。※1

選択画面と世間の認識の変化が、Googleの衰退の最大の要因となっています。その影響として、Googleがウェブサイトに送る参照トラフィックの減少が見られています。では、その影響は何なのでしょうか?

Googleが失ったものを勝ち取るのはか?

Googleの衰退で最大の勝者はBingです。常に第2位の検索エンジンであるBingは、Googleの衰退から最も恩恵を受けています。

特に、ChatGPTとMicrosoftとの密接な関係が、当初予想されていたよりもヨーロッパでBingの検索エンジンに大きな後押しを与えた可能性が高いですが、Bingも依然としてコンサルタントの中では第2の選択肢として位置づけられています。

ただし、現時点ではこれらの数字はまだわずかであり、DuckDuckGo、Ecosia、QWANTなどの検索エンジンは、BingやGoogleから検索結果のライセンスを取得しています。言い換えれば、現在のところ、GoogleとBingが検索エンジンの勝者と言えるでしょう。

しかし、EcosiaとQWANTは、他の検索エンジンから独立するため、共同でウェブインデックスの作成に取り組んでいます。DuckDuckGoや他の企業が独自のインデックスを発表するまで、どれくらいの時間がかかるのでしょうか?

アルファ(大手企業)が弱くなると、より小さな企業たちがその隙間を狙ってチャンスを見つけます。

Googleの検索収益が依然として成長する理由

市場シェアが減少しているにもかかわらず、Googleの検索収益は依然として規模から見て驚異的な成長を続けています。その理由は何でしょうか?

市場シェアが必ずしも検索ボリュームや収益化可能なクエリと相関するわけではないからです。モバイル検索はデスクトップ検索よりも多く、モバイル検索の減少幅は比較的小さいことが影響しています。Googleは他の市場では依然として優位に立っており、EU市場の変動はGoogleの収益に深刻な影響を与えるには十分ではない可能性もあります。

また、Googleは市場シェアの低下以上に検索収益化に積極的に取り組んでおり、その成長を維持しています。来年には相対的な広告収入の伸びが50%を下回ると予測されていますが、これは絶対的な伸びよりも良い指標となる可能性があります。

さらに、このデータには注目すべき点があります。StatCounterは150万のサイトから参照トラフィックを測定してデータを収集していますが、Googleがウェブサイトに送るトラフィックを減らし、自社内に留めることで、この数字に影響を与えている可能性があります。

「EUにおけるGoogleの市場シェアの低下」の意味は?

EUにおけるGoogleの市場シェアの低下、さらに潜在的な独占禁止法の救済措置(例えば、Appleとの販売契約の強制終了)や競争の激化が相まって、検索市場はさらに細分化される可能性が高いと言えます。

言い換えれば、今後、より多くの検索エンジン向けに最適化する必要が出てくるかもしれません(再び)。これらの検索エンジンは、ランキングに関してはほとんど同じように機能しますが、サイト所有者がBingのIndexNOWとの統合など、専用のインデックス作成アクションを実行する必要があるかもしれません。

また、ChatGPTがBingの検索結果を使用していることが明らかになったため、私たちはすでにBing Webマスターツールを再利用しています。次に注目すべきは、Perplexity Webマスターツールでしょうか?市場シェアの拡大に後押しされ、SEOの専門家はBingにもっと注意を払うべき時期に来ていると言えます。

驚くべきことに、他の検索エンジンにはまだウェブマスターツールがありません。ポータルサイトよりも、サイト所有者との関係を育むのに適した方法があるのではないでしょうか?

インデックスの独立性が高まるにつれて、このようなツールは今後現実となる可能性があります。

皮肉なことに、Googleに対する独占訴訟は、Googleが競争相手を増やし始めたタイミングで起こされました。Alphabetのような巨大企業にとって、市場シェアの1%でも、年間経常利益(ARR)が17億5000万ドルを生み出す可能性があるのです。

ブラウザは検索エンジン戦争において重要な役割を果たしています。司法省はChromeがGoogleから撤退するよう圧力をかけており、OpenAIは独自のブラウザの開発に取り組んでいます。※2

私の意見では、OpenAIはArcを買収すべきだと思います。いずれにせよ、ブラウザは究極のインターネットユーザーインターフェイスであり、検索エンジンが処理できる以上のユーザー情報を提供します。

ここで明確にしておきたいのは、私はGoogleが失敗する運命にあるとは思っていないということです。Googleには「新しいAIの世界」でトップに立つための要素がすべて揃っています。Googleが失敗する唯一の理由は、自らがその足を引っ張ることになるからです。

1.フランスはオンラインの独立を取り戻すためにGoogleを捨てる

フランスは、Googleからの独立を目指して、フランスとドイツの検索エンジンであるQwant(ユーザーを追跡しない仕様を採用)を使用する。この動きは、EU内でのオンラインプライバシーと競争に対する強い関心が反映されたものです。フランス政府は、Googleが提供する検索エンジンの支配を減らし、他の選択肢を促進するために、より厳しい規制を導入することを選びました。

参考:https://www.wired.com/story/google-france-silicon-valley/

2.OpenAIはブラウザでGoogleに対抗することを検討している

OpenAIは、ChatGPTを統合したウェブブラウザの開発を検討しており、検索機能強化のための契約も進めていると報じられています。既にプロトタイプが存在し、複数のウェブサイトやアプリ開発者と協議を行っています。

この動きは、ブラウザ市場と検索市場で大きなシェアを持つGoogleとの競争を引き起こす可能性があり、OpenAIは自社のAI機能をSamsung製デバイスに搭載することも検討しているとのこと。Googleが支配しているブラウザ市場に挑戦し、ユーザー体験を革新しようとするものです。

参考:https://gigazine.net/news/20241122-openai-considers-taking-on-google-with-browser/

seojapan

構造化データとSEO:2025年に知っておくべきこと

1 year ago

本記事は、2024年10月 7日に Search Engine land で公開された Olya Ianovskaia「Structured data and SEO: What you need to know in 2025」を翻訳した記事です。

構造化データがなぜ重要なのか、使用するべき主要なスキーマタイプ、そしてリッチリザルトの可視性を最大化するための高度なテクニックについて解説します。

検索エンジンは、ユーザーエクスペリエンスを向上させるために構造化データへの依存をますます強めており、この傾向は2025年以降も続くと考えられます。そのため、構造化データは単なる「付加価値」ではなく、あらゆるSEO戦略において欠かせない要素となっています。

ここでは、構造化データが重要な理由、注目すべきトレンド、主要なスキーマタイプ、高度な技術を含む「構造化データ」についての基礎と応用を詳しく説明します。

構造化データとは?

構造化データとは、ウェブページ上のコンテンツを整理し、ラベル付けするための標準化された形式です。これにより、検索エンジンはコンテンツをより効率的に理解できるようになります。

たとえばGoogleは、構造化データを活用することで、検索結果画面(SERP)において拡張リストやリッチリザルトといった特別な機能を表示しています。これらの機能を通じて、特にエンティティベースの検索で、ウェブサイトの可視性とオーガニックリーチが向上します。

構造化データの構成要素

1. 語彙(Vocabulary)
構造化データで最も一般的に使用される語彙は、オープンソースのフレームワークであるSchema.orgです。このライブラリには、広範な「タイプ」と「プロパティ」が含まれています。

例として、ProductやEventといった数百種類の定義済みタイプ、またname、price、descriptionのようなプロパティがあります。これらは、コンテンツの種類や特性を詳細に指定するために使用されます。

2. 形式(Format)
構造化データを実装する際には、Googleなどの検索エンジンが推奨するJSON-LD(JavaScript Object Notation for Linked Data)が最適な形式とされています。

JSON-LDは、構造化データをHTML内の<script>タグにカプセル化する形で実装し、HTML本体から分離することで柔軟性が向上します。この形式は特に、大規模なウェブサイトでの動的コンテンツ管理に有用です。さらに、実装が簡単でメンテナンスの手間も軽減される点が特徴です。

3. 検証(Validation)
リッチリザルトを獲得するためには、構造化データを正しく実装することが不可欠です。そのため、以下のようなツールを活用して検証を行うことが推奨されます。

  • Google リッチリザルト テスト
  • スキーマ マークアップ バリデーター

これらのツールは、スキーマのエラーや不足を検出し、構造化データが有効かつ検索エンジンで正しく処理されることを確認します。

構造化データがこれまで以上に重要になる理由

構造化データは、検索エンジンがウェブサイトのコンテンツをより深く理解し、ページのインデックス化や検索結果での表示方法を向上させるための重要な手段です。

これにより、ブランドは音声検索や画像検索といった競争の少ない検索分野でオーディエンスにリーチすることが可能となり、従来のSEOの枠を超えてトラフィックやエンゲージメントを促進することができます。

ゼロクリック検索とブランドの権威性

近年、ナレッジパネルや注目のスニペットなど、多くのSERP機能が検索結果内で直接回答を提供するために構造化データに依存しています。これにより、ユーザーはパブリッシャーのサイトを訪れることなく必要な情報を取得できるようになり、いわゆる「ゼロクリック検索」が増加しています。

ゼロクリック検索の普及により、構造化データはSEOにおいてさらに重要な役割を果たすようになりました。これらのSERP機能は、クリックによる訪問を直接的に促進することが難しい場合もありますが、次のような効果をもたらします。

  • オーガニックインプレッションの増加
  • ブランド認知度の向上
  • ユーザーとのインタラクション維持

さらに、リッチリザルトに頻繁に表示されることで、トップオブマインド認知度(TOMA)が強化されます。特に、信頼性と権威性を評価するEEAT(専門性・権威性・信頼性)の観点から、信頼されるブランドを築くことがSEOの成功に欠かせません。

2025年に注目すべき主要なスキーマタイプ

新しいスキーマタイプが定期的に登場する中で、以下の「エバーグリーン」と呼ばれるスキーマタイプは、その有効性が長期的に実証されています。

1. 電子商取引(eコマース)

  • Productスキーマ
    製品の詳細情報(例:価格、在庫状況、レビュー)を検索エンジンに提供するため、eコマースサイトには不可欠です。このスキーマは、SERP内での製品カルーセルやレビューのスター評価といったリッチリザルトを強化し、クリックスルー率(CTR)を大幅に向上させます。
  • Offerスキーマ
    Productスキーマと組み合わせることで、新規のeコマースサイトがGoogleショッピングを活用し、早期段階での認知度向上とトラフィック獲得を実現します。
  • AggregateOfferスキーマ
    同じ製品について複数の販売者のオファーを表示し、ユーザーが価格や選択肢を比較できるようにします。これにより、マーケットプレイス型のウェブサイトに適しています。

2. 情報提供

  • FAQスキーマ
    一般的な質問とその回答を検索結果に直接表示でき、リッチリザルトや音声検索での可視性を向上させます。簡潔な回答を提供することで、ユーザーエンゲージメントを高める効果があります。
  • Q&Aスキーマ
    ユーザーが質問を投稿し、複数の回答を得られるページに最適です。フォーラムやコミュニティベースのプラットフォームでよく活用され、SERP内のQ&Aカルーセルを強化します。これにより、ロングテールクエリや会話型検索のCTRと可視性が向上します。
  • Articleスキーマ
    GoogleニュースやDiscover、トップストーリーのカルーセルでの可視性を高め、音声検索での露出も促進します。

3. イベント

  • Eventスキーマ
    コンサート、会議、ウェビナー、ローカルミートアップなど、仮想または物理的なイベントの詳細をマークアップするために使用されます。日付、場所、開始・終了時刻、チケットの空き状況、出演者といった情報を提供し、Googleのイベントリストに掲載されることで、ローカル検索やイベント関連検索での可視性が向上します。
  • BroadcastEvent・ScreeningEventプロパティ
    ライブイベントや上映会の検索結果での表示を強化し、特定の視聴体験を探しているユーザーにアピールします。

2025年に構造化データを活用する方法

以下のアプローチは特に目新しいものではありませんが、ユーザーの行動が進化し続ける中で、2025年までにその重要性がさらに高まると予測されています。

エンティティベースの検索

エンティティベースの検索では、検索エンジンが個別のキーワードではなく、エンティティ(人、場所、物、概念)を優先して扱います。
これにより、検索エンジンは単語そのものやその間の関係だけでなく、エンティティ間のつながりや、それらがどのように広い文脈に適合するかを深く理解できるようになります。

  • Personスキーマ、Organizationスキーマ、Placeスキーマ
    関連するエンティティを明確に定義することで、ナレッジグラフやエンティティベースの検索結果での可視性を向上させることが可能です。
  • SameAsスキーマ
    特定のエンティティが他の信頼性のある情報源(Wikidata、Wikipedia、信頼できるソーシャルメディアプロファイルなど)と一致することを検索エンジンに伝えるために使用されます。これにより、関連性が強化され、ナレッジグラフやリッチ検索結果での認知度やリーチが拡大します。

これらのスキーマを活用することで、Googleがコンテンツをより深く理解できるようになり、SEOの成果がさらに向上します。

Speakableスキーマ

Speakableスキーマ(現在Googleでベータ版)は、音声検索結果の最適化に役立つ重要なツールです。

  • 機能
    検索エンジンがWebページ内で音声再生に適したセクションを識別する際に利用されます。特に、Googleアシスタント対応デバイスでのテキスト読み上げ(TTS)に使用されるコンテンツに適しています。
  • 目的
    ユーザーの質問に対して簡潔かつ明確な音声回答を提供することです。この機能は特にニュースサイトや出版社に適しており、重要な情報を効率的にユーザーに届ける手段となります。

マルチモーダル検索

マルチモーダル検索は、テキスト、画像、音声など複数の形式の入力を組み合わせて検索クエリを実行できる機能です。このトレンドは、異なるデータ形式を同時に処理するAIモデルによって支えられています。

  • VideoObjectスキーマ・ImageObjectスキーマ
    マルチメディアコンテンツを適切に理解し、インデックス付けし、ランク付けできるようにします。これにより、画像や動画の可視性が向上し、より多くのトラフィックを獲得できます。

スキーマのネスト

スキーマのネストは、構造化データ内で複雑な関係を表現するための方法です。これにより、検索エンジンはデータポイント間の接続を理解し、コンテキストに基づいたリッチリザルトを提供できます。

  • ネストの例
    たとえば、以下のようなスキーマをネストして利用することが考えられます。
    • Productスキーマ内にOfferスキーマをネストし、それをさらにLocalBusinessスキーマ内に含める。
      → 製品の在庫状況、価格、販売場所に関する階層化された情報を提供します。
    • Recipeスキーマ内にHowToスキーマをネストし、さらにPersonスキーマを含める。
      → 特定の人物(著者やシェフ)が作成したレシピの材料、調理手順、栄養情報を詳細に記述します。
  • 実用例
    Recipeスキーマを使用することで、検索エンジンは次のような情報をリッチリザルトとして表示できます:
    • レシピの作成者(Personスキーマで定義されたシェフの名前やプロフィール)
    • 料理の手順(HowToスキーマで整理されたプロセス)
    • 材料や栄養情報(Recipeスキーマのデータ)
  • 主な利点
    ネストされたスキーマにより、検索エンジンはコンテキストを深く理解し、ユーザーの検索意図に応じて情報を適切に優先順位付けできます。また、リッチリザルトを通じて検索結果の視認性を大幅に向上させます。

構造化データで検索の可視性を最大化する

構造化データは、現在すでに多くのWebサイトにとって、規模を問わずSEO成功の鍵となる要素の一つです。
数百種類におよぶスキーマタイプ、数十種類のGoogleの検索結果ページ(SERP)の機能、さらにはAIや音声検索の用途が広がる中で、構造化データの重要性は2025年以降もますます増していくと予想されています。

Googleをはじめとする検索プラットフォームが進化し続ける中で、構造化データを慎重かつ創造的に活用することが、競争上の大きな優位性をもたらします。
これにより、現在利用可能な機能の可視性を最大化するだけでなく、将来的なチャンスを捉えるための準備を整えることが可能になります。

seojapan

Google ヘルプフルコンテンツアップデートの回復に寄与した5つの要因(と寄与しなかった3つの要因)

1 year ago

本記事は、2024年10月14日に Search Engine land で公開されたLeigh Stark氏「5 things that led to a Google HCU recovery (and 3 that didn’t)」を翻訳した記事です。

Googleのヘルプフルコンテンツアップデート(HCU)は、多くのWebサイトにとって大きな課題となっています。しかし、これに適切に対応することで、回復や改善につながる可能性があります。

ウェブの競争が激化する中、2024年は出版業界にとってまさにジェットコースターのような年でした。AIが検索結果に与える影響が増大し、競争がさらに激しくなる中、Googleの絶え間ないアップデートに対応しながらランキング上位を維持するのは簡単ではありません。

特に、HCUによって多くのサイトがトラフィックの減少やランキングの低下に苦しんでいます。この状況を経験した結果、万能の解決策は存在しないと痛感しました。しかし、戦略的な変更を加えることで、回復への道筋をつけることは可能です。ここでは、私自身がどのように取り組んだのか、また他の出版社がこの経験から何を学べるかをお伝えします。

GoogleのHCU(ヘルプフルコンテンツアップデート)への対処

まず一つ明らかにしておきます。Googleは「ヘルプフルコンテンツアップデート」という表現を好まないようです。これはシステム全体の一部として機能しており、定期的に異なる信号の重み付けが再解釈されるものだからです。

とはいえ、HCUは多くの人々にとって大きな課題となり、ランキングの急落やトラフィックの激減を招きました。一部のサイトにとっては、このアップデートがフラストレーションや失望、そして「Googleは我々を気にかけていないのではないか」という感情を呼び起こすきっかけにもなったでしょう。

私自身、Googleのファンではありません。また、この巨大検索エンジンがいくつかの間違いを犯していると信じています。しかし、ただ傍観しているだけではありませんでした。それは私の性格に反します。

2023年9月、HCUが展開された際、私が運営するオーストラリアのテクノロジーWebサイト「Pickr」は新たな課題に直面しました。このアップデートにより、ランキングが大幅に低下したのです。イライラしながらも、私は手をこまねいて待つつもりはありませんでした。

そこで、あらゆる方法を試みました。サイトの更新をスピードアップし、調査と実験を繰り返し、さらにさまざまな施策を講じました。そのたびに記録を取り、次に活かすことを意識しました。

2024年3月に次のアップデートが行われましたが、状況は変わらず、さらに秋を迎えても目立った改善は見られませんでした。他の影響を受けた出版社コミュニティと同様に、「これはペナルティではないか」と感じながらも、試行錯誤を続けました。

そして2024年8月、再びアップデートが行われたその日、ついに変化が現れました。サイトは部分的ではあるものの回復を見せ、2024年3月のアップデート以前の状態に戻ることができたのです。

ただし、2023年9月以前の大きなトラフィックが完全に戻るかどうかは不明です。なぜなら、状況が変化し、アルゴリズムもそれに合わせて進化しているからです。それでも、私の取り組みの一部が成果を出しているように見え、今後の改善に希望を抱いています。

まだ道半ばです。「知る人ぞ知る」という精神で、ぜひお使いのツールで「Pickr」をチェックしてみてください。回復が進んでいるか、確かめることができるでしょう。

ここからは、私の試行錯誤から得られた教訓を共有します。改善のヒントがそこにあります。

私はサイトを改善するために何十もの取り組みを行いましたが、どれか一つが決定的な要因だったわけではありません。むしろ、多くの小さな努力が積み重なり、全体として大きな成果を生んだのです。

いくつかの施策は私のサイトに特有のものでしたが、幸いなことに、多くは他のサイトでも応用可能なものでした。他のパブリッシャーもこの経験から学び、次のGoogleアップデートの際に、自分たちの成功を手にできるようになるはずです。そのためには、HCUが何を意味するのかについての考え方を変える必要があるかもしれません。

1. コンテンツを徹底的に内省する

SEOの実務で得た大きな教訓の一つは、コンテンツとページの監査を定期的に行うことの重要性です。自分たちが提供しているコンテンツが本当に優れているのかを検証することは非常に有益です。

多くのサイト運営者と話して感じたのは、多くの人が自分たちのコンテンツは良いものだと信じているということです。特に、パフォーマンスの良いページがいくつかある場合、それだけで問題ないと考える傾向があるようです。「Googleが間違っているに違いない」と結論づけるのもよくある反応です。

しかし、本当の問題は、自分のサイトと他のサイトをどう比較するかにあります。自分のコンテンツが良いと思っていても、競合のコンテンツがさらに優れている可能性は否定できません。Googleは膨大な量のコンテンツを比較して評価するため、「競争に勝てるほど優れていない」と考えるのが現実的です。

コンテンツの質について冷静に考える必要があります。たとえ自分やチームが優れたライターであっても、必ずしも最高のコンテンツが作れているとは限りません。適切な内部リンクや、信頼できる外部リンク、そしてそれらのリンクに関する十分な文脈が欠けていることも多いでしょう。

私が携わった多くのサイトでは、コンテンツのバランスが大きな課題でした。素晴らしいページが10~20%ほどある一方で、残りの大半は「まあまあ」か、それ以下の品質だったのです。この問題はページ数が増えるほど深刻になります。

たとえば、100ページあるサイトでは10~20ページが素晴らしくても、残り80ページが質の低いものであれば、全体の評価に悪影響を及ぼします。大規模サイトでは、この傾向がさらに顕著になります。先日、15,000ページ以上を持つパブリッシャーと話しましたが、その中で素晴らしいと言えるのは10%にも満たない印象でした。

Googleの視点を理解する

Googleはサイトに提出されたすべてのコンテンツを分析し、それをもとにサイト全体を評価します。仮に提出したコンテンツのうち、最高品質といえるものが全体の10%しかない場合、Googleがそのサイトを高く評価することを期待するのは難しいでしょう。

これはHCUにおける「人を傷つけるコンテンツ」に該当する部分です。しかし、コンテンツの監査を実施することで、これを改善する道が開けます。監査は時間と労力がかかり、広範囲に及ぶため疲れる作業ですが、その価値は大きいです。ブランドやサイトの現在の姿を正確に反映していないコンテンツが見つかる可能性が高く、それらを削除または非インデックス化することで改善につなげられます。

どのコンテンツが自分たちを苦しめているのか、批判的に考えましょう。その分析と対応が、サイト全体の評価を大きく向上させるきっかけとなります。そして、それが最終的には回復への道を切り開くのです。

2. より役に立つ方法を見つける

コンテンツを批判的に見直す話題に触れた今、Googleが「役立つコンテンツ更新(HCU)」を通じて目指そうとしていた本質を考えてみましょう。GoogleはHCUを、「役に立つ」ことだけを目的として設計したと説明しましたが、アップデートの影響で多くのサイトが苦戦した現実を踏まえると、改めて自分のサイトがどのように役立っているか、あるいはどのように役立たせるべきかを考える必要があります。

もちろん、私たちのウェブサイトが役立つよう努めていたとしても、必ずしもそれがGoogleの定義する「役立つ」に合致しているとは限りません。情報を提供したり、エンターテインメント性を持たせたりすることが目的のサイトであっても、それが直ちに「役立つ」とみなされるわけではありません。この点は、Googleが「役立つ」という基準を標準化しようと試みているため、私たちとしてもそれを考慮しなければならないのです。

「役立つ」の曖昧さを理解し、対応する

問題の一部は、GoogleがHCUについて非常に曖昧な立場をとっていることにあります。「役立つコンテンツ」とは具体的に何を指すのか?Google自身がその定義を慎重に避けている以上、私たちはどう解釈すれば良いのでしょうか。

むしろ、「役に立つコンテンツの更新」という名前の方が現実に即しているかもしれません。この名前も曖昧ですが、少なくとも「何を改善すべきか」を考えるきっかけを与えてくれます。役立つコンテンツをどう評価するのかは完全には分からなくても、自分のページを見直し、「何を削除するべきか」「どう改善するべきか」を判断することは可能です。

自問するべきことは「ユーザーのための価値

ページやコンテンツを評価する際に、次の質問を自分に投げかけてください。

  • 各記事やページの要素は、ユーザーにとって本当に価値を提供しているか?
  • コンテンツをもっと「役立つ」ものにするために、何を変えることができるか?

たとえば、以下のような改善策を検討できます

  1. 目次の追加
    長い記事では特に、目次を追加することでユーザーが必要な情報に迅速にアクセスできるようになります。
  2. サブヘッドラインの見直し
    サブヘッドラインが分かりやすいか、標準的な順序で情報を提供しているかを確認してください。
  3. ページ全体の自動化改善
    レイアウトの最適化やフォントサイズの調整など、視覚的に見やすい工夫ができるか検討しましょう。
  4. インデックス付きタグやカテゴリページの活用
    サイト内でタグやカテゴリが分かりやすく整理されていれば、ユーザーが目的の情報を見つけやすくなります。
  5. 説明文の追加
    タグやカテゴリページに短い説明文を加えることで、それらのページが検索エンジンにもユーザーにも役立つものになります。
  6. 他の改良点を模索する
    ユーザーにとってウェブサイトがより有益になるための手段を積極的に探してください。

次のアップデートに向けて準備する

こうした改善を迅速に実行に移すことが重要です。次のGoogleアップデートはいつ行われてもおかしくありません。その時に備え、今のうちに役立つコンテンツへの見直しを進めておくことで、より高い評価を得るチャンスを広げられるでしょう。

3. 透明性を保ち、嘘をつかない

サイト運営やコンテンツ作成において、嘘をつかないことが極めて重要です。あなたがサイトの内容をどれだけよく知っているかに関わらず、気づかないうちに誤解を招く情報を提供している場合があります。

嘘をつかないというのは、人生全般においても素晴らしい原則です。正直でいることで、余計なストレスや矛盾を抱えずに済みます。同様に、Googleに対しても正直でいるべきです。なぜなら、Googleは非常に高い精度で問題を検出し、いわば「嘘」を見破る能力を持っているからです。

「正直なコンテンツの更新」を目指す

ここでは、特に検索エンジンが容易に検証できる、表面的な修正や無意味なアップデートについて注意を促します。これを「正直なコンテンツの更新」と考えましょう。検索エンジンは透明性を基盤として設計されているため、不誠実な操作は逆効果です。

たとえば、以下のような例は嘘に当たります

  • 記事の更新を装う
    サイトマップの日付だけを変更して、あたかもコンテンツが更新されたように見せかける。
  • タイムスタンプの不正使用
    新しい著者名やタイムスタンプを追加しただけで、実際には内容に何の変更も加えていない。

これらは、見せかけだけの変更であり、Googleにとっては容易に見抜ける行為です。SEO対策として一時的に効果があるかもしれませんが、長期的には信用を失う原因になります。

透明性を高める具体的な方法

透明性を保つことは、Googleだけでなくユーザーとの信頼関係を築く上でも重要です。以下のような対策を取り入れることで、透明性を高めることができます。

  1. 広告ポリシーの明確化
    サイトでの収益獲得方法(広告やスポンサーシップなど)をフッターのメニューや専用ページで説明し、インデックスに登録されるようにします。
  2. アフィリエイト情報の公開
    アフィリエイトリンクを使用している場合、その旨をできるだけ明確に表示します。ユーザーにとってわかりやすい記載が必要です。
  3. 正確なコンテンツ更新
    コンテンツの更新には実際の価値ある変更を伴わせるべきです。記事内容を刷新し、新しい情報や視点を加えることで、更新が実際にユーザーの役に立つことを確認してください。

嘘をつかないことで得られるメリット

正直であることは、ユーザーにも検索エンジンにもプラスになります。Googleは、コンテンツやサイト運営に透明性があるサイトを信頼し、その結果、より良いランキングやトラフィックをもたらす可能性があります。一方、嘘をついているサイトはペナルティを受けたり、信用を失ったりするリスクが高まります。

最後に、こう覚えておきましょう。正直さは信頼を生み、信頼は成功につながります。
Googleはあなたの行動を評価するので、誠実さを最優先に取り組みましょう。

4. 技術的な問題を解決する

検索エンジンのパフォーマンスを向上させるには、技術的な問題の解決が欠かせません。プレゼンテーションを通じて検索マーケティングについて話す際、Googleが意識しているが私たちが見落としている問題がいかに多いかを常に強調しています。これを改善するためには、Google Search Consoleを活用することが重要です。

Search Consoleを活用したエラーの修正

Search Consoleの「ページ」セクションを確認すると、多くのエラーが見つかることがあります。たとえば、

  • 見つからないページ (404エラー)は修正するか、適切なページにリダイレクトする必要があります。
  • noindexに設定されたページなどは、意図的に設定されている場合もありますが、これが誤設定でないかを確認してください。

これらの問題をどのように処理するかは、検索マーケティング担当者の責任です。HCUへの対応中、私はエラー修正に数か月を費やし、Googleがその変更を認識し、結果に反映させるのを待ちました。その結果、問題のあるページが徐々に検索結果から取り除かれ、サイト全体が「健康的な状態」へと変わっていったのです。

HCUへの対応ではなくても、技術的な問題の解決は、検索エンジンやユーザーにとっての信頼性向上につながります。特に以下のポイントを確認しましょう。

  1. コードと構造
    HTMLやCSS、JavaScriptにエラーがないか。
  2. robots.txt
    検索エンジンに不適切な指示を与えていないか。
  3. サーバーやホスティングの問題
    ページのロード時間や応答性を最適化しているか。

これらの改善は、サイトをスムーズに機能させ、Googleが評価するサイト作りの基礎を築きます。

5. ブランドに取り組む

ブランド力を高めることも、長期的なSEOの成功には欠かせません。しかし、これは非常に難しい課題であり、Googleが言う「役に立つコンテンツ」を実現することと同様に、簡単ではありません。

ブランドと検索エンジンの関係

ブランドの改善は難しく、特に「役立つ」という曖昧な概念を追求するのと同じように簡単ではありません。しかし、ブランドについて言及されることは、時間とともに徐々に増えていくものです。

数年前、Googleの担当者が「ブランドの牽引力」や「サイトのマーケティング」について触れたのを覚えています。その担当者は「それは検索エンジンの役割ではない」と明言しつつも、間接的に役立つ可能性があると示唆していました。この正確な引用は見つけられませんが、その言葉が強く印象に残っています。

そして、今年になってその言葉の重要性を特に感じています。

MozのTom Capperが行った優れた研究では、HCU(Helpful Content Update)の狙いについて示唆されています。その核心は「ブランド」にあるようです。

関連:ヘルプフルコンテンツアップデートはGoogleの説明と違う動きをしているとデータで判明(前編) | Moz – SEOとインバウンドマーケティングの実践情報 | Web担当者Forum

確かに、この研究はGoogleが使用しないとされる「ドメインオーソリティ」や、Moz独自の「ブランドスコア」という指標に関連しており、それがどれだけ有用かは議論の余地があります。しかし、この研究は詳細かつ緻密で、いくつかの点は非常に納得のいくものです。

これは検索の人気度に似たものでありながら、あなたのサイトや関連するウェブサイトの「ブランド」に結びついています。

これが役立つコンテンツアップデートの特徴というよりも、「重要な特質」に関するアップデートのように感じられます。

これを「ハルマーク・コンテンツ・アップデート」と呼びましょう。「ハルマーク(特徴的な印)」は品質を示唆するものであり、Googleが伝えようとしているのはそういうことかもしれません。

具体的には、「検索されるブランド」はそのまま「品質」を示しているということです。

一部のブランドはメディアへの登場が検索量の増加を引き起こす原因かもしれませんし、しっかりとしたマーケティング努力も同様の効果をもたらす可能性があります。

ここで、テレビやラジオがランキングを直接押し上げるとは主張しませんし、そもそもそれらのメディアを利用するのは簡単ではありません。しかし、それが関連する検索用語とつながる可能性は間違いなくあります。

ジョン・ミュラー氏(Googleの担当者)は、「ブランドの言及」がランキングを押し上げるという考えを否定していますが、ブランド自体に関する検索については議論を避けています。

実際、Googleトレンドで検索が増加する場合、それは「トレンド検索」と見なされます。

つまり、ブランドに関連する検索の増加は、そのブランドの「権威」を示唆するものであり、マーケティングやブランド関連の施策が必要であると推測されます。

私がやらなかった3つのこと

私がサイトの回復に向けて実行した施策は多岐にわたりますが、SEOコミュニティの一部で推奨されるある種の行動は意図的に避けました。それでも改善が見られたことは、興味深いポイントです。ここでは、私が「やらなかった」3つのことを取り上げます。

1. ランキングについてソーシャルメディアやフォーラムで苦情を言うこと

私は、自分のサイトが突然過小評価されるようになった理由について、不満を公開の場で叫ぶようなことはしませんでした。
代わりに、自分で何が問題なのかを理解し、具体的な解決策を見つけるために行動しました。苦情を言うよりも、実践的な修正に集中することが重要だと考えたからです。

2. Googleフォームでフィードバックを送信すること

2024年3月のアップデート後、Googleが提供するフィードバックフォームを使う時間はありませんでした。これらのフォームが実際にGoogleに影響を与えるかどうかが不明だったためです。
SEOの修正作業に時間をかける方がはるかに効率的だと判断しました。

3. バックリンクを獲得しようとすること

バックリンクについて、RedditのSEOコミュニティではその重要性がしばしば議論されますが、私は一切追求しませんでした。
人工的なバックリンクはゼロで、必要だと推測するクライアントに対しても反対しています。バックリンクは確かにランキング要因の一つですが、それが全てではありません。AI時代のSEOでは、他にも多くの重要なシグナルが存在します。

私が代わりに行ったこと

デザインとフォントに変更を加え、ユーザーにとって全体的な読みやすさが向上するスタイルを模索しました。また、管理ページを通じて透明性を向上させることに重点を置き、編集方針や広告方針を明確にし、それらをより見つけやすくしました。

より良いページを作成する間、検索結果に表示させたくない特定のページにはnoindexタグを使用しました。

内部リンクについては、一部をnofollowとしてマークし、他のリンクはアクティブのままにしました。適切なバランスを見つけることが重要です。

さらに、カスタムコードの導入やメディアサイズの拡大を行い、検索エンジンが発見できるすべてのページが、ユーザーと検索エンジンの両方にとって可能な限り最適な状態になるよう努めました。

専門家の意見を求めることの重要性

HCUからの回復を目指している場合、実際にその分野で経験があり、成果を出した実績がある人に助けを求めることをお勧めします。

その人の実績や証拠、データを確認しましょう。可能であれば、トラッカーを使って回復成功事例を検証してください。SEOのアドバイスを鵜呑みにしてしまうと、自分のサイトに適用できない戦略に時間やお金を浪費してしまう可能性があります。

あなたの具体的な課題を理解できる人を探してください。必要に応じて、SEOコミュニティ全体の知見を活用することも視野に入れましょう。

また、医者にセカンドオピニオンを求めるように、別の専門家の意見を求めることも選択肢です。多くの専門家が、他者の学びを助けるために協力を惜しまない姿勢で活動しています。

seojapan

効果的なFAQページ ベスト25選

1 year 1ヶ月 ago

本記事は、2024年10月24日に Search Engine Journal で公開された Lee Wilson氏 「25 Best Examples Of Effective FAQ Pages」を翻訳した記事です。


効果的なFAQページを構築するためのポイントを、最適な例とともに学びましょう。ユーザーのエンゲージメントを高め、サイトのユーザー体験を向上させます。

FAQページ(または情報ハブ)を利用することで、企業は従来のランディングページよりも迅速かつ的確にユーザーのニーズに応えられるようになります。FAQページは、ユーザーに役立つ情報を提供しながら、自然と目標や成果に向けて誘導するための重要なコンテンツです。現在、FAQページは多くのサイトで必須の要素となっています。

FAQページの目的は何ですか?

まず、FAQページはオーガニック検索を通じて新しい訪問者をサイトに誘導し、関連ページ(多くの場合、回答しようとしている質問に関連するブログやサービスページ)にスムーズに案内するための有効な手段です。

また、検索エンジンの結果ページ(SERP)内でブランドの可視性を向上させる最も重要な機会の一つとして、ユーザーの質問やニーズ、課題をターゲットにすることが挙げられます。

FAQページは、サイトを訪問したユーザーが検索結果をクリックする前に回答のスニペットを確認できる最適な方法の一つです。これにより、ユーザーが求める情報に早くアクセスでき、検索ニーズを迅速に満たします。

さらに、効果的なFAQページ(コアページやトピックに基づくFAQハブ)は、初めての訪問からコンバージョンまでのユーザー体験を効率化します。これは、情報や信頼を得る際の障壁が取り除かれるためです。

企業にとっては、FAQを通じて専門知識を披露し、主要なスタッフや知識、独自の視点を業界に迅速に紹介することができます。

さらに、視聴者が求めるさまざまな形式で価値あるコンテンツを提供することで、信頼性や価値も向上します。これには、従来のテキスト中心のコンテンツ提供だけでなく、音声やビジュアル/ビデオ、コンテンツの階層的な展開も含まれます。

また、迅速で常時利用可能なオンラインのメカニズムを通じて、オフラインでのコミュニケーションや体験ニーズにも応えることが可能です。人々は常に助けやアドバイスを求めており、電話をかけたり店舗に出向いたり、情報が得られるまで長時間(数分でも)待つことを好みません。FAQは、今すぐ利用可能であり、ユーザーが最も利用しやすい形式で提供されることが求められます。

なぜFAQページが重要なのか

FAQページは、SEOおよびデジタルマーケティングの視点からも優先されるべきページです。FAQページはサイトを改善し、訪問者を支援する最も簡単で効果的な手段の一つです。

顧客の要求が増え続けるなか、FAQセクションは常に変化と拡張が求められる価値の源です。FAQページは、音声検索やモバイル検索の普及、スマートアシスタントやスピーカーの増加に伴い、さらに重要性を増しています。これにより、事前結果(Googleの回答や注目スニペット)におけるFAQページのターゲット化が可能となり、効果的にユーザーを引き付けます。

効果的なFAQページは次の要素を意識して設計されるべきです。

  • 視聴者のニーズを徹底的に反映し、それに応える内容を提供
  • 取引、情報提供、場所に関する情報など、幅広い目的に対応
  • 最新のデータや業界動向、ベストプラクティスから得た洞察を基に、常に更新を行う
  • 定期的な情報追加と専門知識の共有により問題解決を支援し、再訪問を促進することで新規ユーザーの獲得をサポート
  • 他の重要なページへの内部リンクを促進し、主要なコンバージョンパスをサポート
  • Fuelブログやさらに深いコンテンツでは、関連性の高いコンテンツを論理的かつ直感的に繋げる
  • 自社の専門知識、信頼性、権威を強調し、ブランドとスタッフがコミュニティに対して教育的で情報提供的、支援的なプラットフォームを提供

効果的なFAQページは、ユーザーの疑問に迅速に対応し、企業の信頼性や専門性を確立するための貴重なツールです。

ここでは、FAQページやリソースの優れた例 25選と、それらが効果的である理由を見ていきます。

1. Caesarstone UK
Caesarstone UKのFAQリソースは、一般的な質問をカスタマイズしたランディングページにグループ化し、シンプルで直感的なユーザー体験を提供しています。この例からわかるように、FAQは分かりやすく、データに素早くアクセスできる設計が重要であり、ワンクリックで回答を得られる利便性が求められます。

2. Siren Craft Brew
Siren Craft Brewは、セカンダリナビゲーション要素と展開可能なdivコンテンツを使用して、デバイスに依存せず簡単に情報へアクセスできるよう工夫されています。

3. Amazon
AmazonのFAQページも注目すべき事例です。同社はデータを活用してカスタマイズした体験を提供し、AIで継続的な会話を可能にすることで、ユーザーのニーズを的確に理解し、ほぼ人間のようなサポートを実現しています。

4. WhatsApp
WhatsAppのヘルプセンターは、分かりやすく使いやすい構成で、デスクトップやモバイルでも迅速にアクセスできるよう効果的に分類されています。会話調の口調を使うことで、支援・解決・アドバイスの場として親しみやすさが増しています。

5. Wikipedia(Wikiヘルプ)
Wikipediaのヘルプセンターは、従来のテキスト重視のFAQページの好例です。膨大なテキスト量を主要なトピックに分けて整理しており、全てのサポート領域に広範囲にアクセスできる構成になっています。

6. P&O Cruises
P&O CruisesのFAQページは、ライフスタイルに基づいた選択肢とクルーズ予約に関する情報をバランスよく提供し、利用者にシンプルで効果的なソリューションを提供しています。

7. Lucy and Yak
Lucy and Yakは、ユーザーフレンドリーで親しみやすいFAQハブを提供しており、電子商取引サイトにありがちな機能的なFAQから一歩進んだ、ユーザー重視の設計となっています。

8. Asda
Asdaのカスタマーヘルプセンターは、トーンやデザイン、画像に親しみやすい雰囲気があり、遊び心のある「既成の回答」といった表現で利用者の関心を引きます。

9. Truhouse
Truhouseのクライアントヘルプ/FAQリソースは、情報検索や購入プロセスを各ステップに分割して整理しており、ユーザーが容易にアクセスして進められる優れた例です。

10. ナイキ
Nikeの「ヘルプを取得」セクションは、ホワイトスペースを効果的に活用し、行動喚起の工夫が凝らされています。複雑になりがちなFAQページですが、Nikeはシンプルさが効果的であることを示しています。

11. 世界動物保護協会
世界動物保護協会のFAQページは、分散している多くのコンテンツをシンプルで論理的な構成にまとめ、使いやすくしています。ユーザーは限られた時間の中でサイトを移動したいと考えるため、このような情報の整理と提示は、デザインによって機能性を引き出しています。

12. LinkedIn
LinkedInのFAQは、ユーザーにとって邪魔にならない設計が特徴です。プラットフォームでの集中力を保ちつつ、インタラクティブなFAQ機能でサポートします。プロフィールアイコンのドロップダウンリストから簡単にアクセスできる点も魅力的です。

13. Microsoft
MicrosoftのサポートFAQは、複雑な情報を一口サイズでまとめ、ビデオやコミュニティを取り入れてコンテンツ配信を効果的に行っています。これにより、ユーザーがFAQを通して直接サポートを得やすい設計になっています。

14. UCFB
UCFBのFAQリソースは、教育に関する重要な意思決定を支援するため、シンプルで視覚的にわかりやすいデザインで豊富な情報を提供しています。

15. Google
GoogleサポートはFAQに期待される機能を超え、大量の情報を効率よく整理し、デザインやレイアウトで直感的にアクセスできるようになっています。

16. Hillier
オンラインでオフライン体験を再現するのは難しい場合もありますが、HillierのFAQセクションは、園芸に関する専門知識を効果的に共有し、まるでガーデニングセンターにいるかのような感覚を提供しています。

17. Tilda Rice
Tilda RiceのFAQは、コミュニティ全体で役立つリソースの一部として機能し、広範囲なコンテンツの一部として利用者に情報を提供しています。

18. Trent Furniture
Trent FurnitureのFAQは、FAQリソースとしての役割に加え、ガイドリソースも兼ねています。ユーザーは、詳細な購入ガイドや測定情報などの追加情報にアクセスでき、購入決定に役立つ豊富なコンテンツを提供しています。

19. Spotifyコミュニティ
SpotifyのコミュニティFAQは、情報へのアクセスをプッシュとプルの両方で実現し、定期的に利用するユーザーのニーズを迅速に満たせるようセグメント化されています。

20. Etsy
Etsyは、FAQハブを通じて多層的な情報を共有し、ユーザーが頻繁にアクセスする基礎的なコンテンツを中心に据えています。近年のeコマースサイトにおけるFAQの重視の好例です。

21. Carbase
CarbaseのFAQページは、ユーザーが少ないクリック数で迅速にアクセスできるよう、重要なトピックが明確に表示されています。特定の問題解決を明確にサポートする構成になっています。

22. Wateraid
WateraidのFAQは、ストーリー性を持たせてユーザーの行動を促し、サポートや寄付の意思を高める効果的なハブです。AIチャットボット機能と従来のテキスト情報提供を組み合わせて、シームレスに支援を提供しています。

画像に alt 属性が指定されていません。ファイル名: image-1024x606.png

23. Airtable
Airtableのヘルプセンターは、数か月前にレビューした際と比べて大きく改善されています。それでも、このトップFAQリストに含める価値はあります。コンテンツが適切にセグメント化され、チャットボットによるサポートもあり、インターフェースがシンプルで使いやすい点が、FAQコンテンツに最適な要素となっています。

24. Reddit
RedditのFAQセクションには、どこか懐かしさを感じさせるものがあります。しっかりと機能しており、使いやすいものの、なぜか2000年代初頭に戻ったような感覚も覚えます。テキストリンクへの実用的なアクセスが提供されており、さまざまな方法で情報にアクセスできることを思い出させてくれます。

25. スティーブン・キング
私はスティーブン・キングの大ファンなので偏りがあるかもしれませんが、彼のウェブサイトにあるFAQハブが、まるで文学体験をしているかのような感覚を与えてくれる点が気に入っています。目次や背景が、本を読みながら物語の一部になるシーンを設定するような役割を果たしています。

効果的なFAQページの作成

FAQページがすでに存在する場合、さらに有用なものにするため、または新たにFAQリソースを作成する際には、次のステップを検討することが重要です。FAQセクションで得られるデータを活用し、継続的に更新・改良し、視聴者に対する価値を拡充していくことが求められます。FAQリソースは、オンライン・オフライン問わず、新しいデータセットに基づいて常に更新されるべきです。

1. FAQページの目的を決める

専門家の支援を前面に出し、継続的なユーザーサポートを提供したい場合と、Webサイトの基礎となるコンテンツへのアクセスを向上させることを目的とする場合では、FAQハブの役割は大きく異なります。FAQセクションの目的を明確に定義し、ビジネス目標やKPIでそれをサポートすることが重要です。これにより、リソースの優先順位と正当性が維持され、FAQの開発が強化されます。

2. FAQハブの維持と成長のための事前計画

ユーザーの質問は頻繁に変化するため、FAQコンテンツがこれを反映していることを確認する必要があります。Google Search Console (GSC) やサイト内検索のデータ、さらには業界動向を活用して判断を行いましょう。データ収集を一つのソースに限定せず、競合他社やGoogleリッチリザルトを分析し、FAQコンテンツを通じて専門知識を効果的に提供することが求められます。

3. 社内データ環境の外側に目を向ける

既存の顧客データを活用することは重要ですが、FAQセクションは多様な質問に対応する必要があるため、一般的な質問については「Answer the Public」や「Google トレンド」などの無料ツールや競合サイトを活用できます。また、In-SERP(検索結果内)の質問に答えるチャンスを逃さず、FAQコンテンツを紹介し、これらにターゲットを絞った魅力的なコンテンツを作成することが大切です。

4. FAQの構造化

FAQページや個々のFAQ(単一のページや専用セクション)をどのように構成するかについては、ユーザーと検索エンジンの両方が多様なコンテンツにアクセスできるように検討が必要です。回答をわかりやすく、クリックで展開される形式で提供し、ページ構造においてはスキーマの使用やページ速度、モバイル対応などの技術的最適化にも時間をかけましょう。FAQはテキストだけでなく、視覚的に豊かなコンテンツであれば、より広範囲にリーチし、価値を提供できます。

5. データを活用して改善

FAQページは時間と共に古くなるため、変更をテストし、コンテンツの見直しを繰り返し行うことが重要です。データに基づいた改善は毎月行い、結果としてユーザーとビジネスに大きな影響を与えることができます。

6. 人材の要素を忘れない

成功するFAQページやヘルプセンターは、ユーザーへの深い理解を基盤に作られています。データや証拠を重視しつつ、現実世界の洞察をバランスよく取り入れることが求められます。最前線で積極的にユーザーと関わり、オフラインとオンラインのFAQがどのように問題解決に役立つかを理解しているスタッフの支援が重要です。

簡単なヒント
FAQリソースは、完成したように見えても、常に新しい方法で価値を最大化し、成長できる余地があります。既存のコンテンツを再利用し、検索機会に合わせて強化し、テキストにビジュアルコンテンツを加えることで、短期的および継続的に利益を得ることが可能です。

まとめ

FAQリソースは、Webサイトの大きな資産となり、ユーザーの問題解決や変換の加速、ビジネスの強化に貢献します。FAQハブは、常に進化し、データセットを最新に保ち、ユーザーのニーズに基づいてトピックを拡張していくべきです。これにより、外部リソースではなく、自社サイトで直接解決策を提供し、ユーザーを引きつけることができます。

FAQアプローチを始める場合は、小規模から始め、時間をかけて拡張していくことが効果的です。

seojapan

2024年8月のコアアップデートに関するGoogleのダニー・サリバン氏へのインタビュー

1 year 2ヶ月 ago

本記事は、2024年9月6日にSEARCH ENGINE ROUNDTABLEで公開された「My Interview Of Google’s Search Liaison On The August 2024 Core Update」を翻訳した記事です。Googleのダニー・サリバン氏が2024年8月に実施されたコアアップデートと今後の展開について語ってくれました。

今週、私はGoogleのダニー・サリバン氏にインタビューを行い、Google検索の現在の品質状況、将来の方向性、そしてコンテンツクリエイターや検索マーケターが知っておくべきことについて話を聞きました。

※記事内では、ウェブコンテンツ制作者を「クリエイター」と呼称します。

このインタビューでは、議論を呼んだ2023年9月のヘルプフルコンテンツアップデートや2024年3月のコアアップデートを含む、最新のコアアップデートに焦点が当てられました。過去11か月間にサイト運営者が直面した厳しい状況と、Google検索がその影響を和らげるために行っている対策について伺いました。

本記事はインタビュー形式で、非常に長い構成となっています。ChatGPTやGeminiで要約することもできますが、完璧な要約が難しく、全ての内容をお伝えしたいと考えております。

※SEO Japan編集部では、生成AIを活用し翻訳を実施しましたが、可能な限り原文に沿った内容になるよう努めています。

Googleコアアップデートの目的

サリバン氏は、コアアップデートの目的として、全てのユーザーを対象にGoogle検索を改善することだと述べています。また、コアアップデートに関する公式文書を基に、詳細な説明を加えました。

サリバン氏は、コアアップデートをスマートフォンの大規模なソフトウェアアップデートに例えました。

「スマートフォンは時々、小さなアップデートを行いますが、ほとんどの人は気づきません。Google検索も同様に年間約5,000回のアップデートを行っています。
そして、スマートフォンは大規模なアップデートも行います。検索エンジンにとって、コアアップデートは同様に大規模なアップデートに相当するのです。」と述べました。

3月のコアアップデートから8月のコアアップデートへの変化

SEO業界の関係者が抱いていた大きな疑問の1つは、【2024年3月と8月のコアアップデート間でGoogleが行った変更は何だったのか】ということでした。

Googleは当初、3月のコアアップデートが最大級のものだと発表し、多くの人は2023年9月のヘルプフルコンテンツアップデートで大きな影響を受けたサイトが改善されるだろうと期待しました。しかし、ほとんどのサイトに改善が見られない結果となりました。

その後、8月のコアアップデートで、様々な順位変動が見られましたが、何が変わったのでしょうか?

サリバン氏は、今回のコアアップデートの変更について具体的に説明してくれませんでしたが、「定期的かつ段階的な改善を行おうとしました」と語っています。それはどういう意味なのでしょうか?

サリバン氏は、そのプロセスを次のように述べました。「様々なランキングシステムを見直し、より改善する方法を検討します。そしてテスト検証を行い、最終的には人間の評価者に送ります。評価者たちは、全体的に検索結果が改善されたかを確認し、アップデートを公開します。」

「それでもまだ完璧ではないので、そのプロセスを繰り返し、さらなる評価やテストを行います。加えて、異なる側面を見つつ、ランキングシステムをより良くする方法を探ります」と彼は言いました。

また、「小規模な独立サイト」を、より適切に評価する方法についても言及していました。彼は「我々は、それらのサイトを助けるいくつかの変更を行いました」と述べています。

ただし、「それらの改善はまだ完了しておらず、将来のコアアップデートでさらなる改善が行われるだろう」と、Googleは付け加えました。

私が小規模で独立した高品質なサイトについて質問したとき、サリバン氏は「高品質なコンテンツを発信している優れたサイトは確かに存在します」と共感してくれました。

「我々は、それらの優れたサイトが検索上でも正しく評価されることを望んでいます。Googleが行っている改善は、最終目標であるユーザーの役に立つコンテンツを適切に評価できるランキングシステムに改善し続けることです」とも述べていました。

したがって、3月のコアアップデートから8月のコアアップデートにかけてのGoogleの取り組みは、これらの小規模で独立したサイトをより適切に評価することでした。また、Googleはまだ改善を続けているため、将来のコアアップデートでさらなる進展が期待できます。

今後のコアアップデート

前述の通り、Googleは、「特に小規模な独立系サイトからの高品質コンテンツを適切に評価する改善を続ける」と述べました。

この取り組みについて質問した際、サリバン氏は「明らかに改善できる点、改善すべき点、改善したい点がある」と述べました。

素晴らしいコンテンツを作成しているにもかかわらず、Google検索で適切に評価されていないと感じているサイト保有者に対して、諦めるべきではないと、サリバン氏は語っています。

「本当に良いコンテンツを作成しているにもかかわらず、最新のアップデートで十分な成果が得られなかったとしても、諦める必要はありません。
なぜなら、我々の目標は、良いコンテンツを発信しているサイトを評価することだからです。そして、我々があなたのコンテンツを十分に評価できていなかったとしたら、それは今後のアップデートで改善したいと思っている箇所です。」

「我々は将来のアップデートが、より良い方向に向かっていくことを願っています。」と彼は付け加えました。

将来、Googleは我々のサイト順位を向上させるか

私が質問とともに、いくつかの例を挙げると、サリバン氏は「今回のアップデートで一部のサイトに良い影響を与えたと思いますが、昨年9月頃の状態には戻っていません。」と述べました。

サリバン氏は、そのうち一部のサイトは時間とともにランキングの改善が見られる可能性があると示唆しました。

「小規模なサイトであれ、大規模なサイトであれ、もし本当にユーザーのためになる高品質なコンテンツを作成しているなら、自ずとランキングは上昇してくるはずです。私もそう望んでいます。

しかし、全てのサイトの回復を約束することはできません。なぜなら、アルゴリズムは変化し、インターネット上には常に新しいウェブサイトやウェブページが存在するからです。

つまり、9月の状況から変化してしまった今、元のランキングに戻すことはできないのです。」とサリバン氏は言いました。

「そして、我々のランキングシステムは変化しており、その中でも、フォーラムコンテンツやソーシャルコンテンツなど、様々なコンテンツも評価しています。なぜなら、それは多様な検索結果を提供する上で重要な部分だからです」とも述べています。

サイト順位を回復させるには、次のコアアップデートを待つ必要があるかもしれません。「あなたがすべきことは、検索ユーザーのために正しいことをしているかを確認することです。

そうすれば、Googleは長期的にあなたのサイトを適切に評価するはずです。我々のランキングシステムはユーザーの役に立つコンテンツを評価しようとしています。」とサリバン氏は述べています。

しかし、「もしランキングシステムを追いかけているなら、あなたは少し遅れをとっています(※)」と彼は警告しました。(※「ランキングシステムを追いかける」のではなく、「ユーザーのニーズを満たす高品質なコンテンツを作成する」ことに注力すべきだと示唆している。)

2024年3月、Googleは、3月のコアアップデートの影響に対して、静観するように促しました。8月のコアアップデート後も同様です。

5月、Googleのジョン・ミュラー氏は、「Googleがより心のこもった良いコンテンツを評価する取り組みをしている」と述べました。

その1週間前、サリバン氏は、「これらのサイトをより適切に評価する作業をしている」と述べました。Googleは、「これらのサイトが回復できるだけでなく、9月以前の結果を超えて急上昇する可能性がある」と述べています。

つまり、 検索改善に関するGoogleの声明は11月まで遡ります。私たちは6か月後にその声明を詳しく調べました。

Googleはヘルプフルコンテンツアップデートの回復時間について、当初は数週間かかると言いましたが、今では一部のサイトで11ヵ月以上かかっています。後にGoogleは、「これらの変更が当初議論されたよりもずっと長くかかる可能性がある」と私たちに伝えました。

11か月が経った今、Google は依然として、素晴らしいコンテンツを作り続ければ順位を回復することは可能だと言っています。しかし、Hardbaconや他のサイトで見られたように、多くの人は経済的にも精神的にも余裕がなくなってきています。

ランキングとトラフィックの変化

ランキングが向上しても、必ずしもウェブサイトへのトラフィック増加につながるとは限りません。これまでと異なるSERPsは、トラフィックに大きな影響を及ぼします。例えば、広告やスクロール検索結果、その他のインターフェース要素があり、自然検索結果を押し下げ、トラフィックが減少する可能性があります。

「Google検索は、あなたのコンテンツを高く評価しています。本当に良いコンテンツを作成しており、検索結果の最初のページにランキングされているなら、あなたは正しいことをしていると感じるべきです」と述べました。

ただし、「1位から2位に移動すると、顕著なトラフィックへの影響となる可能性があります」と付け加えました。「それは我々があなたのコンテンツを好まないということではありません。我々はあなたのコンテンツを高く評価しており、それ故、1ページ目のような高いランキングを獲得できているのです。

しかし、検索者がそれらの結果をクリックしていない可能性があります。おそらく、1ページ目の中でも順位が低いか、Redditやほかのフォーラムのコンテンツが上位に表示されているためかもしれません。

Googleはこの状況を、「検索トラフィックのデバッグに関するヘルプドキュメント」で説明していると、サリバン氏は述べました。

サリバン氏のコメント:「1位から2位に移動すると、それは顕著なトラフィックへの影響となる可能性があります。
それは我々があなたのコンテンツを好まないということではありません。我々は明らかにあなたのコンテンツを高く評価しています。だからこそあなたはトップ領域の検索結果にいるのです。

しかし、他の要素や広告がより高く表示されているため、かつてのトラフィックを取り戻すのは難しいでしょう。その上位にランクされたコンテンツも同様に人々にとって有用なものです。そして全体的に見て、検索結果のすべてが人々にとって有用であれば、結果的にみんなが利益を得ることになります。」

ヘルプフルコンテンツアップデートに何が起こったか

2024年3月のコアアップデートにより、Googleは新しいヘルプフルコンテンツアップデートの発表を停止しました。これは、ヘルプフルコンテンツシステムがコアアップデートシステムに統合されたためです。

ヘルプフルコンテンツシステムは大幅に見直しされ、現在は2024年3月のコアアップデートに組み込まれています。

サリバン氏は、ヘルプフルコンテンツアップデートがなくなったため、「人々がヘルプフルコンテンツシステムについて話し続けるのは難しい」と述べました。現在は、「あらゆる側面で有用性を評価するコアランキングシステムがある」と説明しました。

2023年9月のヘルプフルコンテンツアップデートでネガティブな影響を受けたサイトについて、サイト運営者たちは今後どのように対応すべきか悩んでいました。

サリバン氏はこの状況を認識しており、『そういった影響を受けたサイトの例をいくつも見てきた』と述べました。さらに、彼はそれらの例を『心に響く例』と表現し、中には『私たちのシステムがもっと適切に評価できればいいのに』と思うサイトもあった」と付け加えました。

しかし、上記のようなアップデートの影響を受けたと思われていたサイトの中には、実際にはそうでないものもありました。

以前のコアアップデートの影響を受けたのかもしれませんし、後のコアアップデートの影響を受けたのかもしれません。

サリバン氏は、「実際にトラフィックが増加しているのに、まだ何か問題があると考えている」サイトの例も見たと言いました。サリバン氏はそれらのフィードバックフォームを通じて多くの例を確認したと語っています。

ヘルプフルコンテンツアップデートに何か問題があったのか

次に、ヘルプフルコンテンツアップデートに何か問題があったのかという質問を投げかけました。なぜ2023年9月に一部のサイトが大きな影響を受け、 2024年8月のコアアップデートで改善が見られたのでしょうか?何らかのバグや問題があったのでしょうか?

サリバンは「いいえ」と答え、バグはなかったと述べています。ヘルプフルコンテンツアップデートが無くなった理由は、「ヘルプフルコンテンツシステムを、より広範なランキングシステムに統合したためです」と説明しました。

Googleは、以前にも同様のことを行っており、サリバン氏は「これは、Pandaのような他の独立したシステムでも起こったことです」と述べました。なお、この統合プロセスは2016年にパンダアップデートでも実施されました。

では、なぜ今回のアップデートまで改善が見られなかったのでしょうか?彼もはっきりとは分からないようで、3月のコアアップデートが「全く新しいシステム」だったため「明確に回答するのは難しい」と言いました。

「改善されたサイトの順位がもっと良くなっていればいいのに」と3月のアップデートについて言及しましたが、コアアップデートには多くの異なるシグナルが関与しているため、確実なことは言えないとのことでした。そのため、どのシグナルがいつ登録されたかを一般的な観点で測定するのは難しいのです。

「システムが停止してしまったということはないと思います」とサリバン氏は言いました。これまでのアップデートのリリースは、Googleのエンジニアがこれまでの方法に基づいて実施しているとのことです。

しかし、どんなに優秀なエンジニアでも問題が発生する可能性はあり、私がそのことを指摘すると、サリバン氏は再び「いいえ、システムがそのように停止してしまったということはないと思います」と言いました。

コアアップデート中の変動や調整

コアアップデート中に見られるランキングの変動について質問しました。コアアップデートの展開中にGoogleが調整を行うのかと尋ねたところ、「いいえ、調整は行いません」との回答で、「アップデートの進行中にランキングシステムを変更することはありません」とサリバン氏は明言しました。

続けて、「アップデートを展開する前に、評価、テスト、検証が行われ、最後に評価者によるレビューが行われます」と述べました。したがって、アップデートの途中で変更する必要はないとのことです。

唯一の調整は、アップデートがすべてのデータ センターに展開されていない場合に行われますが、これはランキングシステムの調整ではなく、展開方法のバグにすぎないそうです。

ランキングの問題

8月のコアアップデートの開始時に検索ランキングの問題が発生しましたが、リリースの4日後に修正されました。サリバン氏は、この問題とコアアップデートは無関係であり、コアアップデート自体には「全く関係がなかった」と繰り返し強調しました。

サイト順位の回復は?

私はこちらの記事でサイト順位の回復に関するデータをサリバン氏に共有し、「今回のアップデート以降、小規模な独立系のサイトがどのくらい回復しているのか、そのデータがあるかどうか」を尋ねましたが、サリバン氏は、「具体的な数字は持っていない」とのことでした。

今後、サイト順位は回復するのか?

Googleの検索アルゴリズムが原因で破産に追い込まれた「Hardbacon」というサイトのケースを取り上げ、Google検索からのトラフィックがほとんどないサイトが、どうやって11か月という長期にわたって、優れたコンテンツを作り続け、従業員の給与を支払い、事業を続けることができるのかと言及しました。

サリバン氏は、そのようなケースに対して「コンテンツ制作意向は間違っておらず、我々のランキングシステムが十分に機能していない場合もあります。それが我々が引き続き改善すべき課題です」と述べました。

また、「読者のために、高品質なコンテンツを制作しているのであれば、続けるべきです。最終的には、我々はそのようなコンテンツを適切に評価できるように努力し続けます」と言いました。

サリバン氏は再度、以下のように語りました。「優れたコンテンツを作り続けているのであれば、それは続けるべきです。そして、私たちはそのコンテンツを正しく評価するためにもっと良い仕事をしなければならない」

サリバン氏のコメント: 「良質なコンテンツを制作しているサイトが明らかにあり、その意図が正しいにもかかわらず、我々のランキングシステムがそれに応えられていない場合があります。そういったケースについて、我々は改善に取り組んでいます。もしあなたがユーザーに役立つコンテンツを作成しているなら、作成し続けてください。そして、我々はそのようなコンテンツを評価できるよう、引き続き努力します。」

さらに、サリバン氏は「9月以前のレベルを超えて改善が見られる可能性もあります」とも述べています。

フィードバックフォームとインサイト

Googleは、2024年3月のコアアップデート時にフィードバックフォームを公開しましたが、2024年8月のコアアップデートでは公開されませんでした。

その理由を尋ねたところ、サリバン氏は「前回のフィードバックがまだ多く残っており、それを処理する必要があるため」と説明しました。

前回のフィードバックフォームでは、12,000件の提出があり、1,300件の異なるドメインが報告されました。サリバン氏によれば、多くのユーザーが複数回フォームを提出しており、同じドメインから1,700回以上も提出された例もあったとのことです。

フォームは約1か月間利用可能で、1,300件の異なるドメインが報告されました。サリバン氏は、フォームの提出が何万件、何十万件もあったわけではない、全員がフィードバックフォームを記入するとは限らないが、それでもかなりの数が集まったということを指摘しています。

サリバン氏はすべてのフィードバックを確認し、「非常に有益で役立つものがたくさんありました」と述べました。また、提出されたすべてのフィードバックを手作業で確認し、Google検索のエンジニアリングチームに改善点を報告したとのことです。

「これらのフィードバックに基づいて、最新のコアアップデートでもいくつかの改善が行われましたが、まだやるべき作業が残っています」とサリバン氏は付け加えました。

サリバン氏はこのフィードバックの確認作業を、「Miracle on 34th Street」という映画のシーンに例えました。「サンタに送られた大量の手紙が法廷に積み上げられる場面があるでしょう。その時の気持ちと同じです。フィードバックがたくさんあって非常に有意義でした」と述べました。

Googleは、これらのフィードバックを処理しているため、新しいフィードバックフォームを公開する予定はありません。「現在のフォームから十分なフィードバックが得られているので、次のフォームをまだ公開する必要はありません」とサリバン氏は説明しました。フィードバックの処理が終わり次第、新しいフォームが公開されるとのことです。

フィードバックを提出したからと言って特定サイトの順位は回復しない

ダニー・サリバン氏が強調したもう1つの点は、フィードバックフォームの記入が特定のサイト変更につながることはないということです。Googleは、フォームを記入したからといって、特定のサイトを優遇したり、ペナルティを科したりすることはありません。

Googleは、フィードバックの内容をアルゴリズム改善に活用しており、特定のサイトのランキングを手動で調整することはありません。サリバン氏も「フィードバックフォームを送信したからといって、そのサイトが特別な利益を得るわけではありません。また、声を上げたからといって、不利益を被ることもありません」とサリバン氏は語っています。

また、「ランキングシステムは、特定のサイトを強化したり、ランクを下げたりするわけではなく、全てのサイトに対して機能するように設計されています」と述べました。そのため、フォームを使用していないサイトでも、ランキングが改善している例があると説明しています。

私がインタビューの後半で再度この話題に触れたところ、サリバン氏は「以前も言いましたが、我々はサイトを動かしているわけではありません」と繰り返しました。

コンテンツマーケティングの取り組み

会話の中で、コンテンツマーケティングについて議論になりました。これは、Google検索を意識して、上位表示されやすいコンテンツを作成し、サイトへの訪問者を増やす戦略です。

サリバン氏は、フィードバックフォームで挙げられた例として、地元の配管工のサイトを取り上げました。このサイトは、地域の配管に関する検索で上位に表示されていませんでした。サリバン氏によると、そのサイトのコンテンツは「蛇口の修理方法など、ありふれた配管工の情報」に過ぎないようでした。つまり、一般的すぎて、実際の顧客獲得にはつながりにくいと考えられます。

サリバン氏は、「そのサイトが得ているアクセスの多くは、おそらく実際のリードにつながっていないものだろう」と推測しました。一方で、「その配管工が地域特有の配管問題について、自身の経験に基づいた専門的な情報を共有していれば、Googleはそれをより高く評価するだろう」と述べています。

ページエクスペリエンスと広告

コアアップデートに関連して、広告過多や悪いユーザー体験についても話題になりました。この点については以前から議論されてきましたが、サリバン氏は「基本的な方針は変わっていない」と明言しました。

Googleのページ体験ガイドラインでは、広告掲載を禁止しているわけではありません。サリバン氏は、広告を掲載しているサイトでも、検索結果で上位表示されているものが多いと指摘しています。「ユーザーが嫌がるほどページ内に多くの広告を掲載しているサイトは、検索結果上に数多くあります。」とも述べています。

とはいえ、サリバン氏はこの点について、Googleがより明確にできることがあるとも述べています。「サイトで何が起きているのかを理解するために、より多くのページエクスペリエンスに関する情報を人々に提供できるような、より良い状態になれればいいと思っています。それは重要なことですから」とサリバン氏は語りました。
(今後Googleが、ページエクスペリエンスに関してより詳細で有用な情報を提供することで、ウェブサイト運営者とユーザーの双方にとってより良い環境を作り出したいという意図と理解しています。)

またサリバン氏は「コアウェブバイタルを確認することは重要ですが、それだけがすべてではありません」と強調しています。さらに、「初めてサイトを訪れるユーザーの立場に立って、満足できる体験ができるかどうかを考えるべきです」とアドバイスしました。

そして、「良好な体験を提供できているなら、それこそがGoogleのランキングシステムが評価しようとしている要素の一つです」と語りました。

RedditやフォーラムのコンテンツがGoogle検索で上位表示される件

Googleは最近、RedditなどのSNSやフォーラムのコンテンツを検索結果に表示する傾向が強まっています。私は、特に健康関連の検索でこれらのコンテンツを表示することについて質問しました。

サリバン氏は次のように回答しました。「確かに、SNSコンテンツの表示量は増やしています。多くの検索クエリにおいて、SNSコンテンツは役立つからです。完璧とは言えませんが、常に改善を続けています。特に健康問題で悩む人々が、同じ経験をした人々の声を聞けることは非常に有益です。」

サリバン氏は、さらに個人的な経験も交えて説明を続けました。「SNSコンテンツが役に立たないと一概に言うのは間違いです。私自身、日常的にその有用性を実感しています。例えば、家の修理方法を調べていて、あるプラットフォームにたどり着きました。Redditに限らず、小規模なプラットフォームで空調設備の修理方法を見つけたこともあります。まさに求めていた情報がそこにあり、とても助かりました。」
Googleは、今後も有用なコンテンツを表示し続ける方針ですが、サリバン氏は「完璧ではないものの、多くの場合で役立っています」と述べています。特に「健康問題に直面している人々が、同じ経験をした人々の声を聞けることは非常に有益です」と強調しました。

一方で、Redditがオリジナルコンテンツよりも上位に表示される場合については、サリバン氏も「それは別の問題です」と認めています。そのような場合、Googleはオリジナルのコンテンツを優先的に表示するよう、より注意を払う必要があると述べました。

ただし、これらのケースは人々の検索行動にも起因していると指摘しています。「通常、人々は記事の正確な見出しで検索するわけではありません。見出しそのもので検索する場合、一般的な検索パターンとは異なります」と説明しました。

では、なぜGoogleが元の情報源よりもRedditを上位に表示することがあるのでしょうか。サリバン氏は「特定の見出しで検索した場合、それらの単語が全て含まれているコンテンツを優先的に探します。また、情報の新しさなども影響する可能性があります」と解説しています。

隠れた宝石(Hidden Gems)の発掘

Googleの検索結果に「隠れた宝石(Hidden Gems)」を表示させるアルゴリズムの取り組みについて、多くの混乱が生じています。

サリバン氏は「当初はソーシャルコンテンツに重点を置いていましたが、今後のアップデートでは他の形の隠れた宝石も評価していきたいと考えています。」と説明しました。

彼は具体例を挙げながら、「フィードバックで目にしたサイトの中に、映画やドラマに登場するアイテムを探すのに役立つものがありました。これは非常に興味深い発見でした」と述べています。さらに、「このような本物の人間の声を反映したコンテンツを、より適切に評価し、今後さらに取り上げる方法を模索しています」と付け加えました。

サイト評価のスパムポリシー

インタビューが進む中で、私は他の検索ポリシーやアルゴリズムについても掘り下げました。その一つが、いわゆる「パラサイトSEO」とも呼ばれる、サイト評判のスパムポリシーの現状についてです。

サリバン氏によれば、今年初めにGoogleがこのポリシーを手動で施行し始め、現在も変わっていないとのことです。今後もアルゴリズムや自動化による施行は予定されていないそうです。

「アルゴリズムによる対応は現在行っておらず、近い将来に導入する予定もありません」とサリバン氏は明言しました。もし将来的にアルゴリズムによる対応を行うことになれば、その際にはGoogleから発表があるとのことです。

なぜアルゴリズム化されていないのか。サリバン氏は「極めて慎重に、十分な検討を重ねながら進める必要があるからです。そのためには時間がかかるので、当面は手動での対応が適切だと考えています」と説明しています。

AIコンテンツとスケールコンテンツポリシー

次に、AIコンテンツについて質問したところ、サリバン氏は「問題はAIによって作成されたかどうかではなく、スケールコンテンツポリシーに関わることです」と回答しました。

彼によれば、コミュニティの多くが誤ったメッセージに注目してしまったようです。つまり、AIで書かれたコンテンツが一部で許容されることに目が行ってしまい、本来注目すべき「コンテンツが検索エンジンのためではなく、ユーザーのために作られているか」という点を見逃してしまったのです。「スケールコンテンツの濫用に関する我々の発表を、もう一度注意深く読み直すべきです」とサリバン氏は語っています。

「多くの人が発表の前半部分だけに注目し、後半を無視してしまいました」とサリバン氏は指摘しています。前半で「コンテンツの作成方法ではなく、その有用性に注目している」と述べたことが、「GoogleはAIコンテンツを気にしない」という誤解を招いており「そのような解釈は間違いです」とサリバン氏は強く語っていました。

「本当に重要なのは、コンテンツが役立つかどうかです。」

AIによる生成かどうかは問題ではなく、「検索結果で上位表示を狙って、大量のコンテンツを機械的に作成しているかどうかが問題なのです」と彼は説明しました。「問題は、それが大規模に行われているかどうか、そして主にランキング目的で行われているかどうかです」とサリバン氏は述べています。

Navboostとコアアップデート

次に、司法省の裁判で明らかになった「Navboost」というデリケートな話題に触れました。私たちの報道で、ナヤック氏が「Navboostは、Googleにとって重要なシグナルの一つ」であると述べました。この「コアシステム」はウェブ検索結果に焦点を当てたもので、Googleのランキングシステムガイドには記載されていません。また、メモリシステムとも呼ばれているようです。

Navboostがコアシステムの一部かどうか尋ねたところ、サリバン氏は具体的な回答を避け、「コアアップデートではさまざまなランキングシグナルが使用されていますが、その詳細には触れることができません。コアアップデートには様々なシステムが含まれることがあり、それらは我々のランキングシステムの中核を成すものです」と留めています。

また、Googleが2009年から匿名のクリックデータを使用していることを述べ、これは新しい取り組みではないとも付け加えました。「結局のところ、私たちはさまざまなシグナルを理解し、組み合わせて使用​​しています。匿名化されたユーザーインタラクションもその1つとなるでしょう」と説明しました。

レビューシステムアップデート

最後に、レビューシステムがコアアップデートに組み込まれたかを尋ねました。サリバン氏によれば、2023年11月のレビューアップデート以降、変更は行われていないとのことです。
このアップデートは定期的に実施されており、2024年8月のコアシステムには含まれていなかったそうです。

「私の理解では、現在も別システムとして運用されており、定期的かつ頻繁に実行されています」とサリバン氏は説明しました。

サリバン氏がLinkedInに投稿した本インタビューの要約

サリバン氏がLinkedInにこの件に関する要約を投稿しました。その内容は以下の通りです。
今週、私はバリー・シュワルツと、クリエイターに関する最新の検索アップデートについて話をしました。インタビューの全容を記事に反映することはできませんでしたが(インタビューが長時間に及んだため)、ランキング回復を望んでいるクリエイター向けに重要な点をまとめてお伝えしたいと思います。

①先月のブログ記事でも触れましたが、「役立つオリジナルコンテンツを作成している小規模サイトや個人サイトを含む、質の高いサイトとユーザーをつなげる」取り組みは、今回のアップデートで完結したわけではありません。この分野は引き続き注視し、今後のアップデートでさらなる改善を図っていきます。

②SNSでも何度か述べましたが、読者のために素晴らしいコンテンツを作り続けることが、理想的な指針です。私たちのシステムは、そういったコンテンツを評価しようと努めているため、その点を念頭に置いて、これまで通り取り組んでください。私たちも引き続きシステムの改善に取り組み、より適切な評価ができるよう努めます。

③特定の検索クエリで上位表示されている場合、私たちがあなたのコンテンツを高く評価していることを意味します。さらに1、2順位上げる方法を考える人もいますが、ランキングは自然に変動することもあります。急激な変更は推奨しません。

インタビューでは、2024年3月のアップデート後に実施したフィードバックフォームについても触れました。建設的で有意義なフィードバックをお寄せいただいた皆様に感謝申し上げます。すべて手作業で確認し、提出されたサイトを参考にさせていただきました。

皆様のご意見はしっかりと我々に届いており、これからも耳を傾けていきます。私はすべてのフィードバックを要約し、特にオープン ウェブ クリエイターへ向け、当社のシステムが改善できる点について有益な例を数点挙げました。当社の検索エンジニアは、頂戴したフィードバックとともに、クリエイターを含むすべての人にとって検索を改善する方法を検討しています。

ちなみに、フィードバックを提出したからといって、提出者のサイト順位が回復するわけではありません。提出したサイトの中には、順位が上がったものもあれば、上がらなかったものもあります。

頂戴したフィードバックは、確実に我々の改善作業を助けてくれました。また、今後も頂戴するフィードバックを改善作業の参考とするため、クリエイターの皆さんの助けにもなるでしょう。

サリバン氏がLinkedInに投稿した「How Google’s core update feedback led to more insight about creators」の記事

ダニー・サリバン氏は「Googleのコアアップデートのフィードバックが、どのようにコンテンツ制作者の洞察理解につながったのか」という記事も投稿しています。その中で、フィードバックフォームについて次のように述べています。

「生産的なフィードバックを提供してくれた人々に感謝しており、その中でも特に、特定のクリエイターの世界について、より深い洞察を得ることができました。

1,300のユニークなドメインの中には、独立した小規模なサイトのクリエイターだけでなく、大規模なサイトも含まれていました。また、コンテンツマーケティングを行っている人たちもいました。

頭に浮かんだ1つの例は、あまりうまくいっていない地元の配管業者のサイトです。そのサイトは、一般的な配管のトピックに関する内容で、いわゆる『シンクの修理方法』のような一般的なコンテンツを多く作成し、トラフィックを得ていました。

これは検索者にとっては役立つ情報として良かったかも知れませんが。おそらくその配管業者が得ていたトラフィックは、実際にリードに結びついていなかった可能性が高いです。これがまさにコンテンツマーケティングの問題点です。

このようなケースでは、コンテンツマーケティングの努力が実っていないと心配しているかもしれませんが、実際にはクリエイターがオリジナルコンテンツを作成しているわけではありません。

もし仮に、その配管業者が『世界の配管業者』のようになり、そのブログで情熱的に情報を共有していたなら、私たちのランキングシステムでより良い結果を得られるでしょう。

もう1つの例を紹介します。1,300のドメインには、独立系サイトばかりではなく、優れていないサイトも多く含まれていました。スパムも確かに存在していましたし、提出されたフィードバックの中には、『これはランクインすべきではない』と誰もが思うようなサイトもありました。

その中で、ある人が期限切れのドメインを使用して、ある企業のログインページで上位にランクインしようとしていました。そして、その人が『この企業のログインページでランクインしようとしているが、うまくいかない』とフィードバックを提出してきたのです。

それに対しては「うまくいっていないのは当然です。あなたはそのページでランクインすべきではなく、回復することもないでしょう。」と回答しました。

ただし、私たちは真摯にコンテンツを作成しているクリエイターたちの存在や、彼らの良質なコンテンツが期待通りのパフォーマンスを発揮できていないという懸念を決して軽視しているわけではありません。むしろ、このフィードバックを通じて、SEOとは無関係に、ただ良いコンテンツを作りたいと考えているクリエイターの存在を、よりよく理解することができたのです。

例に挙げたクリエイターは、SEOに関心がなく、ただ素晴らしいコンテンツを作りたいだけだったのです。そして私たちは、そういった人々たちに報いたいと思っており、正しく評価したいと思っています。

もちろん、優れたSEO対策を否定するわけではありませんが、私たちが取り組むべき領域は幅広く、今回のフィードバックはその理解を深めるのに非常に役立ちました。

seojapan

オンページSEOで知るべき重要な13の要素

1 year 3ヶ月 ago

本記事はSearch Engine Journalの「13 Essential On-Page SEO Factors You Need To Know」を翻訳した記事です。

オンページSEOで検索での可視性を最大化しよう。ウェブサイトのランキングに影響を与える要素について学び、コンテンツ最適化からサイト速度、モバイルフレンドリーまで理解しよう。

オンページSEOとは、検索エンジンがページをクロール、理解し、関連クエリに対してランク付けするのを助けるために、さまざまなウェブサイトのコンポーネントを微調整することです。

バックリンクやブランドシグナルなどのオフページ要因も重要ですが、オンページ要素を最適化することで、検索での可視性を最大化するための基盤を築くことができます。

コンテンツ自体に加えて、オンページ要因はページの関連性と品質を示すシグナルとなります。サイト速度、モバイルフレンドリー、URL構造などを含むウェブサイトのアーキテクチャもオンページSEOに影響を与えます。

オンページSEOが重要な理由:

  • 検索エンジンがあなたのページをユーザーに見つけて表示するのを助ける
  • より上位にランクされたページは、より多くのクリックと訪問者を獲得する
  • 良好なランキングはあなたのブランドの信頼性を高める
  • オーディエンスのニーズに合ったコンテンツを作成できる
  • リンク構築などの他のSEO活動の基盤となる

このガイドでは、E-E-A-TとキーワードのセマンティクスからHTMLタグ、サイトアーキテクチャまで、13の重要なオンページSEO要素について探っていきます。

オンページSEOで知るべき重要な13の要素

オンページSEOは、コンテンツ、HTML、ウェブサイトアーキテクチャに分けることができます。それぞれ個別に見ていきましょう。

コンテンツ

よく耳にする言葉です:コンテンツは王様である。

コンテンツなしのSEOは、エンジンのない新しいスポーツカーのようなものです。見栄えは良いかもしれませんが、どこにも行けません。しかし、すべてのコンテンツが平等に作られているわけではありません。

オンサイトSEOを最大化するために考慮すべきコンテンツ要因は以下の通りです:

1.E-E-A-T

Googleがあなたのサイトを評価する一つの方法は、E-E-A-T、つまり経験(Experience)、専門知識(Expertise)、権威性(Authoritativeness)、信頼性(Trustworthiness)に基づいています。

Googleの検索品質評価ガイドラインで強調されているように、E-E-A-Tは、ウェブサイトとそのコンテンツ作成者が示す直接的な経験、主題の専門知識、権威性、信頼性を評価します。

Googleは経験を新しい要素として追加し、関連する資格と話題に関する直接的で実世界の経験を持つ人々によって作成されたコンテンツの価値が増していることを示しています。これは特に、健康、財務、安全性などのYMYL(Your Money or Your Life)トピックにとって重要です。

GoogleはPageRankやリンクなど、E-E-A-Tの一部の要素しか確認していませんが、著者の専門知識、トピックの権威性、透明性、実践的な経験などの要因がE-E-A-Tの評価に重要な役割を果たしていると一般的に考えられています。

2.キーワード

ターゲットとする顧客が検索している言葉やフレーズを含むコンテンツを作成することは不可欠です。

しかし、AIと自然言語処理の進歩により、個々のキーワードを超えて考える必要があります。

以下の点を最適化しましょう:

意味的に関連するフレーズとトピック(エンティティ):例えば、クラウドデータストレージサービスを提供している場合、関連するエンティティにはバックアップソリューション、災害復旧、データ管理などが含まれる可能性があります。

文脈的な意味と意図:「クラウド移行」の検索には、技術的なハウツーガイド、価格/コスト情報、移行戦略など、さまざまな意図がある可能性があります。

・包括的な回答の提供:顧客の旅を完全にカバーするために、関連するサブトピックをカバーしましょう。

キーワード調査ツールを使用して、メインのトピックに関連するエンティティと関連クエリを特定しましょう。

3.SEOライティング

検索エンジンを優先しつつ、人間の訪問者をサイトに転換させるコンテンツを作成することは一つの芸術です。

SEOのベストプラクティスに従いながら、読みやすい文章を書くことは、経験がなければ難しい場合があります。

私たちはこの技術をマスターするための完全なガイドを用意していますが、いくつかの重要なポイントを紹介します:

読みやすさを重視する:ユーザーが求める情報を素早く見つけられるよう、コンテンツは簡単にスキャンできるようにすべきです。

キーワードの過剰使用を避ける:キーワードの詰め込みは、不誠実なSEO専門家がシステムを操作するために使用する手法です。Googleはキーワードを過剰に使用するサイトを嫌います。発見された場合、あなたのページはSERPで降格されたり、完全に削除されたりする可能性があります。

文章と段落を簡潔に保つ:途切れのない長い文章の壁に遭遇したウェブページをクリックしたことがあれば、長い文章を読むのがいかに大変かわかるでしょう。文章と段落を短くすることで、ユーザーを追い払わないようにしましょう。

見出しを使用する:見出しはサイズが目立つため、ページをスキャンする人々の注目を集めます。読者をページの下まで導くのに十分な量のコンテンツを使用しましょう。

箇条書きリストを使用する:これは非常にメタに感じるかもしれませんが、箇条書きリストは情報を簡単に消化できる塊に分割する素晴らしい方法です。意味がある場合はいつでも使用しましょう。

個人的な経験を追加する:関連する場合は、著者の経験、背景、トピックに関する実践的な知識について議論し、経験のクレデンシャルを示しましょう。

4.フレッシュネス

急速に進化するトピックは、コンテンツを新鮮に保ち、オーディエンスのニーズを多く学ぶごとに新しい価値を提供することが重要です。

Googleは、コンテンツが古くなったり時代遅れになったサイトよりも、メンテナンスをするサイトに報酬を与えます。

いくつか情報を提供します:

  • 新しい情報、洞察、または視点を定期的に更新する。
  • 不正確な情報や時代遅れの情報を迅速に修正する。
  • オーディエンスの興味から新たに発見されたテーマのコンテンツを拡張する。
  • 頻繁に更新されるコンテンツについては、コンテンツのエクスポートやオプトインオファーを検討する。

5.視覚的なアセット

写真、ビデオ、チャート、その他の目を引くビジュアルを追加することで、訪問者にとってより魅力的になり、検索結果での外観も向上します。

画像を最適化することで、画像検索やSERPの画像カルーセルでより多くの可視性を獲得することもできます。

テキスト検索と画像ベースの検索の両方でコンテンツを見つけやすくするためのヒントをいくつか紹介します:

  • 画像のキャプションに文脈情報と関連する詳細を提供する。
  • 画像、ビデオ、製品などのスキーママークアップを実装して、検索の可視性を高める。
  • ビジュアル資産が高品質で、オリジナルで、ページコンテンツに関連していることを確認する。
  • eコマースサイトの場合、さまざまな角度から複数の明確な製品画像を提供する。

コンピュータビジョンモデルが進歩するにつれて、検索エンジンはより適切な画像と動画を理解し、表示できるようになるでしょう。

今からビジュアル検索を最適化することで、将来のコンテンツを保護することができます。

HTML

HyperText Markup Language(HTML)は、ウェブページとコンテンツの構造を定義するための標準マークアップ言語です。ユーザーのブラウザにページ上のどこに何を表示するかを伝え、検索エンジンにもページの内容を伝えます。

考慮すべきオンページSEOのHTML要因は以下の通りです:

6.タイトルタグ

タイトルタグは細部に焦点を当てるべき重要な領域の一つです。

このコードの断片だけでは、おそらくSERPランキングを急上昇させることはないでしょう。

しかし、他のオンページ要素(ここで議論されているもの)と組み合わせることで、タイトルタグはコンテキストを提供し、サイトの関連性を示すのに役立ちます。

タイトルタグを最適化する方法についてより詳しく知るには、こちらをお読みください。

7.メタディスクリプション

ベテランのSEO専門家は画面に向かって手を挙げています。「おいおい」と彼らは言うでしょう、「メタディスクリプションがSEOランキング要因ではないことは誰もが知っているよ」と。

彼らは部分的に正しいです。メタディスクリプションがランキング要因ではないという証拠は多くありますが、全員がそれを知っているというのは間違いです。

しかし、彼らにサイトへのメタディスクリプションの追加を思いとどまらせないでください。

SEOへの利用が比較的少ないにもかかわらず、ディスクリプションには2つの重要な利点があります:

  • Googleがあなたのウェブページの内容を理解するのに役立つ。
  • クリック率(CTR)に大きな影響を与える。

より良いメタディスクリプションは、検索者にあなたのページについてより良い理解を提供し、より多くのクリックスルーにつながります。したがって、これらを軽視しないでください。

8.画像の最適化

ページ上のビジュアル資産の重要性について議論しましたが、ここではその技術的な側面をより詳しく検討します。

あなたの画像を最適化するためのヒントをいくつか紹介します:

  • SEOフレンドリーな代替テキストを含める。
  • 高速読み込みのための適切な形式とファイルサイズを選択する。
  • IMG_08759のような名前ではなく、カスタムファイル名を使用する。
  • 画像がモバイルフレンドリーであることを確認する。

ここでも、HTMLでの画像最適化についてより詳細な情報を提供する素晴らしいリソースがあります。こちらをお読みください。

9.ジオタギング(ローカル検索向け)

グローバル経済かもしれませんが、ほとんどのビジネスはまだローカルレベルで行われています。オンページのローカルSEOを最適化して、近隣の人々とつながりましょう。

ローカルトラフィックに焦点を当てる際に考慮すべき3つの主要なSEO戦術があります:

  • リスティングと引用の最適化:名前、住所、電話番号(NAP)、ウェブサイトURL、ビジネスの説明を含め、レビューを獲得する。
  • ローカルコンテンツの最適化:「近くの」検索に対応し、

場所に基づいたコンテンツを提供したり、ローカルのウェブサイトやブログを購入したりする。 ・他のローカルビジネスや組織とのリンク構築。

取り入れるべき追加のローカルSEO戦術:

  • ローカルビジネスリスト、イベント、特別オファーなどのためにローカライズされたスキーママークアップを実装する。
  • 最新の情報、写真、投稿、Q&A、ローカルに関連するコンテンツでGoogleビジネスプロフィールを最適化する。
  • モバイル検索のために近接性と位置情報データを活用する。 ・ロケーション固有のページ、コンテンツハブ、またはマイクロサイトを作成する。

効果的なローカルSEOの例:

  • 地元で調達した食材の特徴を専用ページで紹介するレストラン。
  • すべてのサービスエリアに対応したジオページを持つサービスプロバイダーのサイト。
  • 地元での受け取りが可能な在庫を強調するeコマースストア。

ジオタギングSEO戦略の構築についてより詳しく知るには、こちらをお読みください。

ウェブサイトアーキテクチャ

適切に構造化されたウェブサイトを持つことは、2つの理由で重要です:第一に、論理的にレイアウトされたウェブサイトは検索エンジンによってより効果的にクロールされ、第二に、よりリッチなユーザー体験を生み出します。

サイトのアーキテクチャを最適化する際に考慮すべき要因は以下の通りです:

10.サイトスピード

重たくて読み込みの遅いサイトは、訪問者をいらだたせ追い払うだけでなく、検索ランキングも損なわれます。

Search Engine Journalは、ページの読み込み時間がSEOに与える影響を調査し、ページ速度が検索結果のランキング要因であることを確認しました。

しかし、サイトが満たすべき最低速度は常に変化しています。

これは、Googleのコアウェブバイタルの最小閾値を満たすことで達成できます。現在、あなたのサイトがこれらの基準を満たしていない場合、以下のような手順を取ることができます:

  • 圧縮を有効にする。
  • リダイレクトを減らす。
  • 画像を最適化する。
  • ブラウザキャッシュを活用する。

11.レスポンシブデザイン

モバイル検索の量は2016年にデスクトップを上回り、それ以来増加し続けています。

より多くのユーザーがモバイルデバイスを使用しているため、Googleは論理的な道筋を辿り、モバイル画面に適応するデザインを持つサイトを優先し始めました。

レスポンシブデザインなしで検索結果にランクインすることは依然として可能ですが、Googleは強くレスポンシブデザインを推奨しています。

サイトのレスポンシブ性が検索結果に与える影響についてはこちらで詳しく読むことができます。

12.URL構造

かつてURLはSEOにおいて重要な役割を果たしていました。企業はより高いランクを獲得するためにドメイン名にキーワードを含めていました。

しかしGoogleは、Googleらしくアルゴリズムを変更しました。かつてはランキングにとって非常に重要だったものが、現在ではずっと小さな役割しか果たしていません。

これは重要ではないという意味ではありません。検索エンジンは依然としてURLを全体的なスコアに含めています – ただし、かつてのような重要性はありません。

しかし、URLがサイトの初期ランキングに役割を果たしているという証拠があり、一部の専門家はURLがページのグループ化に使用されていると考えています。URLをトップのSEO優先事項にする必要はありませんが、無視すべきでもありません。

URLがGoogleのランキングにどのように影響するかについて、詳しくはこちらをお読みください。

13.リンク

この記事の冒頭で触れたE-E-A-Tを覚えていますか?

あなたのウェブサイトがそれを確立する最良の方法の1つは、他の評判の良いウェブサイトからのリンクです。

このように考えてみてください:401(k)を誰に任せたいですか – ウォーレン・バフェットのポートフォリオを管理する金融アドバイザーと、叔母の地下室に住むいとこのジミーのどちらでしょうか?ジミーも素晴らしい仕事をするかもしれません。バフェットの人を上回る可能性さえあります。しかし、彼には強力な推薦によってもたらされる信頼性がありません。

リンクも同じように機能します。

SEOに関して知っておくべき3つの主なタイプのリンクがあります:

内部リンクこれのように、あなたのウェブサイトの別のページに向けるリンク。

・アウトバウンドリンク(外部リンク)これのように、異なるドメインのサイトを指すリンク。これはGoogleのSEOページを指しています。

・インバウンドリンク(バックリンクとも呼ばれる):他のウェブサイトからあなたのページを指すリンク。

この3つの中で、インバウンドリンクがE-E-A-Tシグナルを高めるのに最も重要です。高品質で関連性のあるインバウンドリンク、特に権威があり経験豊富なソースからのものは、あなたのサイトの専門知識、権威性、信頼性を示すのに役立ちます。

SEO専門家は、ソーシャルメディア、共有可能なインフォグラフィックの作成、さらにはバックリンクを直接依頼するなど、さまざまな方法で質の高いインバウンドリンクを生成しています。

しかし、注意してください:すべてのインバウンドリンクが有用というわけではありません。リンクファーム、フォーラム投稿、ゲストブックなどからのものは、ランキングシステムを欺く偽のリンクである可能性があります。これらを否認しないと、ランキングに悪影響を与える可能性があります。

オンページSEO vs オフページSEO

オンページSEOについて多く話してきましたが、オフページSEOと呼ばれるものもあります。その違いは、名前からも推測できるように、それが起こる場所です。

オンページSEOは、キーワードの最適化、メタディスクリプション、タイトルタグ、代替テキスト、ウェブサイト構造など、ランキングを高めるために内部的に行えるすべてのことです。

オフページSEOは、あなたのサイトのランキングに影響を与えるすべての外部要因を指します。これには、バックリンク、E-E-A-T、ローカルSEO、ソーシャルメディアでの言及、ペイパークリックなどが含まれます。

あなたはオンページSEOをより多くコントロールできますが、オフページSEOも考慮することが重要です – 目標を達成するには両方が必要です。

しかし、まずは検索エンジンに最適化された良質で関連性のあるウェブページを構築することに集中し、その後でリンクの構築やサイトのプロモーションにリソースを投資し始めるのが最良です。

結論

検索アルゴリズムが進化しても、高品質で関連性のあるコンテンツを作成し、技術的な要素を最適化する必要性は続きます。

覚えておくべき重要なポイント:

  • E-E-A-Tを示す、価値があり、ユーザー中心のコンテンツの作成に焦点を当てる。
  • HTMLタグ、サイト速度、モバイルレスポンシブ性などの技術的要素を最適化する。
  • 論理的なサイト構造を維持し、内部リンクを効果的に使用する。
  • 定期的にコンテンツを更新し、鮮度を保つ。
  • オンページSEOはオフページ要因と連携して全体的なSEOの成功につながることを忘れないでください。
  • これを一回限りの修正ではなく、継続的なプロセスとして捉えてください。

これらの戦術を一貫して実施することで、検索結果で良好なランキングを獲得する可能性が大幅に向上します。

本記事はSearch Engine Journalの「13 Essential On-Page SEO Factors You Need To Know」を翻訳した記事です。

seojapan

SEOクライアントと持続的な良好関係を築く方法

1 year 4ヶ月 ago

本記事はSearch Engine Landの「How to build lasting relationships with SEO clients」を翻訳した記事です。SEOクライアントとの永続的な良好関係を構築することは、ビジネスの成功に必要不可欠です。

常に新規顧客を獲得し続けるよりも、既存顧客を支援する方がはるかにコスト効率が高いです。しかし、多くの企業が既存顧客との関係維持を軽視していると思います。

したがって、本記事ではSEOクライアントと持続的に良好関係を築く方法を紹介していきます。

期待値の調整

新規クライアントとのプロジェクトがスタートする際、期待値を調整することが非常に重要です。

高すぎる成果を約束してしまうと自分の首を絞めることになりかねません。したがって、あなたの経験や過去の成功例を提示し、現実的な成果や見込みを提示しましょう。

また、SEOの効果を発揮するまでに時間がかかることや、短期的な結果を期待することは非現実的である点をクライアントに理解してもらうことも重要です。

初期フェーズ

契約し始めた初期段階で、施策の進捗を説明し、クライアントに定期的に情報を提供することは非常に重要です。

報告を怠り、具体的な結果が見えない場合、多くのクライアントは進行施策について不安を感じ始めます。時には、この不安が関係値低迷につながり、プロジェクトの契約が早期に終わってしまうこともあります。

リードや売上につながっていなくても、施策の進捗や重要指標の推移を共有し、今後の展開をすり合わせましょう。

クライアントリテイナー

クライアントとの長期的な関係を確保する最も効果的な方法の1つは、リテイナー契約(コンサルティング契約)にあります。

リテイナー契約は安定した収入源を提供し、クライアントの継続的な成功へのあなたのコミットメントを示します。

これは、短期的な成果だけでなく、持続可能なプロジェクト支援に専念することを示します。この安定性は信頼を育み、より包括的で戦略的な計画を立てることができます。

【成功するリテイナー契約のためのヒント】

  • 作業範囲と期待される成果を明確に定義する。
  • 価格モデルの透明性を確保する。
  • 進捗を確認し、必要に応じて戦略を調整する定期MTGをスケジュールする。
  • 変化するニーズや市場条件に適応できる柔軟性を含める。

施策効果の提供

施策の効果は、クライアントとの関係の基礎になるものです。一貫して高品質の結果を提供することは、クライアントとの信頼を構築し、貴社の介在価値を証明することができます。

クライアントは、オーガニックトラフィックの増加、検索ランキングの向上、コンバージョン率の改善など、SEOメトリクスの具体的な改善からプロジェクトの良し悪しを判断します。

したがって、これらの結果が契約期間内に実現しない場合、クライアントとの契約は続かない可能性が高くなります。

もし施策が思うように早く進まない場合は、クライアントより早く問題提起しましょう。

これにより、収集したデータに基づいて戦略を調整する時間を得ることができます。しかし、最終的には、その問題を改善し、プロジェクトにインパクトをもたらす成果を提供する必要があります。

関連記事:SEOの価値を説明する7つの実証済み方法

コミュニケーション

オープンで誠実なコミュニケーションは、強固なクライアント関係を維持するために不可欠です。

定期的で透明性のあるコミュニケーションは、クライアントが施策進行を把握することができ、以下の機会もつながります。

  • 懸念事項に対処する。
  • 質問に答える。
  • 必要な調整を行う。

状況が悪化し始めた場合、情報共有が滞らないよう注意が必要です。何が起こっているのか、そしてどう対応するかの計画をクライアントに説明してください。

クライアントに対してオープンで正直であることは、長期的な信頼を維持するのに役立ちます。

【クライアントコミュニケーションのベストプラクティス】

  • 進捗と戦略を議論するための定期的なミーティングをスケジュールする。
  • メールやレポートを通じて詳細な更新を提供する。
  • タスクとマイルストーンを追跡するためにプロジェクト管理ツールを使用する。
  • クライアントの依頼に迅速に対応し、潜在的な問題に積極的に対処する。

関連記事:SEOクライアントの関与を維持する方法:8つのコミュニケーションタッチポイント

レポーティング

定期的なレポーティングは、実施施策の価値を示します。包括的なレポートは以下を行うべきです。

  • 達成した進捗施策を明確に示す。
  • 主要な指標を強調する。
  • 次回アクション・ステップを説明する。

この透明性は、クライアントが施策の効果を理解し、プロジェクト成功へのあなたのコミットメントへのアピールにつながります。

なお、レポーティングがクライアントの要件に合わせてカスタマイズされていることを確認してください。不必要な質問や確認を行ってしまうケースもあるため、重要な情報を簡単に、必要最小限に抑えたレポート作成を心掛けましょう。

また、過去のパフォーマンスを踏まえて、今後注力する施策提案を含めることができます。

例えば、非常に良い成績を上げている特定ページのトラフィックが低下した場合、その問題に対処する施策をレポートに含めることをおすすめします。

顧客に合わせた対応

各クライアントに合わせた対応を行うことが重要です。

クライアントは独自の目標、課題、市場条件を持つため、彼らのニーズに合わせて施策をカスタマイズすることが必要があります。

また、関係値を強化するための個人的なアプローチもあります。

例えば、クライアントの子供の名前を覚えたり、誕生日を祝ったり、前月に取り組んでいた大きなプレゼンテーションがどうだったか尋ねたりするような簡単なことです。

個人的なタッチを加えることで、長期的なクライアント維持の鍵となります。自然に行うことが重要で、無理に行うと、逆効果になるため注意してください。

クライアントの成功が私たちSEOベンダの成功

SEO担当者として私たちの使命は、クライアントのプロジェクト成功を支援することです。それを達成すれば、最終的に私たち自身のキャリアやビジネスでも成功を収めることができます。

常に新しいクライアントを獲得し、最終的に期待に応えられずに離れていくようなサービスは誰も幸せになることができません。

オープンで正直に、そして協力的なアプローチでSEOに取り組むことで、クライアントとの長期的な関係を構築する可能性が大きく高まります。このようなクライアントとの関係は何年も続き、他社や別案件を紹介してくれる可能性もあるでしょう。

seojapan

サイトの直帰率が高くなる12の原因と解決策

1 year 5ヶ月 ago

本記事はSearch Engine Journalの「12 Reasons Your Website Can Have A High Bounce Rate」を翻訳した記事です。

もしあなたのウェブサイトの直帰率が高い場合は、より良い体験をユーザーに提供するため、改善が必要となります。本記事では、高い直帰率の原因と直帰率を下げる方法を紹介します。ぜひ参考にしてみてください。

直帰率の高いページはフラストレーションを引き起こすかもしれませんが、直帰率自体は有用な指標です。

GA4 の直帰率が高いからといって、必ずしもウェブサイトやページのパフォーマンスが悪いというわけではありません。直帰率を正確に追跡するには、GA4 を適切に設定する必要があります。

直帰率について学び始めたばかりなら、まずこのガイドを読むことを強くお勧めします。

直帰率が高いと、Web サイトのユーザビリティやコンテンツの問題を発見しやすくなります。これらの問題を修正することは、全体的なSEOに非常に効果的です(ただし、直帰率自体がSEOに直接影響するわけではありません)。

直帰率が高い原因を特定し、改善するのは難しいケースもあります。

また、一部のページでは直帰率が高くても問題ありませんが、特に「収益」ページで直帰率が高すぎるのは避けたいものです。

直帰率が高い理由

以下は、直帰率が高くなる 12 の一般的な原因と6つの改善方法を紹介します。

1. ページの読み込みが遅い

Google は「Interaction to Next Paint」と呼ばれる新しいCore Web Vitals指標を導入し、ページの読み込み速度に改めて重点を置きました。

ページの読み込みが遅いと、直帰率が高くなる大きな原因となります。

ページの読み込み速度は、Google のランキング アルゴリズムの一部です。Googleは、ユーザーに良い体験を提供するコンテンツを推奨したいと考えています。一方で、速度が遅いサイトは悪い体験を提供する可能性があります。

ページの読み込みに2.5秒以上かかると、訪問者はイライラして離脱してしまうかもしれません。サイト速度を改善することは、SEOやマーケティングのプロにとって生涯の取り組みとなります。

次のようなツールを使用して、ページ速度(全体および個々のページ)を確認します。

  • Google PageSpeed Insights
  • ライトハウスレポート。
  • ピングダム。
  • GTメトリックス。

画像の圧縮、サードパーティのスクリプトの削減、ブラウザのキャッシュの活用など、サイト固有の推奨事項が提供されます。

2. 必要な情報をすぐに得られるコンテンツ

時に、コンテンツが効率的すぎて、ユーザーが必要な情報をすぐに得て離脱することがありますが、これは悪いことではありません。

むしろ、あなたは素晴らしいコンテンツを作成し、ユーザーを数分間引き込んだのかもしれません。

直帰率が心配な場合は、Google Analyticsの「ページ滞在時間」と「平均セッション継続時間」の指標を確認しましょう。また、ユーザーエクスペリエンステストやA/Bテストを実施して、高い直帰率が問題かどうかを確認することもできます。

ユーザーがページに数分以上滞在している場合、それはGoogleに対して、そのページが検索クエリに非常に関連しているというポジティブなシグナルを送ります。これが特定の検索クエリでランクインするためには重要です。

ユーザーがページに1分未満しか滞在していない場合(適切に最適化されたランディングページの場合など)、フォームを記入した後に関連するブログ記事を読んだり、キャンペーン関連のビデオを視聴したりするように誘導することを検討してください。

注:GA4では、ビデオ再生を「主要イベント」として設定すると、この種のセッションは直帰としてカウントされず、「エンゲージメント」としてカウントされます。

3. 特定のページが全体の直帰率に影響を与えているケース

一部のページが、サイト全体の直帰率に影響を与えている可能性があります。幸いGoogleはこれらの違いを認識してくれます。

単一のCTAランディングページがユーザーの意図を満たし、アクションを取った後にすぐに離脱する場合でも、長いコンテンツページの直帰率が低い場合は問題ありません。しかし、詳しく調べてこれが事実であることと、直帰率が高いページの原因を確認する必要があります。

Google Analyticsを開き、「行動 > サイトコンテンツ > ランディングページ」に移動し、直帰率で並べ替えます。不必要なページを除外するために、高度なフィルターを追加してください。

フィルターを追加する際には、ページにとって重要なボリュームの最小しきい値を決定します。例えば、100回の訪問や1,000回の訪問などです。

Google Search Console 4 のスクリーンショット(2024 年 4 月)

「探索」レポートに移動し、指標として「直帰率」と「セッション」を選択し、ディメンションとして「ランディング ページ」を選択します。

訪問数の少ないページを削除するには、100 ではなくセッション数 (特定のプロジェクトの場合は 50 など) でフィルタリングします。

やり方についてはビデオガイドをご覧ください

ビデオプレーヤー

4. 誤解を招くタイトルタグやメタディスクリプション

タイトルタグとメタディスクリプションがページの内容を正確に要約しているか確認してください。そうでない場合、訪問者は誤解してサイトにアクセスし、すぐに離脱してしまいます。

コンテンツを確認し、それに応じてタイトルタグとメタディスクリプションを調整しましょう。あるいは、検索クエリに対応するようにコンテンツを書き直すことを推奨します。

5. 空白ページまたは技術的なエラー

直帰率が非常に高く、ユーザーがページに数秒未満しか滞在していない場合、ページが空白であるか、404エラーを返しているか、適切に読み込まれていない可能性があります。

視聴者の最も人気のあるブラウザとデバイス構成からページを確認し、視聴者のエクスペリエンスを再現しましょう。また、Search Consoleの「カバレッジ」で問題を確認し、修正してください。

Google アナリティクス 4 のスクリーンショット(2024 年 4 月)

6. 別のウェブサイトからの不正なリンク

オーガニック検索結果からの直帰率を通常または低く抑えるために、自社側で対策しているにもかかわらず、参照トラフィックからの直帰率が高い場合があります。

参照元サイトが不適切な訪問者を送信している可能性や、リンクのアンカー テキストが誤解を招く形で設定されている可能性があります。

そのような場合は、まず記事の著者に連絡してください。返答がなかったり、公開後に記事を更新できない場合は、サイトの編集者またはウェブマスターに問題を報告することができます。

あなたのサイトへのリンクを削除するか、文脈を更新するか、どちらか適切な方を依頼してください。

スパムソースからのトラフィックを除外する方法

7. アフィリエイトランディングページまたはシングルページサイト

あなたがアフィリエイトを行っている場合、ページの目的は訪問者を意図的にあなたのウェブサイトから販売者のサイトに誘導することだと思います。その場合、ページの直帰率が高いのは正常です。

また、単一ページのウェブサイト(電子書籍のランディングページやシンプルなポートフォリオサイトなど)でも直帰率が高くなるのは一般的です。このようなサイトでは他に移動するページがないため、訪問者がすぐに離れることが多いです。

このようなサイトでは、他に行く場所がないため、直帰率が非常に高くなるのが一般的です。

Googleは通常、ユーザーのクエリに素早く回答するサイトがユーザーの意図をうまく満たしているかどうかを判断します。

しかし、アフィリエイトリンクのクリックをコンバージョンイベントとして設定している場合、この種のセッションは直帰としてカウントされず、「エンゲージメント」としてカウントされます。

8. 低品質なコンテンツ

訪問者があなたのウェブサイトからすぐに離脱するのは、コンテンツが低品質であるか、最適化されていない可能性があります。

自分のページをじっくりと見て、最も判断力があり誠実な同僚や友人にレビューしてもらいましょう(コンテンツマーケティングまたはコピーライティングの経験があり、ターゲットオーディエンスに属している方が理想的です)。

コンテンツが良くても、オンラインでの閲覧やターゲットユーザー向けに最適化されていない場合があります。例えば、簡単な文章で書かれているか、ヘッダータグがたくさんあって簡単にスキャンできるか、質問に明確に答えているか、文章を区切るための画像が含まれているかなどを確認してください。

また、フリーランスのコピーライターやコンテンツディレクターを雇って、あなたのアイデアをコンバージョンにつながる強力なコンテンツに変えてもらうことも検討してください。

9. 不快なユーザーエクスペリエンス(UX)

広告、ポップアップアンケート、メール購読ボタンなどを多用していませんか?このようなCTAを多用すると、訪問者がすぐに離脱してしまいます。

GoogleのCore Web Vitalsはユーザーエクスペリエンスに関するものであり、ランキング要因であるだけでなく、サイト訪問者の満足度にも影響を及ぼします。あなたのサイトのナビゲーションがわかりにくい場合、訪問者はさらに詳しく調べたいと思っても、ブログに検索ボックスがなかったり、スマートフォンでメニュー項目をクリックするのが難しかったりすると、すぐに離脱してしまいます。

こうしたデザインミスを避けるために、ウェブデザイナーやUXデザイナーにサイトをレビューしてもらい、問題がある部分を指摘してもらいましょう。

10. ページがモバイルフレンドリーではない

SEO のプロはモバイルフレンドリーな Web サイトの重要性を理解していますが、必ずしも遵守されているわけではありません。Googleは2017年にモバイルファーストインデックスへの移行を発表しましたが、今でもモバイルフレンドリーではないウェブサイトが多いです。

モバイル向けに最適化されていないウェブサイトは、モバイルデバイス上では見栄えが悪く、読み込みも遅くなります。これが直帰率が高くなる原因です。レスポンシブデザインを使用して実装されている場合でも、ページがモバイルフレンドリーではない可能性があります。モバイル形式に圧縮されたときに重要な情報が見えにくくなることがあります。

ページが直帰率が高く、すぐに目立った問題がない場合は、モバイルフォンでテストしてみてください。また、Google Search ConsoleとLighthouseでモバイルの問題を確認することもできます。

11. コンテンツの深さ

Googleは、スニペットとナレッジパネルを通じてユーザーに迅速な回答を提供できます。しかし、それよりも一歩進んだ、奥深く、興味深いコンテンツを提供できるのはあなただけです。訪問者がクリックして、サイト上の他のページも閲覧したくなるようなコンテンツを作成しましょう。

関連性の高い内部リンクを提供し、訪問者が長く滞在できるように心がけましょう。すぐに答えが欲しい人のために、冒頭に要約を記載することも考慮してください。

12. 記載項目が多すぎる

初めからクレジットカード番号や個人情報を求めるのは避けましょう。

サイト訪問時は、ユーザーはまだあなたを信頼していません。多くの詐欺サイトが存在するため、新しいウェブサイトに訪れた際には疑念を抱くものです。大きなポップアップで情報を求めると、多くの人がすぐに離脱してしまうでしょう。

あなたの仕事は訪問者との信頼関係を築くことです。信頼を築くことで、訪問者は安心し、直帰率も低くなります。ユーザーが満足するサイトを作ることが大切です。

直帰率を下げるためのヒント

直帰率を下げるために、以下のベストプラクティスを紹介します。

1. タイトルタグとメタディスクリプションを作り直す

場合によっては、ページが素晴らしい内容でも、タイトルタグとメタディスクリプションが一致していないと訪問者が離脱してしまいます。ページの内容と一致するようにメタタグを見直しましょう。

2. コンテンツが検索意図に一致しているか確認する

タイトルタグとメタディスクリプションが内容を過剰に宣伝している場合、コンテンツを見直して一致させる必要があります。

次の方法でコンテンツを読みやすくしてみましょう。

  • 空白スペースでテキストを分割する。
  • サポート画像を追加します。
  • 短い文章で書く。
  • 優れた、すっきりとしたデザインを使用する。
  • 訪問者に過度の広告を大量に表示しない。

3. 重要な要素を上に配置する

コンテンツがタイトルタグやメタディスクリプションの内容と一致していたとしても、コンテンツの内容、とくに重要な要素とも一致している必要があります。

特に、コンテンツの結論にあたる部分などは上部に配置し、ポップアップ広告などで隠れないようにしましょう。

4. 不必要な要素を最小限に抑える

ポップアップ広告、インラインプロモーションなど訪問者が関心のないコンテンツを過度に掲載するのは控えましょう。

視覚的に圧倒されると、訪問者が離脱してしまう可能性があります。該当ページにとって最も重要な CTA を強調できるように調整しましょう。

5. ユーザーが望む場所に早く到達できるようにする

より多くの人々にあなたのサイトを閲覧してもらいたいですよね。以下のように、ユーザーが望むページへ移動できるようナビゲーションを含む改善を実践してみてください。

  • 予測検索、便利なフィルターを使用して、サイト内検索を円滑にする。
  • ナビゲーション メニューを作り直し、複雑なドロップダウン メニューとシンプルなドロップダウン メニューが直帰率にどのような影響を与えるかを A/B テストしてみる。
  • 長文の記事には、読者が読みたいセクションに直接移動できるアンカー リンクを含む目次を含める。

6.疑問がある場合はテストする

直帰率を改善するために、どのような変更すべきかかわからない場合があります。そんな時は、A/B テストと多変量テストを活用してください。

さまざまな改善を試して、視聴者の反応を確認してみてください、さまざまなタイトル、ヘッダー、コンテンツ、画像、レイアウト、デザインをA/Bテストしてみましょう。

まとめ

直帰率は数多くあるSEO指標の一つに過ぎませんが、改善可能な指標です。Google Analyticsを活用し、ウェブサイトの直帰率を分析して、適切な対策を講じましょう。直帰率を下げるための取り組みは、ユーザーエクスペリエンスを向上させるためにも重要です。それでは幸運を!

本記事はSearch Engine Journalの「12 Reasons Your Website Can Have A High Bounce Rate」を翻訳した記事です。

seojapan

2024年版 インハウスSEO完全攻略ガイド

1 year 5ヶ月 ago

本記事はSearch Engine Journalの「Mastering The Art Of In-House SEO [2024 Edition]」を翻訳した記事です。

SEOは不透明でわかりにくく、その効果が可視化されづらい施策の1つです。そうした特性を持つSEOにおいて、Atlassian、G2、ShopifyのインハウスSEO担当から副社長まで昇進したKevin Indigが語るインハウスSEOにおける重要なポイントについて紹介していきます。

2024年版 インハウスSEO完全攻略ガイド

最近、インハウスSEOのキャリアの進め方について多くの質問を受けています。

すべての回答は、2020年に私が書いた包括的なガイドに記載されています。世界最高のテクノロジー企業での経験をさらに積んだため、約10時間かけてこの投稿を書き直し、更新することにしました。私の 控えめな意見ですが、これは依然としてウェブ上で最高のインハウスSEOガイドです。

インハウスSEOはあなたが学び、発展させることのできるスキルです。

私が出会った最も成功している人々は、正しいことに取り組む強い感覚、明確なコミュニケーションスキル、そして重要な問題に対する解決策を見つける能力を持っていました。

彼らは、マネージャーであれ個人の貢献者であれ、買い入れ、リソース確保、優先順位付け、チームの意見統一に関連する問題を解決するスキルを習得していました。

Atlassian、G2、Shopifyでの10年以上にわたる社内キャリアを通じて、私は技術SEOエキスパートから副社長にまで昇進することができました。その過程で、社内スキルを開発する方法を学び、超成功した人々から素晴らしい事例を観察しました。

以下の原則、フレームワーク、経験のコレクションは、あなたの学習曲線を大幅に短縮するでしょう。

私の言葉だけを信じないでください。このガイドには以下の方々から寛大な意見をいただいています:

  • Jackie Chu(Uberのリードを持つSEOインテリジェンス)
  • Matt Howells-Barby(Krakenの成長担当副社長)
  • Igal Stolpner(investing.comの元成長担当副社長、Webifyの共同創設者)
  • Jordan Silton(rent.comの成長担当副社長)

インハウスSEOの5つの主要な課題

インハウスSEOで成功するためには、すべてがインパクトにかかっています。

そして、インパクトを与えるにはリソースが必要です。最高の計画、監査、トリックも、それらを実行できなければ意味がありません。

Jordan Siltonは次のように述べています:

最高のインハウスSEO担当者は、戦略に影響を与え、推進する能力があります。SEO監査、キーワード調査、競合分析を行い、それを引き渡すだけでは十分ではありません。これはエージェンシーにも当てはまります。引き渡しは過去のものです。今日のSEOにおける真の進歩と成功は、アラインメントとインパクトに関するものです。これまで以上に、何をすべきかを理解することは当たり前のことです。成功する人々は物事を成し遂げます。

SEOの最大の課題は何をすべきかを知ることではなく、物事を実行することです。最も成功している企業は、ユーザーとGoogleの機械学習駆動のアルゴリズムで成功するために、素早く出荷し、学び、反復します。

Jackie Chuは次のように述べています:

インハウスSEOには多くの利点がありますが、技術スキルと同様にソフトスキルを成長させることに注意を払う必要があります。

たとえ買い入れなしで大きな成果を得ることができたとしても、チームと自分の仕事を広める優先順位をつけない限り、会社での継続的なサポートを見つけることは難しいでしょう。そして、あなたのサイトが基本的なことを正しく行っていない限り、エッジSEOを行う機会は得られないでしょう。

最適化を実行するためのお金や人材などのリソースを獲得することは、5つのサブ問題に分解できる問題です:

  1. 堅固なビジネスケース
  2. ビジネスモデルの違い
  3. 遅くて曖昧なインパクト
  4. 弱いソーシャルキャピタル
  5. SEOが間違った組織に属している

これらの各サブ問題について、詳しく説明していきます。

1.堅固なビジネスケース

SEO担当者がインパクトを与えられない最大の要因(!)は、推奨事項に対する堅固なビジネスケースを作成できないことです。

SEO担当者はよく技術的で専門的な詳細に夢中になりすぎます。代わりに、顧客と話し、機能の優先順位をつけ、その影響を収益にまで分解するプロダクトマネージャーのように考える必要があります。

Twitterの投票では、リソース確保における最大の課題として認識されているものが明らかになりました:

  • SEOが会社の優先事項ではない
  • リーダーシップが「理解していない」
  • SEO担当者が価値を示すのが難しい

しかし、最後の点が本当に的を射ています:SEOのほぼすべての問題は、ROIの実証の不足に起因しています。

私の社内キャリアの初期には、意思決定者が私の推奨事項に資金を提供しないときに防衛的になりました。「でも、Googleのガイドラインにはこうすべきだと書いてあるじゃないか!」と。後になって、私は理解しました。

予算責任のある意思決定者になったとき、長期的な信頼を得てリソースを慎重に投資するための強力なビジネスケースの重要性を理解しました。これはアラインメントのためのツールだけでなく、本当に物事を考え抜いたかどうかを再確認するためのものでもあります。

良いSEOビジネスケースの特徴は以下の通りです:

  • 解決しようとしている問題とそれが重要な理由について明確であること。
  • 問題と解決策に関する強力な論理。
  • その時点で他の何かではなく、このプロジェクトに取り組む良い理由。
  • オーガニックトラフィックから収益への見える線。
  • それを実現するために必要なものリスト。
  • タイミングを含むアクションプラン。
  • 成功基準/指標。

ビジネスケースは文書やスプレッドシートに書き出すことができますが、最大の質問に答える必要があります。

SEOは芸術と科学の間の複雑な分野です。その不透明な性質と一部の最適化のインパクトまでの時間は、予測を難しくします。

SEO A/Bテストと主要指標(Googlebotのサーバーヒット、インプレッション、ランク)の測定は、信頼性を高め、早期にインパクトを測定するのに役立ちます。

しかし、長期的な信頼を築くには、推奨事項の出所と期待するものについて多くの透明性が必要です。

リソース要求の高い大きなプロジェクトに取り組む非常にエレガントな方法は、小規模なバージョンを手動で出荷することです。

例えば、リード獲得ツールを構築するためにエンジニアリングとデザインのリソースが必要な場合、まずターンキーのサードパーティソリューションでMVPを構築してテストすることができます。結果が有望であれば、社内リソースを要求するためのより強力な基盤ができます。

アドバイス:会社で物事を成し遂げる人を見つけ、その人から方法を学びましょう。

2.ビジネスモデルの違い

サイトのタイプによって、必要なリソースとビジネスケースの作り方が決まります。

インパクトの予測は、アグリゲーターや高トラフィックのサイトの方が、インテグレーターよりも簡単です。前者は通常、より多くのページを持ち、テスト結果をより速く得ることができるためです。

例えば、G2のようなアグリゲーターは、マーケティングよりも製品に密接に結びついた非常に異なるレバーを持っています。一方、Rampのようなインテグレーターは、主にマーケティングリソースを使ってインパクトを与える必要があります。

アグリゲーターは、需要を集約することから生じるネットワーク効果の力を活用できます。

彼らは自己生成された「在庫」ではなく、集約された「在庫」(製品、ユーザー、ビジネス、または広告)から利益を得ます。これは、「ソーシャルネットワークがSEOで数十億の検索訪問を促進する方法」で説明しているような、技術SEOとプロダクト主導の成長ループに適しています。

インテグレーターで働く場合、SEOに強い買い入れがある会社を選ぶか、プロジェクトの優先順位付けと順序付けを戦略的に行う必要があります。

成長レバーの性質を変えることはできませんが、低いハードルの果実と高確信度のプロジェクトを狙うことで、結果を出して信頼を築くことができます。

結果を出せば出すほど、結果が出るまでの時間に余裕が生まれます。だからこそ、最初に速くて強いインパクトのある最適化を出荷するのは賢明なアイデアです。

会社への「参入」方法も大きな違いを生みます。最初の30日以内に結果を出す能力を証明できれば、残りの在任期間はそれだけスムーズに進みます。

Jackie Chuは次のように述べています:

SEO成長の仕事以外にも、新製品のローンチ、移行、リブランディングなどをガードレールする、かなりの量のSEO防衛作業を行います。トレードオフを公平に明確化しながら、同僚との良好な関係とラポートを維持するよう努めるには、強力なコミュニケーターである必要があります。

インハウスSEO担当者が苦戦しているのを見ると、彼らはSEOの問題について正しいことが多いのですが、実際の問題は、リソース確保、買い入れ、優先順位付けに苦戦していることです。ここで強力なコミュニケーターとストーリーテラーであることが特に役立ちます – 異なるインセンティブを持つチーム間で同じプロジェクトに取り組む際に避けられない対立ポイントを緩和するのに役立ちます。

契約額の大きい製品を販売する企業は、しばしば人間の入力に頼って帰属を行い、取引を締結するのに数ヶ月かかることがあり、これがSEOのインパクトを不明確にする可能性があります。

その過程で、リードは有料チャネルとオーガニックチャネルを通じて会社と多くの接点を持つ可能性があります。有料チームはより良いデータ(例:キーワード参照元)とより速いフィードバックループを持っているため、しばしば収益の帰属を支配します。

最後のタッチと最初のタッチを比較すると、収益の帰属に目を見開くような違いがあり、適切なモデルを選択することがいかに重要かを示しています。

広告に過度に注目すると、同じ結果が遥かに低い支出で得られる場合、会社に多くの費用がかかる可能性があります。しかし、その話をコンバージョンと支出データで示して、利害関係者を説得する必要があります。

別の解決策として、SEOを直接的な収益ではなく露出を促進するブランドマーケティングチャネルとして位置づけたり、相対的な収益ではなく収益貢献/マージンに焦点を当てたりすることができます。SEOを異なる角度から見ることで、意思決定者が投資を正当化するのに役立つ可能性があります。

アドバイス:アグリゲーターで働く場合はテクニカルSEOに、インテグレーターの場合はコンテンツマーケティングに注力しましょう。

3.遅くて曖昧なインパクト

一部の最適化は、時間をかけて遅くて広範囲なインパクトを与えるため、ドル価値を帰属させるのが難しくなります。

例えば、強力なブランドを構築することがSEOにとって重要であることは誰もが知っていますが、関与する要素が多すぎて、そのためのビジネスケースを作るのはほぼ不可能です。

様々なインパクトまでの時間を操作する上で最も重要な質問は以下の通りです:

  • 小規模でその最適化をテストするのはどれくらい簡単か?
  • 手動の労力なしで、何ページにわたってその最適化を拡張できるか?
  • 競合他社が同様のことを行ったことがあるか?
  • その最適化の実装はどれくらい難しいか?

一般的に、何かが長く時間がかかり、実装が難しいほど、優先順位を低くすべきです。ただし、非常に高いトラフィックインパクトがあり、それを出荷するための大きなレバレッジがある場合は例外です。

アドバイス:強力なストーリーテリングスキルは、数字が曖昧でも買い入れを得ることができます。意思決係者は、何かをしないことの結果である「賭け金」に強く反応します。

リスクの絵を描くことでドアを開くことができますが、うまくいかなければすぐに閉じてしまいます。だから、あなたの提案が役立ったことを示す方法を持っていた方がいいでしょう。

Jackie Chuは次のように述べています:

リーダーシップ、ストーリーテリング、エグゼクティブプレゼンスに関する強力なソフトスキルを持つことは、インハウスSEO担当者の成功にとって極めて重要です。

現実には、多くの場合、エンタープライズサイトは基本的なことさえ正しく行っていません。それは、タイトルタグやhreflangのような「小さな」ことでさえ、複数のサービス、翻訳のニーズ、表面積の所有者、法的考慮事項などを考慮すると、大規模に変更するのが大きな投資になる可能性があるためです。

4.弱いソーシャルキャピタル

信頼性、好感度、尊敬は、人間と働く上で重要です。あなたが実績を証明している場合や、会社の重要な人々から尊敬を得ている場合、人々はあなたの推奨事項をより信頼しやすくなります。

一般的に人々があなたをどのように認識しているかという形での弱いソーシャルキャピタルも、あなたの出荷能力に影響を与えます。

Matt Howell-Barbyは次のように述べています:

ここで重要なのは… 問題に対する正しい解決策を持っていることではありません。最も重要なのは、アイデアを社内で売り込む方法を知っていること、解決策をサポートするために必要なリソースを得ること、そしてそのプロセスでのレバレッジの使い方(とタイミング)を知っていることです。最後の部分は特に重要です。

アドバイス:会社で力を持っている人を見つけ、彼らが必要としているものを学び、それを得るのを手伝いましょう。時には、重要な役割に適した候補者を見つけたり、別の会社の連絡先を提供したりするなど、専門分野以外のことかもしれません。他の場合は、その人やチームが以前に気づいていなかった機会やリスクかもしれません。

Jordan Siltonは次のように述べています:

最高のインハウスSEO担当者は、好かれ、人々が一緒に働きたいと思うため、イニシアチブに引き込まれます。部屋で最も賢い人、「専門家」、または技術的なスーパースターであるだけでは十分ではありません。

インハウスSEOはチームの一部になることです。すべてが適切であることを確認するためのチェックポイントやゲートにすることはできますが、それは物事を遅らせ、進歩を加速しません。成功は、どれだけ多くのミスを捕まえられるかではなく、どれだけ多くのことを達成できるかです。

これらのチームのリーダーとの強い関係を築きましょう。コーヒーや昼食を共にし、彼らがどのような人物かを理解し、彼らの目標について話し合いましょう。

一部の人は「ゲームをプレイする」と呼びますが、私は単に本物の関係を築き、共通の目標に向かって働くことだと思います。

Matt Barbyは次のように述べています:

会社内の多くの人々が間違いを犯し(そして後でフラストレーションを感じる)方法の1つは、間違った丘で死ぬことを選ぶことです。時には、他の場所で使えるレバレッジを築くために、自分のアイデアを死なせる必要があります。影響力と蓄積されたレバレッジを使って必要なものを手に入れるたびに、将来のためにさらに構築することに集中するか、他の必要なものを諦めることに満足する必要があります。

もし上級管理職の誰かを見て、「この人はどうやってそこまで行ったのだろう?私の方がずっと多くを知っているのに!」と思ったことがあれば… おそらく、その人はあなたよりもずっと上手に売り込みをしているのでしょう。会社内のどの役割で働いていても、あなたはセールスパーソンである必要があります。外部クライアントに実際にアイデアを売り込む顧客対応の役割との違いは、あなたが同僚に売り込んでいるということです。これを学べば、あなたは遠くまで行けるでしょう。

5.SEOが間違った組織に属している

SEOチームがマーケティングの下にあり、エンジニアリングチームが製品の下にある場合、SEOチームはしばしばリソースが不足します。

ほとんどの会社では、SEOをマーケティングの下に置くことは理にかなっています。なぜなら、彼らは自己生成されたコンテンツとツールでSEOを推進しているからです(インテグレーター)。

しかし、アグリゲーターではSEOは製品組織の下にあるべきです。なぜなら、SEOのビジネスインパクトはドメイン上のインデックス可能なページ数に比例するからです。

プロダクト主導の成長を行う企業(常にアグリゲーターです)は、製品の下にSEO担当者を置いた成長チームを推進すべきです。営業主導の企業は、コンテンツマーケティングまたはハイブリッドアプローチを使用すべきです。

Igal Stolpnerは次のように述べています:

インハウスSEO担当者として成功する鍵は、プロセスの一部になることです。ほとんどの会社では、製品またはR&Dがロードマップを運営しています。インハウスSEO担当者として、あなたはそのプロセスの真ん中にいて、重要な変更やローンチがあなたの頭越しに行われないようにしたいのです。

アドバイス:特に依存しているチームに対して、会社全体で教育ツアーを行いましょう。

Atlassianにいたとき、私は自分がやりたいことすべてを行うのに十分なリソースを持つことは決してないと気づきました。

そこで、エンジニア、デザイナー、コンテンツクリエイターに対してワークショップを実施し、彼らの仕事での小さな変更がどのようにインパクトを与えるかを示しました。

SEOチェックリストを共有し、全体会議で発表し、SEOのドラムを叩き続けました。Confluence(私たちの「ウィキ」)に多くの社内ドキュメントを書いて、人々が参照資料を持ち、自分のペースで学べるようにしました。

最も重要なのは、結果を追跡し、それらを推進した人々に示したことです。このようなフィードバックループは、人々のモチベーションを高め、さらなる欲求を生み出します。

インハウスSEOとエージェンシーSEOは異なるゲーム

社内とエージェンシーの仕事の最大の違いは、スコープです。

エージェンシーでは、幅広く取り組みます。社内では、深く掘り下げます。

エージェンシーの仕事は、多くのサイトと問題に触れる機会を提供します。様々な問題、業界、企業について良い理解を得られるため、SEOキャリアを始めるのに適した場所です。

課題は、クライアントを獲得し、アカウントを管理し、クライアントにあなたの推奨事項を実装してもらうことです。クライアントが望むことと必要としていることは必ずしも同じではありません。これをうまく調整する必要があります。

社内では、単一のサイト(おそらく数個)に焦点を当て、製品と市場に深く没頭します。垂直的な専門知識を発展させ、プロセスのより大きな部分を所有します。課題は、官僚主義を克服し、リソースを獲得し、適切な仕事に優先順位をつけることです。

両側で続くのは、ピッチと販売の部分です。クライアントにピッチするか、上司にピッチするかのどちらかです。だから、上手になる必要があります。このガイドを通して何度も出てくるので、覚えておいてください。

Matt Howell-Barbyは次のように述べています:

社内で働くことは、エージェンシー側で働くのとはとても異なります。同様に、40人のスタートアップで働くことは、4,000人の従業員を持つエンタープライズ組織とは全く異なる世界です。とはいえ、いくつかの共通の真実があります。

移行 エージェンシーから社内に移行する際に避けるべき2つの罠は、承認を待つことと実行速度です。

コンサルタントは非常に透明性を持って仕事をし、時間単位で請求する必要がありますが、社内の仕事はより速い実行と意思決定を必要とします。

社内では、プロジェクトをエンドツーエンドで出荷する必要がありますが、エージェンシーのコンサルタントは推奨事項がパッケージ化され配信されると焦点を切り替えます。多くのコンサルタントは、社内の役割に切り替えるときに「カルチャーショック」を経験します。

マネージャーvs. ICとしてのインハウスSEO

管理責任があるかどうかによって、あなたの経験とフォーカスポイントは異なります。

多くの場合、あなたのキャリアは個人の貢献者(IC)からマネージャーへと導かれます。その跳躍とともに、あなたの社内経験は tremendously に変化します。

Jordan Siltonは次のように述べています:

すべてのインハウスSEOの役割が同じというわけではありません。一部は真に個人の貢献者の技術アナリストの役割で、エージェンシーの生活に似ています。他のものはプロダクトマネージャーに近く、アジャイル/スクラムチームでエンジニアと一緒に組み込まれています。

さらに、より上級で戦略的な役割もあり、製品やマーケティングチームをはるかに超えて組織全体に影響を与える必要があります。最後に、時々は技術的な社内チームと接続し、他の時は全く別個の多くのコンテンツの役割があります。インハウスSEOは一つのものではありません。

貢献者にとって最も重要なスキルの1つは、適切なプロジェクトに取り組み、良い仕事をすることです。

上手に押し戻さなければ、プレートに乗せすぎてしまうのは簡単です。しかし、エレガントに押し戻すこと自体がスキルです。

あなたの優先事項をマネージャーと共有し、すべてに「はい」と言う代わりに、彼らに優先事項を再定義させましょう。彼らに、あなたがキャリアを築くことができるインパクトのあるプロジェクトを与える責任を持たせましょう。

すべてのタスクが刺激的である必要はありませんが、あなたの仕事の大部分は、戦略的に重要なイニシアチブに明確につながるべきです。

一方、マネージャーはリーダーシップと管理スキルを必要とします。

リーダーシップは、人々に何かをさせる説得の技術です。直属の部下を持つ必要はないことに注意してください。管理は、適切な目標を設定し、適切な人材を雇用し、上手く実行するプロセスです。

Shopifyでは、マネージャーの主なタスクを集めるためにフレームワークを使用しました:

  • Aim → 戦略
  • Assemble → 採用
  • Achieve → 実行

すべての人がマネージャーになる資質があるわけではなく、なりたいと思っているわけでもないことを覚えておいてください。私はいくつかの貢献者をマネージャーに昇進させましたが、彼らはすぐにその選択を後悔しました。最高の企業は、貢献者のトラックを最高レベルまで開き、明確なキャリアパスを定義します。

SEOの提唱

内部の提唱活動の考え方は、人々をSEOについて教育し、モチベーションを与えて、彼らが貢献したいと思うようにすることです。提唱は難しいですが、大きなチームなしで会社全体にSEOを拡大する効果的な方法です。

メッセンジャー、メール、または内部のウィキでSEOチーム外からの貢献を積極的に認識し、より多くの「良い」行動を奨励します。

Atlassianでは、「良い仕事をし、それについて話す」という言葉がありました。

提唱の大きな部分は、定期的および不定期な進捗報告です。

  • 密接な利害関係者への進捗更新を含む週次レポートと、より広範な組織のメンバーへの月次レポートは、アラインメントを生み出し、質問を引き起こします。
  • 会社全体に利益をもたらす洞察を含むアドホックなメモは、他の人々にあなたと一緒に問題解決を行うよう招待します。
  • SEOの状態の概要を含む年次または半年次のレポートは、将来の戦略のトーンを設定し、予算とリソース配分を考える時期に意思決定者に働きかけることができます。広範なトレンドを含め、SEOをサポートするチームや個人を呼び出し、脅威を強調します。年次レポートは(来年の)計画立案に間に合うようにリリースします。

結論:キャリアを作るプロジェクトを出荷する

インハウスSEOは、気を散らすものを避け、クラフトワーク以外のメタワークについて思慮深く、会社を作るプロジェクトに取り組むことで向上できるスキルです。

私のキャリア(社内)を作ったいくつかのプロジェクト:

  • Dailymotionでのオーガニックトラフィックのトレンドを逆転させました。
  • Atlassianでの数え切れないほどの移行、コミュニティの立ち上げ、ブログトラフィックの成長、サードパーティのアプリマーケットプレイスの成長。
  • G2でのオーガニックトラフィックを成長させる複数の大きな賭けに成功し、A級のチームを雇用しました。
  • ShopifyでのSEO組織の再構築、一流の人材の獲得、ドメインの統一。

運の要素はもちろんありますが、大きな有望なプロジェクトを見つけ、それらに全力を注ぐことがさらに重要です。これらのプロジェクトは、紙の上では意味がなかったかもしれません。出荷されたからこそ意味があったのです。

もちろん、うまくいかなかった多くのプロジェクトにも取り組み、何度も失敗しました。

seojapan

ヘルプフルコンテンツアップデート後のキーワード最適化の変化

1 year 6ヶ月 ago

本記事はSearch Engine Journalの「How Do Keyword Optimizations Change After Helpful Content Update?」を翻訳した記事です。

ヘルプフルコンテンツアップデート後のキーワード最適化について、キーワード最適化戦略を変更すべきでない理由や、ページトピックを最適化することでWebサイトにもたらされるメリットなどを紹介しています。

今日のSEOに関する質問

Inesさんからの質問です。

「ヘルプフルコンテンツアップデート後、キーワードの最適化をどのように変えるか、または変えるかどうかについて教えてください。」

良い質問です。特に、サイトがペナルティを受けたり、停滞したり、順位が下がったりする際によく聞かれる質問です。

SEOの専門家はキーワードそのものを最適化するのではなく、ページ全体のトピックや内容を最適化するべきです。

Googleにページを最適なタイミングで表示してもらいたい場合、検索ユーザーがアクセスしたページから価値を得られるように、検索の課題に対する解決策とトピックを最適化する必要があります。

キーワードは検索エンジンにとってページを理解しやすくします。また、それが顧客が使用しているフレーズや専門用語であれば、関連性が高くなります。

ページ内で、顧客が使用するフレーズを使用することができれば、共感を得られ、コンバージョン率も向上します。ただし、含めるキーワードに対して神経質になる必要はありません。

トラフィックとコンバージョンを獲得したいのであれば、検索者の意図に焦点を絞るのが最善策です。

検索者の意図に焦点を絞ると、キーワードがページ全体に自然に表示されるようになり、実際の顧客が使用するような方法で表示されるようになります。

キーワードベースのコンテンツの例

キーワードが「青いTシャツ」の場合、次のようなことは行わないでください。

タイトルタグ:青いTシャツストアの最高の青いTシャツ

H1タグ: 青いTシャツのトップショップの青いTシャツ 

テキスト: 「当店では、最も着心地の良い青いTシャツを販売しています。各青Tシャツは、クルーネック、Vネック、ラングラースタイル、または青いTスリーブのベースボールスタイルからお選びいただけます。コットン、ポリエステル、ブレンド素材からお好みの青いTシャツをお選びください。ぜひ、以下の商品一覧をご覧ください。」

これは、キーワードスタッフィング(キーワードの詰め込み)をしようとするものです。

また、最近の検索エンジンはキーワードの違いを理解し始めているため、「青いTシャツ」というフレーズのバリエーションを頻繁に使用する必要はありません。検索エンジンは、コンテキストとページの構造を通じて、ページ上の製品、サービス、またはコンテンツが何であるかを理解しています。

このようなキーワードの詰め込みはなかなかやめられませんが、スパム、コアアップデート、ヘルプフルコンテンツアップデートシグナルチェッカーとアルゴリズムに対応していくためには、キーワードを詰め込みすぎないことが重要です。

実際にコンテンツが適切かどうかをチェックする方法として、第三者にテキストを読んでもらうことが必要です。

そして第三者がテキストを読んでいる際の反応を観察し、以下のような反応が見られた場合にはキーワードを詰め込みすぎたと判断できます。

  • 表情が変わる
  • 同じフレーズを何度も繰り返しているために混乱する
  • 一時停止して笑い始める

これらの反応が見られた場合、キーワードを詰め込みすぎたことが原因であるため、テキストを書き直す必要があります。

プロのTips

これらのチェックに多額の費用をかける必要はありません。私は、定期的に多く人がいるコーヒーショップやカフェを使用します。

こういった場所では、人々がコーヒーを待つ間にテキストを読んでもらうことができます。時には、コーヒー代を支払って協力をお願いすることもあります。

このように第三者の視点からコンテンツを評価し、キーワードの詰め込みを避けることで、より自然で効果的なSEOを行うことができます。

より「SEOフレンドリー」でありながら、キーワードの最適化を少なくして同じメッセージを伝える別の方法を見てみましょう。

ユーザーの質問に答えるフレーズの種類

以下の例では、顧客の質問に答えるフレーズの種類を考え、それをwebサイトの構造とコンテンツに組み込んでいます。顧客がサイトを訪問したときに、自分が求めている情報がここにあると感じられるようにしています。

タイトルタグ : 着心地の良い青いTシャツ 人気のスタイルでご用意

H1 :青いTシャツ スポーツ&カジュアルウェア

テキスト :「学校にぴったりなグラフィックTシャツや、ベースボール用の青い袖付きラングラーTシャツをお探しですか?ABCブランドでは、さまざまな生地とスタイルの豊富なTシャツを取り揃えています。どんなスタイルでも、お客様のニーズに合わせたTシャツが見つかります。」

このタイプの例は完璧ではありませんが、読者の「青いTシャツ」に関するニーズを解決できる可能性があることを伝えています。前述したように、これをさらに数段階進めることができます。

H1タグの関連性

私の経験では、ヘッダータグの関連性は、その下の文章にも反映されます。したがって、H1タグが「青いTシャツ」である場合は、それを下に詰め込まないでください。

キーワードを詰め込むのではなく、青いTシャツとその目的、用途を説明します。現代の検索エンジンは、この2つを結び付ける方法を知っている可能性が高いです。それでは、さらに深く掘り下げて、よりトピックに関連のあるコンテンツ内容を作成してみましょう。

プロのTips

カスタマーサポートチームと在庫管理チームに相談し、青いTシャツが返品される理由を確認してください。どの商品を購入すればよいかのヒントを追加すると、返品や、サイズに関するカスタマーサポートでの無駄な時間などを削減できます。これにより、諸経費、人件費、実際の顧客の問題の待ち時間が削減されます。

発見される可能性のある問題

  • 5回目の洗濯で色褪せました。
  • サイズが合わなかった、またはきつすぎました。
  • 着用後に破れました。
  • 色が写真と一致しませんでした。

顧客サポートと在庫管理チームからのフィードバックをもとに重要なキーワードやフレーズを抽出するか、AIまたはカスタムGPTを使用して最も一般的な3~6語のフレーズをリストアップしてみてください。

これにより、顧客のニーズを満たすことができ、カテゴリや製品ページ全体にトピックの関連性のあるロングテールフレーズを含めることができるようになります。

FAQをページに含める方法

  • 製品の説明またはカテゴリに複数のクエリを追加。
  • 製品またはコレクション/カテゴリページのFAQを追加。
  • ページの上部、または必要な場合は製品グリッドの下に表示される説明文を追加。
  • ライブチャットスクリプトに含めることもできますが、SEOには役立ちません。

ページの最適化

サイト検索ボックスなどコンテンツを追加することができます。ただし、サイト検索はSEOには役立ちませんので、誰かに尋ねられた場合に備えて別の形でコンテンツを用意する必要があります。

最近の検索エンジンは、最も関連性の高い体験コンテンツを表示しようとします。配送が速く、レビューが好評で、色褪せず、サマーキャンプの汚れやほこりにも耐えられる製品を探している場合、ページにこれらの情報を掲載することで、検索ニーズを満たすソリューションがあることを相手に知らせることができます。

ページの例

タイトル : さまざまなスタイルと素材の色あせしない青いTシャツ

H1 :長持ちする青いTシャツ

テキスト : 「野球からカジュアルウェア、コットンから混紡まで、ABCブランドでショッピングすると、洗濯機で洗える、XSからXXXLまでのサイズの、色あせしにくい青いTシャツのセレクションが見つかります。2日で配送できます。胸元がきついので、ワンサイズ上をご購入ください。」

次にFAQを追加しますが、それが青いカテゴリのTシャツにのみ適用されることを確認します。赤、白、緑、または紫に適用される場合は、青いカテゴリのFAQは青に固有のものである必要があるため、メインのTシャツカテゴリに追加する必要があります。

FAQの例

ページに載せられるもの5回洗濯した後の青色はどうなりますか?

当社のブルートーンは色褪せしにくいX、Y、Z染料で作られていますが、特に温水や熱湯では色褪せが生じます。こちらは、5回、10回、30回洗濯した後のロイヤル、ベビー、ネイビーのカラーチャートです。

ページに掲載すべきではないもの青が写真の色と違います。どうすればいいですか?

色がページの画像と一致しない場合は、こちらでご確認いただける返品ポリシーが適用されます。

2番目のFAQはすべての色に適用されるため、このページには掲載されません。これは返品ポリシーに関するもので、青いTシャツに限られた話ではありません。

FAQの代わりとしては、商品ページのCTAの近くに返金保証があることを記載し、そこからポリシーにリンクするという方法があります。

キーワード最適化のポイント

キーワードのみに焦点を合わせて最適化すると、ペナルティを受けます。優れたユーザー体験とクエリのトピックに焦点を合わせると、ランキング向上が期待できます。

  • キーワードグループを見てください。
  • コレクション、製品、ブログ投稿、比較などのページの種類に応じて意図を一致させます。
  • ユーザーの質問に答えるコンテンツを作成します。
  • 消費者のニーズに合わせてイメージを合わせます。
  • サイズやお手入れ方法など、ショッピング体験を快適にするボーナスのヒントも掲載します。
  • キーワードを詰め込まないでください。

キーワードへの最適化とヘルプフルコンテンツアップデートに関するご質問への回答として、この情報がお役に立てば幸いです。

遠藤幸三郎

著者情報を活用した EEATへのアプローチ

1 year 6ヶ月 ago

本記事はSearch Engine Land「The myth of manufacturing author E-E-A-T」を翻訳した記事です。

先日、漏洩したGoogleのランキングアルゴリズムに関するドキュメントにも掲載があった著者情報の重要性やEEATへのアプローチ方法を紹介した記事です。

専門知識、経験、権威性、信頼性 ( EEAT )に関しては、SEO 担当者は Google が提供するものを吸収してきました。つまり、重要なのは何を言うか (コンテンツ) ではなく、誰が言うか (コンテンツ作成者) と場所 (ホスト Web サイト) であるということです。

EEAT を念頭に置いてコンテンツを作成し、ブランドの Web サイトに EEAT シグナルが表示されるようにすることは間違いなく可能です。しかし、ブランドとして、本物で正当かつ有意義な著者レベルの EEAT を体系的に構築し、大規模に維持できるでしょうか? 私の予想では「できません」。

誤解しないでください。著者 EEAT は現実であり、重要です。適切に実行すれば、Google エコシステム全体のコンテンツの可視性に顕著な影響が及ぶでしょう。

しかし、SEO「専門家」たちは、著者のEEATを確立するのは簡単だと繰り返し言っています。著者のプロフィールページを立ち上げるだけで、あっという間にEEATが完成します。

しかし、これは間違っています。

Google が著者とその評判を理解するには、それ以上のことが必要になります。

厳しい現実は、ほとんどの人が真の著者レベルの EEAT を達成することは決してないということです。

そうするには、著者の個人的なモチベーション、主題の専門家になるまでの継続的な献身、そしてその評判の維持が必要です。

ブランドは、著者の関与と個人的な投資なしに、著者に対して大規模な評判を作り出すことは容易ではありません。

本物の著者の EEAT が Google にとって重要な理由

Google は最近、厳しくならざるを得ません。通常のキーワードをターゲットにした SEO スパムに加えて、AI 生成コンテンツが氾濫しているため、検索結果が詰まっているだけでなく、記事の大部分をインデックス化することがもはや選択肢ではなくなりました。

ここで著者 EEAT が登場します。

これは、Google サーフェス全体での可視性だけでなく、インデックス作成のためのシグナルとしても使用できます。Google は、信頼できるソースから提供される質の高いコンテンツに重点を置き、リソースをより効率的に大規模に割り当てることができます。

著者が Google に知られているかどうか、またどのように知られているかは、Google ナレッジグラフで著者の名前を検索し、ナレッジパネルを確認することで確認できます。ナレッジグラフは、Google のデジタル名刺交換帳のようなものだと考えてください。これにより、Google は、そのトピック領域における確立された評判に基づいて、エンティティの関連性を評価しやすくなります。

Google に知られていない著者については、もう少し作業が必要です。Google は、デジタル フットプリントに基づいて著者を特定するため、固有表現抽出 (NER) を使用する必要があります。このタイプの機械学習では、著者の EEAT を裏付ける証拠が見つかる可能性は低くなります。

これをさらに詳しく調べたい場合は、EEAT を通じて著者を評価するOlaf Klopp の優れた記事を読むことをお勧めします。

著者の EEAT を構築するための戦術とそれがうまくいかない理由


著者の評判を構築し、Google にアピールするための正当な戦術は数多くあります。基本的には、サイト内で著者について述べた内容を、サイト外の第三者による証拠で裏付けることです。

しかし、ほとんどのブランドは実行でつまずいてしまいます。戦略を実行する決定権はブランドが直接管理できる範囲外にあり、多くの場合、作成者に依存し、人、プロセス、テクノロジーによって制約を受けます。

ページ内: 著者の署名とプロフィール


記事の署名欄からリンクされた包括的な著者略歴は、EEAT を強力に増幅します。著者の資格と業界での影響力を紹介するプラットフォームとなります。

問題は、一部のブランドにはリンクされた署名がなく、記事の下部にあるプロフィール ボックスのみに依存していることです。

そして、そうした著者のプロフィールのほとんどは、名前(またはその一部)、不適切なトリミングの写真、いくつかの無意味な文章、そして一連の投稿という必要最低限​​の内容です。

コンテンツが存在するのは、作成者が記入するように指示されたからであり、方法や理由についてはほとんど指示がありません。そのため、以下のような低品質のページが作成されます。


著者が関連する教育、認定、または賞を追加するためのフィールドがある場合、著者がそのような資格を持っていないか、著者が情報を提供したくないため、ほとんどの場合、それらのフィールドは空白になります。

つまり、技術的には著者プロフィールは存在します。しかし、それが EEAT を構築するのでしょうか? もちろん、そうではありません。

コンテンツ作成者レベルでの Google の EEAT 評価にプラスの影響を与えるには、著者ページに次の内容が含まれている必要があります。

  • 職業名と肩書き: 「XYZ Publication のテクノロジー ジャーナリスト、Joe Wright」
  • ヘッドショット: 高品質、プロフェッショナル、洗練されています。
  • アクティブなソーシャル プロファイルと理想的には個人の Web サイト: オンラインでの影響力を示します。
  • トピックの資格: 関連する経歴、業界での活動と実績、注目すべき認定資格または賞。
  • 著者略歴: この著者が特定の分野について執筆するのになぜ独自の資格を持っているのかを説得力を持って説明します。


これを包括的な「Person」構造化データでマークアップすると、インパクトがさらに強化されます。

しかし、なぜ偽造しないのでしょうか? 架空の著者を作り上げたらどうでしょうか?

それは機能しないからです。

著者 EEAT は、著者の言葉をそのまま信じることに頼っていません。Google は、著者プロフィール ページや Person 構造化マークアップ以外にも、外部からのシグナルなど、さまざまなシグナルを使用します。

Google 検索担当のダニー・サリバン氏はXの投稿で次のように説明しています。

「これはランキング要因ではありません。他の要因に影響を及ぼすものではありません。専門家が記事を書いたからといって、魔法のようにランキングが上がるわけではありません。1) 誰でも自分が専門家であると自己宣言することはできますが、それは何の意味もありませんし、2) 私たちが何らかの方法で確認して「はい、それは専門家です」と言うことはないからです。専門家が、人々が好み、評価するコンテンツを書くことは良いことです。なぜなら、彼らの専門知識は自明だからです。そして、人々があなたのコンテンツを気に入ったら、それは私たちが人々を第一に考えた満足のいくコンテンツを評価するのに使う、まったく異なる実際のシグナルと自然に一致することになります。」
検索マーケティング担当者が信頼する毎日のニュースレターを入手してください。

https://twitter.com/searchliaison/status/1755283334631231514

ページ外: 裏付けとなる情報源


著者の経歴は単なる出発点にすぎません。EEAT を達成するには、著者は自身の正当性と注目度を証明する明確なデジタル フットプリントが必要です。

構造化データを通じて著者に直接帰属するソーシャル メディア プロフィールは、sameAsすぐに成果が得られると思われるかもしれません。ただし、影響力を持つには、そのソーシャル プロフィールがトピックに関連し、積極的に投稿され、熱心なフォロワーがいる必要があります。

すでに、これは専門分野では珍しいことです。しかし、これは問題の始まりにすぎません。

著者に個人プロフィールを仕事に使うよう強制することは、タブーから責任までの範囲に及びます。

つまり、著者が自らの自由意志でソーシャル メディア プロフィールを職業上の目的に使用すべき理由について説得力のある議論、または著者や裁判所から異議を申し立てられる可能性のある高額な雇用契約が必要になります。

さらに、明確なソーシャル メディア ポリシーを実装し、すべての著者が 勤務時間中にソーシャル チャネルに投稿する時間を確保できるようにする必要があります。

公開した記事を LinkedIn、X、または Facebook に投稿するだけなら、これはもっと簡単でした。しかし、現代のソーシャル アルゴリズムは、可視性と引き換えにより多くのものを要求し、視聴者はエンゲージメントと引き換えにより多くのものを要求します。

さらに、ソーシャル メディアは今や主に動画です。記事の洞察を Instagram ストーリーやリール、TikTok、YouTube ショートに変換する必要があるため、時間がかかるようになります。

ビジネス上の問題は、著者が既にフォロワーを抱える著名な主題専門家でない限り、ブランドがその時間投資に対してすぐに利益を得る可能性は低いということです。ほとんどの著者はこのカテゴリには該当しません。

そして、時間をかけてフォロワーを増やしたとしても、それはブランドではなくコンテンツ作成者が所有する資産です。著者が去れば(誰も会社に永遠に留まることはないので)、フォロワーも一緒に去っていきます。

また、著者全員がソーシャル メディアで活動している場合でも、Google は強力な著者 EEAT を付与するために、次のような追加の裏付けとなるソースを要求します。

  • 著者が執筆した他のサードパーティの出版物からの追加の著者プロフィール。
  • 出版物に引用されたり、「ベスト」リストに掲載されるなどの報道。
  • Crunchbase や Muck Rack のプロフィールなどのディレクトリ リスト。
  • ゲストまたはホストとしてポッドキャストまたはウェビナーに参加します。
  • 関連する業界イベントの講演者プロフィール。
  • 彼らが著した本。
  • 検証可能で、それ自体が注目に値する賞、協会、または認定。
  • Wikipediaでの言及または専用ページとしての存在。
  • Google は、理想的には関連するトピックと組み合わせて、名前を検索します。
  • このような第三者の証拠が著者の経歴ページの内容と一致すると、その人物がGoogle ナレッジグラフ内の エンティティになる可能性が高まります。

そして、著者を業界内の主題専門家として確立することができます。

しかし、ブランドとしては、著者の評判の証拠をコントロールできないことがよくあります。勤務時間中に時間をかければ、それを有効にできます。著者をブランドの PR 活動の「顔」にすることができます。ブランドの影響力を利用して、チャンスを広げることができます。

しかし、最終的には著者が自分の評判を築くことを決断する必要があります。正直に言うと、ほとんどの人は与えられた機会を利用しないでしょう。そして、利用した人でも、どの業界にも専門家はほとんどいないため、多くの人は決して有名にはなりません。

それで、たとえあなたの作家の一人がトップに上り詰める才能を持っていたとしても、それは稀なことですが、あなたの他の作家はどうでしょうか?

肝心なのは、ブランドが著者の EEAT を大規模に構築する効果的な方法が実際に存在しないことです。ブランドは評判を確立するために 1 人か 2 人の主要人物をサポートすることはできますが、残りの人については既存の EEAT を示すことしかできません。

著者 EEAT の再考: 構築 vs. 購入


そこで、著者レベルの EEAT の現実を直視しましょう。多くのブランド、特にメディア企業ではないブランドにとっては、専門知識を構築するよりも、専門知識を購入する方が効果的かもしれません。

ブランドは、社内の「SEO コンテンツ ライター」に頼るのではなく、主題の専門家を雇用し、コンテンツ作成者としてトレーニングすることを優先する必要があります。

この変化により、本物の EEAT がもたらされ、ブランドはゼロから資格を構築するのではなく、既存の資格をキュレートすることに重点を置くことができます。

主題の専門家を雇用できないブランドの場合(たとえば、医師をコンテンツ作成者として雇用するのは難しい)、社内の役割をライターから編集者に変えます。

ありふれたコンテンツを大量に生み出す代わりに、彼らの焦点は次のようになります。

  • 主題の専門家の特定:トピック領域の専門家を見つけて関係を構築します。
  • コンテンツの共同作業:専門家と緊密に連携して、彼らの知識を SEO に適した魅力的なコンテンツにまとめます。
  • EEAT を念頭に置いた出版:専門家の承認を得た上で、社内チームは専門家の名前 (専門家が執筆の大部分を行った場合) または編集者の名前で出版し、その専門家が主要な貢献者であると明確にクレジットされるようにします。
  • 配信: ブランドのチャンネルと専門家寄稿者ネットワークの両方で配信。


しかし、この戦略には独自の課題があります。

世界中に、デジタル分野で活躍する著名人の専門家はほとんどいません。コンテンツが英語で書かれていない場合、この人材プールはさらに狭まります。

そして、これらの専門家は自分の価値をよく知っているので、支払う覚悟をしておいてください。リンク構築予算を再配分することをお勧めします。

現実主義者の著者EEAT戦略


著者 EEAT の理論に異論はありません。著者がトピックに関連した評判を Google が理解できる形で示すことは、オーガニック検索での可視性にプラスの影響を与えると信じています。

しかし、著者のプロフィール ページにマークアップするだけで SEO が簡単になるという現在の SEO の考え方には異論があります。特に、執筆が趣味ではなく職業である場合、著者はソーシャル メディア プロフィールを公開したがらないことが多く、ましてやこれらのプロフィールで業界と関わりを持ったり、第三者ソースからさらなる信頼性を獲得したりするために努力する人はいません。

これは、Google が著者を認識するのに十分な情報がないことを意味します。この深い理解がなければ、Google は同じ名前の人物を効果的に区別できません。さらに重要なことは、Google は実際にはその人物が誰であるかを気にしておらず、結果として著者 EEAT シグナルを付与できないということです。

最終的には、コンテンツ作成者の才能と、主題の専門家になるための継続的な努力にかかっています。ブランドは、作成者に代わってこれを構築することはできません。

著者 EEAT におけるブランドの真の役割は次のとおりです。

  • 専門知識を見つける: その分野でデジタル フットプリントを確立した主題の専門家を雇うか、協力します (または、適切な人材に多額の投資をして、デジタル フットプリントを構築できるようにします)。
  • 成長を可能にする: コンテンツ作成者が勤務時間内に継続的に成長したり、EEAT を披露したりできる機会があるような企業文化を提供します。
  • 点と点をつなぐ: 包括的な著者プロフィールと、オフサイトの裏付けを組み込んだ構造化データを通じて、コンテンツ作成者の既存の EEAT を明確に伝えます。ただし、定期的に更新する必要があることに留意してください。


このアプローチは、著者の話題性に対する影響力を活用しながら、関連性を通じてブランドの信頼性を強化します。

本記事はSearch Engine Land「The myth of manufacturing author E-E-A-T」を翻訳した記事です。

seojapan

効果的な競合他社分析の基本

1 year 7ヶ月 ago

この記事は、BACKLINKOの「Competitor Analysis: Core Principles and How to Conduct One」を翻訳した記事です。競合分析は、競合他社の強みと弱みを分析し、マーケティング戦略を強化するための手法です。対象顧客の特定、競合他社の分類(直接、間接、代替)、コンテンツ戦略、バックリンクプロファイル、有料メディア戦術の評価などが含まれます。SEOツールを使用した分析方法など詳細に紹介しているので、ぜひ一読してみてください。

デジタル マーケティングのペースの速い領域では、競合他社を理解し、競合他社を上回るパフォーマンスを発揮することは、単なる利点ではなく、必要不可欠です。

マーケティング担当者にとって重要なスキルである競合他社の分析は、市場をリードするか遅れをとるかの違いとなる洞察を提供します。

このガイドは、デジタル マーケティング戦略に対する Backlinko の専門家によるアプローチに根ざしており、効果的な競合他社分析の基本を詳しく掘り下げています。

SEO 戦略の活用から視聴者のニーズの理解まで、ライバルを理解するのに役立つだけでなく、戦略的にライバルを打ち負かすことを可能にする方法を解き明かします。

デジタル マーケティング ゲームで優位に立つツールと洞察を備え、競争へのアプローチを変革する準備を整えましょう。

飛び込んでみましょう。

重要なポイント

  • 競合他社分析には、競合他社に関するデータを収集して、競合他社の強みと弱みを特定し、マーケティング戦略を改善することが含まれます。
  • どのような種類のビジネスでも、競合他社の分析を行うことで利益を得ることができます。
  • 競合他社の分析を開始する前に、ターゲット顧客が誰であるかを確認する必要があります。
  • 競合他社分析の次のステップには、オーガニック検索と有料検索の競合他社を特定することが含まれます。また、直接的な競合他社、間接的な競合他社、または代替の競合他社として分類されているかどうかを判断する必要もあります。
  • 競合他社を特定したら、そのコンテンツ戦略、バックリンク プロファイル、技術的な SEO、有料メディア戦略を分析する必要があります。

マーケティングにおける競合他社分析の重要性

競合他社分析の実行方法について説明する前に、それが正確に何であり、なぜそれほど有益なのかを見てみましょう。

競合他社分析とは何ですか?

競合分析は、一般に競合分析と呼ばれ、業界内の競合他社を特定し、その長所と短所を分析するための戦略的かつ体系的なアプローチです。

これには、競合他社の製品提供、価格戦略、流通チャネル、顧客サービス、イノベーション、マーケティング戦略、および市場全体のポジショニングの評価が含まれます。

この詳細な分析は、貴重なベンチマークとして機能します。これは、競合他社が採用している戦略や戦術を把握するのに役立つだけでなく、各競合他社と比較した自社の長所と短所を正確に特定することもできます。

この包括的な視点を武器に、競争分野での成功に向けてビジネスを戦略的に位置付けることができます。

競合分析は広範な場合もあれば、具体的な場合もあります。競合他社のビジネスのあらゆる側面を掘り下げることも、1 つの分野だけに焦点を当てることもできます。たとえば、マーケティング戦略の分析だけに集中することを選択することもできます。

どのようなことに取り組むにしても、ビジネスのニーズと目標に合わせてアプローチをカスタマイズする必要があります。

分析から誰が利益を得られるのでしょうか?

簡単に言えば、市場と競争環境をより深く理解したい人は誰でも、競合他社の分析から恩恵を受けることができます。

競合分析の利点

経営者および経営者

競合調査は、ビジネスオーナーや経営幹部にとって次のことに役立ちます。

  • 競合他社によってもたらされる機会と脅威を特定する
  • 情報に基づいた意思決定を行う
  • リソース割り当ての最適化
  • 業界のトレンドを先取りする
  • 競争上の課題に積極的に対応する

結果として、これらの行動はビジネスの成長と持続的な成功に貢献します。

製品マーケティングチーム

市場調査を実施すると、製品マーケティング チームに次のようなメリットがもたらされます。

  • 自社製品の独自の機能と利点を特定する
  • 競合他社が自社製品をどのように位置付け、提示しているかを理解する
  • 製品の明確な利点を強調するためにマーケティング メッセージを調整する
  • 潜在的な製品革新のための市場ギャップを認識する
  • 顧客の好みを理解する
  • 戦略を適応させて市場で製品を効果的に差別化する

ブランドマーケティングチーム

市場の競合他社に関する洞察を収集すると、ブランド マーケティング チームが次のことに役立ちます。

  • 競合他社が自社ブランドをどのように位置付け、提示しているかを理解する
  • 明確で魅力的なブランドイメージを作成するための戦略を開発する
  • ブランドを差別化するための独自のセールスポイントを特定する
  • メッセージングを適応させて顧客の認識や好みに対応する

コンテンツマーケティングチーム

コンテンツ マーケティングチームは、競合他社の調査の実施から得られた洞察を次の目的で利用できるようになります。

  • 競合他社の洞察に基づいて顧客のニーズに対応するためにコンテンツを調整する
  • 市場におけるコンテンツのギャップと機会を特定する
  • メッセージングを調整してコンテンツを競合他社と差別化する
  • 競合他社の成功したコンテンツ戦略から学ぶ
  • 全体的なコンテンツの有効性と市場での関連性を向上させる

SEO プロフェッショナル

SEO は、次のような競合ベンチマークを活用して次のことを行うことができます。

  • 競合他社がランキングしているキーワードを特定する
  • リンク構築の機会を発見する
  • コンテンツのギャップを発見して価値のある独自の情報を提供する
  • 競合他社の成功に基づいて Web サイトの構造とユーザー エクスペリエンスを改善する

ペイ・パー・クリック (PPC) スペシャリスト

競合分析は、PPC スペシャリストにとって次のことに役立ちます。

  • 競合他社が広告で使用している効果的な戦略を特定する
  • 競合他社のパフォーマンスに基づいて入札戦略を調整する
  • 広告クリエイティブとメッセージングを改善して市場で目立つようにする

ソーシャルメディアチーム

分析から得られた洞察により、ソーシャル メディア チームは次のことが可能になります。

  • ソーシャル プラットフォーム上で競合他社が使用している成功した戦略を特定します。これには、ターゲット視聴者の共感を呼ぶコンテンツのテーマとエンゲージメント戦略の分析が含まれます。
  • 競合他社が利用しているさまざまなソーシャル メディア プラットフォームを明らかにする
  • ユニークで魅力的なソーシャル コンテンツの機会を発見する
  • 競合他社のパフォーマンスに基づいて投稿スケジュールと頻度を調整する

営業チーム

競合他社の分析データは、営業チームに次のようなメリットをもたらします。

  • 競合他社の強みと弱みを判断する
  • 競合他社の独自のセールスポイントを特定する
  • 顧客の反対を予測し、市場動向について常に最新情報を入手する

これは、売り込み内容を調整し、顧客の懸念に効果的に対処し、自社の製品やサービスを競争力のある位置に置くのに役立ちます。結果として、販売成果を向上させることができます。

ターゲット顧客の特定

競合他社の分析を掘り下げる前に、対象ユーザーを明確に理解することが重要です。この洞察がなければ、実質的に暗闇の中を進むことになります。問題を明確にするために、それがなぜそれほど重要なのかを詳しく見てみましょう。さらに、ターゲット ユーザーを特定するための最良の方法についても説明しますが、その前に、ターゲット マーケットとターゲット顧客の違いについて説明します。

ターゲット市場とターゲット顧客

ターゲット市場とは、製品やサービスの販売を希望するかなり幅広い顧客グループです。たとえば、ジム用のウェアを販売している場合、ターゲット市場はフィットネス愛好家である可能性があります。

対象顧客とは、対象市場のより具体的なセグメントです。したがって、ターゲット市場内のターゲット顧客は、ロサンゼルスに住む 25 ~ 35 歳のフィットネス愛好家である可能性があります。

ターゲット市場とターゲット顧客

このプロセスは、ターゲット市場を特定することから始まり、次にその市場内でより具体的なターゲット顧客を特定します。

ターゲット市場を正確に特定するには、製品またはサービスの主要な機能と利点を評価する必要があります。それらが解決する問題とそれが提供する価値を深く理解してください。次に、これらの特質に魅力を感じる可能性が高い幅広い顧客グループを特定します。

ターゲット顧客を特定することで、特定の顧客と関わる競合他社の分析にリソースを効率的に割り当てることができます。

ターゲット顧客を特定する方法

競合他社分析を実行する前にターゲット顧客を特定することがなぜ重要であるかはわかりましたが、どうやって行うのでしょうか?

1. 既存顧客から始める

すでに製品やサービスを販売している場合は、既存の顧客ベースについての洞察が必要です。これにより、ターゲット顧客についての理解を大幅に進めることができます。人口統計、好み、購入行動などの現在の顧客データを分析することにより、ターゲット顧客プロファイルを特定し、洗練するための基盤が提供されます。

さらに、現在の顧客から直接フィードバックを収集することは、より深い洞察を得る上で非常に貴重であることがわかります。

これを達成するための非常に効果的な方法は、顧客ベースにアンケートを開始することです。これは電子メール、テキスト、または電話で行うことができ、購入した顧客にアンケートへの回答を依頼できます。サイト上の特定のページへのアンケート ボタンやリンクを追加したり、顧客レビューを読んだりすることもできます。

さらに、現在の顧客とつながるための追加チャネルとしてソーシャル メディア プラットフォームを活用する必要があります。アンケートへの参加や意見や経験の共有を促す投稿やダイレクト メッセージを作成する必要があります。

2. Google Analytics 4 (GA4) を使用して人口統計データを収集する

ターゲット ユーザーに関する人口統計データを収集するには、GA4 を利用できます。このツールは包括的な洞察を提供し、視聴者をより深く理解できるようにします。

ログイン後、「レポート」→「ユーザー属性」→「人口統計の詳細」をクリックします。さまざまな国からサイトにアクセスしたユーザーの数を表すグラフが表示されます。

GA4 – 人口統計の詳細

下にスクロールすると、各国の「ユーザー」の総数と「新規ユーザー」(初めてサイトを操作したユーザー)の数が表示されます。

GA4 – 人口統計の詳細 – ユーザー

さまざまなタイプの人口統計データを表示するには、表内の「国」ボタンをクリックすると、ドロップダウンが表示されます。

GA4 – 人口統計の詳細 – 検索

たとえば、「興味」を選択すると、これがツールによって提供されたものです。

GA4 – 人口統計の詳細 – 興味

この場合、上記のデータは、視聴者の大部分が米国とカナダに居住しており、テクノロジー、メディア、エンターテイメントに強い関心を持っていることを明確に示しています。

さまざまなフィルターを適用すると、視聴者に関するデータも表示できます。

  • 性別
  • 地域
  • 言語

3. ソーシャルメディア分析を詳しく調べる

ターゲット顧客を特定するもう 1 つの方法は、ソーシャル メディア分析を調査することです。これは、視聴者の行動、好み、人口統計に関する洞察を得るのに役立ちます。

Semrush のソーシャル トラッカーツールを使用すると、複数のソーシャル メディア プラットフォームでのフォロワー、メンション、エンゲージメント レベルを分析できます。

Semrush – ソーシャルメディア管理

これは、ソーシャル メディアを介してサイトとやり取りする顧客のタイプを特定するのに役立ち、サイトで最も高いエンゲージメントとトラフィックを生成するソーシャル メディア チャネルも明らかになります。これにより、競合他社のソーシャル メディア戦略を分析する際に、これらのチャネルに焦点を当てることができます。

4. 対象ユーザーのプロファイルを作成する

データを収集したら、理想的なターゲット顧客のプロフィールを作成してそれを活用します。

これには次のような情報が含まれる必要があります。

  • 性別
  • 位置
  • 職業
  • 教育レベル
  • 興味のあること
  • 趣味
  • 所得
  • プラットフォームの使用状況

さまざまなタイプの対象顧客が存在する可能性があることを認識することが重要です。たとえば、電子商取引ストアでは、提供する製品やサービスごとに個別のターゲット顧客を設定できます。

競合他社の分析を開始する前に、さまざまなタイプのターゲット顧客について収集できるデータが多ければ多いほど、より良い結果が得られます。

競合他社の市場分析を行う方法

ターゲット顧客が誰であるかを特定したら、競合調査を開始します。

競合他社の市場分析を行う方法

始める前に、ちょっとしたアドバイスがあります。

  1. 競合他社の分析は、すべてを一度に実行しようとすると、簡単に膨大になってしまいます。
  2. かなり小さなことから始めて、管理可能な部分に分割することが常に最善です。 50 社の競合他社を分析するのではなく、少数の競合他社 (1 社でも十分) から始めて、時間をかけて徐々に分析範囲を広げてください。
  3. 分析を開始する前に、目標を特定します。理想的には、ビジネスにプラスの影響を与える行動を起こすために十分な調査を行うことが主な目的であるべきです。
  4. 競合他社の洞察データをスプレッドシートに保存します。スプレッドシートは、定期的に戻って新しい情報で更新できる生きた文書である必要があります。

さて、競合他社分析の実施方法を見ていきましょう。

1. 主な競合他社を特定する

まず最初に、主な競合他社が誰であるかを把握します。

主な競合他社を特定する

競合他社を特定するときは、次の 3 つのカテゴリに分類する必要があります。

直接の競合他社

直接の競合他社とは、貴社が提供するものと非常によく似た製品やサービスを販売する、貴社の業界または地域内の企業です。また、彼らはあなたと同じターゲット層を持っており、あなたのビジネスと同様の規模と範囲を持っています。

例:

マクドナルドとバーガーキングは、ファストフード市場における直接の競合相手です。どちらのチェーンも、ハンバーガー、フライドポテト、飲み物などのさまざまなファストフード商品を提供しています。両社は同様の顧客ベースをターゲットにしており、クイックサービスのレストラン業界で市場シェアを争っています。

間接的な競合他社

間接的な競合企業とは、同じ顧客のニーズに対して異なるソリューションを提供したり、同じ対象者に対応したりする企業です。直接的な競合企業とは異なり、間接的な競合企業は同様の製品やサービスを提供しませんが、同様の顧客ニーズを満たすか、同じ市場全体にサービスを提供します。

例:

あなたとあなたの競合他社は両方とも旅行 Web サイトを運営しています。ただし、あなたは贅沢なビーチでの休暇を提供することに重点を置いていますが、彼らはハイキング旅行などの冒険的な休暇に特化しています。どちらも休暇を探している人々を惹きつけようとしていますが、主な違いは、さまざまな種類の旅行を提供していることです。

後任の競合他社

代替となる競合他社は、あなたのビジネスが提供する製品やサービスの代替品や代替品を提供します。

例:

  • あなたのビジネス:従来の白熱電球の販売を専門としています。
  • 代替の競合他社:エネルギー効率の高い LED 電球の販売を専門としています。

代替品の競合他社は、提供する製品のタイプは異なるものの、企業が販売する従来の白熱電球の代替品または代替品として機能するため、そのようなものとみなされます。

照明ニーズへのソリューションをお探しのお客様は、従来の電球と、代替の競合他社が提供するエネルギー効率の高い LED 電球のどちらかを選択することができます。

競争が起こるのは、両社が、製品の種類は異なるものの、照明という同じ基本的な顧客ニーズを満たすことを目指しているからです。

競合他社を特定する方法

競合他社を特定する必要がある場合は、主に Semrush を使用しますが、業界の競合他社を把握する方法は他にもあります。これらには次のものが含まれます。

  • 顧客のフィードバック:既存の顧客に連絡し、貴社を選択する前に検討していた他のビジネスについて尋ねます。同様のサービスや製品を提供している他の企業について、必ず意見を求めてください。
  • 市場調査:営業部門に相談して、ターゲット市場の調査中に頻繁に遭遇するビジネスを理解してください。彼らの現場での洞察は貴重な情報に貢献します。
  • Google 検索:ターゲット キーワード (例: 「ランニング シューズ」) を使用して Google 検索を実行し、競合他社を特定します。検索結果の最初のページを分析して、業界の主要企業を正確に特定します。

また、オーガニック、有料、ローカルの競合他社について包括的に理解することも必要です。

オーガニック – 有料 – 地元の競合他社

Semrush ツール内のいくつかの機能が役に立ちます。

オーガニック検索の競合他社を特定する

これらは、有料トラフィックを求めてSERPで競合するサイトです。彼らはSEO戦略を使用して、SERPで可能な限り上位にランクされます。

オーガニック競合他社を特定する最も簡単な方法は、Semrush のオーガニック リサーチ ツールを使用することです。

Semrush – オーガニックリサーチ

ドメインを入力し、「検索」をクリックして、「競合他社」をクリックします。

オーガニックリサーチ - 競合他社

あなたのサイトと、あなたと同じオーガニックキーワードでランク付けされている主な競合他社を表すグラフが表示されます。 X 軸は競合他社がランク付けしているキーワードの数を示し、Y 軸は競合他社が受け取る月間トラフィックの量を示します。

オーガニックリサーチ – 競争力のあるポジショニングマップ

下にスクロールすると、競合レベル (同じキーワードでサイトがどの程度緊密に競合しているか) や一般的なキーワード (あなたと競合他社の両方がランク付けしているキーワードの数) などのいくつかのデータを含む競合他社の長いリストが表示されます。のために)。

オーガニックリサーチ – オーガニック競合他社

これらのサイトが同じオーガニック キーワードであなたと競合しているからといって、必ずしもそれらが直接の競合相手であることを意味するわけではなく、あなたとは異なるユーザーをターゲットにしている可能性があります。

よりよく理解できるように、次の例を示します。

広告に関するブログを書いている Web サイトがあると想像してください。彼らは「オンライン マーケティング戦略」に興味を持つ人々を惹きつけたいと考えています。

ここで、SEO に関するブログを運営しており、「オンライン マーケティング戦略」を検索する人々を惹きつけたいと考えているとします。両方とも同じキーワードをターゲットにしているとしても、必ずしも直接競合しているわけではありません。

その理由は次のとおりです。最初の Web サイトは広告に焦点を当てているため、視聴者は広告について学ぶことに興味を持っています。一方、あなたのブログは SEO に関するものであり、読者は SEO のトピックにより興味を持っています。

したがって、同じキーワードをターゲットにしている場合でも、サイトは異なる関心を提供しており、直接の競合相手とはみなされません。

リスト内のサイトが直接的な競合サイト、間接的な競合サイト、または代替の競合サイトであるかどうかを判断する最善の方法は、各サイトにアクセスしてそのサービスを分析することです。ここでは「neilpatel.com」をクリックしました。

ニール・パテル – ブログ

ブログの内容を簡単に確認すると、私たちのブログと類似点があり、同じ読者を対象としていることがわかります。これにより、同社は直接の競合他社として分類されます。

有料検索の競合他社を見つける

有料検索広告、つまりペイパークリック (PPC) 広告には、キーワードに入札する企業が関与します。ユーザーがこれらのキーワードを検索すると、最高入札者からの広告が SERP に表示されます。

有料検索の競合他社を特定するには、 Semrush の広告調査ツールを使用できます。 Organic Research ツールで得られるのと同じグラフが表示されますが、代わりに有料のトラフィックとキーワードが表示されます。

広告リサーチ – 競争力のあるポジショニングマップ

以下に、有料の競合他社の表が表示されます。

広告リサーチ – 有料競合他社

オーガニック トラフィックの表と同様に、競合他社と共通するキーワードの数を確認できます。これは、あなたが彼らとどれだけ緊密に競争できるかを示す良い指標です。

競合他社をさまざまなタイプに分類するには、サイトのコンテンツとその製品やサービスを調べて、それらが何を提供しているのかを確認する必要があることに注意してください。大変な作業のように聞こえるかもしれませんが、前に述べたように、小さなことから始めるだけで十分です。

地元の競合他社を特定する

地元の競合他社とは、同様の製品またはサービスを提供する地域内の企業です。競合他社と考える地元企業がすでにいくつかあるかもしれません。ただし、SEO に関しては、地元の競合他社があなたが期待していたものとまったく同じではない可能性があります。

ローカル SEO の競合他社は、特定の地理的領域内の製品またはサービスに関連するキーワードで SERP 内で目立つようにランク付けされている企業です。これらの企業は、ローカル検索結果での可視性をめぐる直接的な競合であり、関連する製品やサービスを探している地元の顧客を引き付けることを目的としています。

これらの競合他社を正確に特定する最も効果的な方法は、Google を使用することです。たとえば、シアトルで法律事務所を運営している場合、その地域でそのようなサービスを検索しているユーザーは、 「シアトルの弁護士」など、地域固有の位置修飾子を含むロングテール キーワード(3 語以上) を使用する可能性があります。

これを Google に入力すると、ローカル検索結果にどのビジネスが表示されるかを確認できます。注目すべき最も重要なことの 1 つはマップ パックです。これは、SERP で目立つように表示されるトップランクの地元企業のグループです。

Google SERP – シアトルの弁護士

2. 競合他社のコンテンツ戦略を分析する

競合他社を特定したら、そのコンテンツ戦略を分析します。

競合他社のコンテンツ戦略を分析する

目標は、戦略の中でうまく機能している要素とそうでない要素を特定することです。そうすることで、成功した要素を再現し、戦略の弱い側面の欠点によって生み出された機会を利用することができます。

分析すべき重要な点は次のとおりです。

コンテンツのタイプと形式

ブログ投稿ビデオインフォグラフィックポッドキャストなど、競合他社が作成するさまざまな種類のコンテンツを特定します。

コンテンツの種類と形式

さらに、これらのコンテンツ タイプ内の情報を表示するために採用されている形式を分析します。たとえば、ブログ投稿の形式には、ハウツー ガイド、リスト、または思想的リーダーシップに関する記事が含まれる場合があります。

この分析は、彼らのアプローチの多様性を理解し、類似または独自の視聴者の好みに合わせてコンテンツ戦略を調整するのに役立ちます。

コンテンツの品質と関連性

コンテンツの全体的な品質を評価します。関連性、深さ、専門知識のレベルなどの要素に注目してください。コンテンツがユーザーの検索意図をどの程度満たし、対象ユーザーのニーズや興味にどれだけ応えているかを評価します。

コンテンツの品質と関連性

得られた洞察により、競合他社の成功から学んだり、失敗を利用したりすることができます。コンテンツの中で何が効果的かを特定することで、同様の戦略を自分のコンテンツに組み込むことができます。同様に、コンテンツのどこが不十分かを理解することで、同様の落とし穴を回避し、より良い結果を得るためにアプローチを調整する機会が得られます。

コンテンツの頻度

新しいコンテンツを公開する頻度と投稿スケジュールの一貫性を分析します。これにより、コンテンツ制作能力と視聴者エンゲージメント戦略についての洞察が得られます。

競合他社のコンテンツの頻度を評価することで、一貫した投稿スケジュールを維持する成功例から学ぶことができ、自社のコンテンツ計画を改善できる可能性があります。逆に言えば、投稿スケジュールのギャップや不規則性を特定することは、潜在的な欠点を利用し、コンテンツの一貫性を高めて視聴者エンゲージメントを高める機会となります。

コンテンツ配信チャネル

これには、競合他社が自社のコンテンツを宣伝および共有するために使用するプラットフォームまたは媒体を認識することが含まれます。これには、ソーシャル メディア、電子メール ニュースレター、外部プラットフォームが含まれる場合があります。

この分析は、特定のプラットフォームを通じて視聴者にリーチする成功から学ぶのに役立ちます。また、潜在的なギャップや逃した機会についての洞察も得られます。これにより、代替チャネルを活用して、コンテンツのリーチとエンゲージメントを拡大する機会が得られます。

キーワード

競合他社が優先しているキーワードを分析すると、視聴者が何を積極的に検索しているのかがわかり、同様のユーザーの意図に合わせてコンテンツを調整することができます。ターゲットにしているキーワードを特定すると、共通の視聴者の共感を呼ぶ業界のトレンドやトピックを特定するのに役立ちます。

Semrush プロジェクトを作成すると、Copilot AI は競合他社がどのキーワードでランク付けされているかを自動的にチェックします。また、あなたと比較して彼らがどこで認知度を上げているかも確認します。

また、コンテンツのギャップを特定して、専門分野で十分にサービスが提供されていない可能性のあるトピックに対処するための戦略を調整するのに役立ちます。さらに、競合他社がメタ タイトル、ページ見出し、メイン コンテンツでキーワードをどのように利用しているかを分析すると、貴重な洞察が得られる可能性があります。この分析は、コンテンツを効果的に最適化したり、競合他社が及ばない可能性のある機会を掴んだりする際に役立ちます。

バックリンクプロファイル

コンテンツを指すバックリンクの質と量を分析することで、検索エンジンから見たコンテンツの権威と信頼性についての洞察が得られます。

3. 競合他社のバックリンクプロファイルを評価する

バックリンクは、あるサイトのページから別のサイトのページへのハイパーリンクです。あなたの専門分野に合わせた権威の高いサイトからバックリンクを獲得することは、サイトの権威を高めるための優れた方法です。

競合他社のバックリンクプロファイルを評価する

競合他社のバックリンク プロファイルを分析するときは、量だけに焦点を当てるのではなく、リンクの質を評価する必要があります。

強力で多様なリンク プロファイルを持つサイトは SERP で上位にランクされる可能性が高いため、競合他社のバックリンク プロファイルを分析することは重要です。彼らの戦略を分析することで、サイトのバックリンクの機会を特定し、ランキングとトラフィックを向上させることができます。

リンクの構築について詳しく知りたい場合は、リンク構築戦略に関する包括的なガイドをご覧ください。

競合他社のバックリンクを確認する方法は次のとおりです。

Semrush のバックリンク分析ツールを使用できます。

Semrush – バックリンク分析 – Neil Patel

「概要」ページには次の内容が表示されます。

参照ドメイン:これは、競合他社のドメインを指す参照ドメインの総数です。

バックリンク:これは、競合他社が獲得したバックリンクの合計数です。

バックリンク分析 – 概要

前述したように、バックリンクは量よりも質の方が重要です。競合他社のページにリンクしている参照ドメインの品質を評価する必要があります。これを行うには、「参照ドメイン」をクリックします。

バックリンク分析 – 参照元ドメイン

「参照ドメイン」ページで、次を選択します。

  • アクティブ
  • AS スコアを 40 ~ 100 に設定します。
  • 「フィルターを追加」をクリックし、「フォロー」を選択します
参照元ドメイン – フィルター

上の画像からわかるように、この競合他社のドメインにリンクしている高権限の参照ドメインが 3.5,000 を超えています。

ここで、競合他社のページを指している実際のバックリンクを確認したい場合は、「バックリンク」をクリックしてください。

バックリンク分析 – バックリンク

ここでは、ソース ページ、その AScore、および競合他社のサイト上でリンクされているページを確認できます。

バックリンク – ニール・パテル

4. 競合他社のテクニカル SEO を評価する

競合他社のサイトの技術的側面を分析することは、競合他社のサイトのパフォーマンスを理解するために重要です。次に、このデータをサイトと比較し、データよりも優れている領域と改善が必要な領域を特定します。

競合他社のサイトの技術分析を実施することが重要である理由は次のとおりです。

  • 長所と短所を特定する:競合他社のサイトの技術的側面を分析すると、Web サイトの構造、ページの速度、モバイルの最適化、その他の技術要素に関する長所と短所が明らかになります。これらの側面を理解することは、それらを超えられる領域を特定するのに役立ちます。
  • ユーザー エクスペリエンス (UX):テクニカル SEO はユーザー エクスペリエンスに影響を与えます。競合他社の技術要素を分析することで、競合他社の Web サイトがどの程度ユーザーフレンドリーであるかについて洞察を得ることができます。この理解は、サイトの UX の改善に役立ちます。
  • クロールとインデックス作成:競合他社の Web サイトが検索エンジンによってどの程度クロールされ、インデックス付けされているかを調べることで、検索エンジン全体の可視性についての洞察が得られます。これにより、サイトの潜在的な問題や改善の機会が明らかになります。

収集した情報を使用して、よくある間違いを回避し、タスクに優先順位を付け、成功した戦略を再現することができます。最終的には、UX の向上、トラフィックの増加、ランキングの向上につながる可能性があります。

5. 競合他社の有料メディア戦略を調査する

簡単に言えば、競合他社の有料メディア戦略を分析すると、次のことが役立ちます。

  • あなたの業界で何が効果的かを学びましょう
  • 市場動向を常に最新の状態に保つ
  • パフォーマンスをベンチマークする
  • 新しい広告チャネルを発見する
  • 創造性とメッセージ性を向上させる
  • 変化に適応する
  • ターゲティング戦略を強化する

これらすべてにより、広告活動の効果と競争力が維持されます。

ここでは、競合他社の有料メディア戦略を分析する方法を説明します。

キーワード調査

競合他社が入札しているキーワードを特定する必要があります。これは、PPC キーワード戦略のギャップを明らかにするのに役立ちます。

過去のパフォーマンスを分析する

競合他社のクリックスルー率、広告支出、コンバージョン率を分析する必要があります。これは、サイトの PPC 結果を向上させるために、その戦術を再現する価値があるかどうかを判断するのに役立ちます。

広告掲載分析

競合他社が広告を掲載している場所を特定する必要があります。彼らは特定のサイト、SERP、または Facebook などのソーシャル メディア プラットフォームを好む傾向がありますか?これにより、企業が使用するさまざまなチャネルの有効性、市場全体の存在感、戦略的焦点についての貴重な洞察が得られます。この知識を活用すれば、成功事例に基づいて広告アプローチを最適化し、より良い結果をもたらすプラットフォームに焦点を当てることができます。

広告コピーの分析

PPC 競合他社分析の重要な部分には、競合他社の広告コピーの評価が含まれます。自社の製品やサービスをどのように位置付けているか、また独自のセールス ポイント (USP) をどのように宣伝しているかを分析する必要があります。

広告コピーを分析するときは、次のような質問をすると役立ちます。

  • 彼らはどのような種類の CTA を使用していますか?
  • 広告コピーにキーワードをどのように組み込むのでしょうか?
  • 広告の配色はブランドの配色と一致していますか?
  • クリックを促すためにグラフィックやビデオを使用していますか?

ランディングページ分析

最適化されたランディング ページは、PPC キャンペーンを成功させるための最も重要な要素の 1 つです。効果的な CTA、魅力的なコンテンツが含まれ、適切にレイアウトされていれば、コンバージョン率を大幅に高めることができます。

したがって、競合他社のランディング ページを詳しく調べて、その長所と短所を特定することが重要です。分析すべき主な内容は次のとおりです。

  • 関連性:ランディング ページは、ユーザーをそこに誘導した広告コピーと一致していますか?ユーザーの信頼を維持し、コンバージョンを増やすには、ランディング ページのコンテンツとそこにつながる広告の間に一貫性がなければなりません。
  • ビジュアル:競合他社はランディング ページで画像、グラフィック、ビデオをどのように使用していますか?それらは高品質で関連性がありますか?ページ全体のメッセージをサポートしていますか?
  • 見出し:ランディング ページの見出しがどれだけ明確で説得力があるか、また製品やサービスの価値提案がユーザーにすぐに伝わるかどうかに注意してください。価値提案は、製品またはサービスの利点と価値をユーザーに伝えます。たとえば、「中小企業向けに設計されたユーザーフレンドリーなプロジェクト管理ソフトウェアで時間とお金を節約します。」
  • 社会的証明と信頼の指標:レビューやユーザー評価などの社会的証明のシグナルや、セキュリティ バッジなどの信頼のシグナルに注意してください。これらは信頼性とユーザーの信頼を高める可能性があります。

パフォーマンスと投資収益率 (ROI) を追跡する

競合他社のパフォーマンスと ROI を常に監視すると、サイトの目標と KPI を設定するのに役立ちます。

Semrush の広告調査ツールを使用すると、CPC や平均掲載順位などの重要なパフォーマンスと ROI 指標を簡単に監視できます。

有料検索の掲載順位 – 掲載順位と CPC

有料ソーシャルメディア分析

競合他社の有料ソーシャル メディア戦略を分析すると、ターゲット ユーザー内の顧客を引き付けるために競合他社が使用している広告コピーやプロモーションを特定するのに役立ちます。収集した洞察は、独自の有料ソーシャル メディア キャンペーンに統合できるアイデアを提供します。

これを行う 1 つの方法は、Meta Ads Library などのソーシャル メディア プラットフォームに組み込まれているツールを使用することです。これにより、Facebook または Instagram で現在アクティブな競合他社の広告をすべて表示できます。表示する場所と広告の種類を選択し、キーワードまたは競合他社のドメインを入力するだけです。

メタ広告 – ライブラリ – 検索

次に、競合他社が掲載している広告のページが表示されます。各広告について、いつ開始されたか、どのメタ プラットフォームで実行されているかが示され、広告自体を表示できます。

Ahrefs – メタ広告

ただし、これでは競合他社の広告の成功についての洞察は得られません。その有効性を評価するには、広告費用、インプレッション、発言権のシェアなどの指標を明らかにする必要があります。Semrush の AdClarity ツールを使用すると、これらの洞察を得ることができます。このツールを使用すると、Facebook、Instagram、TikTok、X (旧称 Twitter) などのソーシャル メディア プラットフォームで競合他社の広告パフォーマンス指標を追跡できます。

セムラッシュ – AdClarity

実際の競合他社分析の例

これで、競合他社の分析中に明らかにする必要がある情報と、その実施方法がわかりました。さらに明確にするために、独自の競合分析を実行する実際の例を紹介します。

この例では、「Backlinko.com」の競合他社を 1 社特定し、そこに焦点を当てて分析します。

ターゲット顧客を特定する方法についてはすでに詳しく説明したので、このステップは省略します。私たちはすでに上記の手順を使用して、ターゲット顧客が米国に住んでおり、年齢が 18 ~ 34 歳で、SEO に興味があるが、必ずしも SEO の専門家ではないことを確認しました。

ステップ 1: 競合他社を特定する

Semrush の Organic Research ツールを使用すると、主な競合他社のリストを取得できます (この例では、オーガニック競合企業に焦点を当てます)。

Backlinko – オーガニック競合他社

上のリストでは、Backlinko には「wordstream.com」と 13% の「Competition Level」に共通するキーワードが 7.3K あることがわかります。サイトをざっと見てみると、同じような種類のコンテンツを作成し、同じ視聴者をターゲットにしていることもわかります。

このため、「wordstream.com」は競合他社の分析に最適な選択肢となります。

ステップ 2: コンテンツ分析

競合他社分析の次の段階では、WordStream のコンテンツ戦略を詳しく掘り下げていきます。

まず、公開しているコンテンツの種類を特定します。これを行う最も簡単な方法は、WordStream サイトを見て、さまざまなコンテンツ形式をすべてメモすることです。

WordStream のメタ タイトルを分析して、作成されたコンテンツを理解することもできます。このために、Screaming Frog SEO Spider を使用します。

叫ぶカエル

これはドメインをクロールし、ドメインに関する貴重な情報を提供するツールです。無料版では最大 500 個の URL をクロールできるため、小規模な Web サイトに最適です。

これらのメタ タイトルを分析することで、WordStream が作成しているコンテンツの種類を把握し始めることができます。タイトルに「ハウツー」や「25 の方法」などのフレーズが含まれていることがわかります。これは、WordStream がハウツー ガイドやリストを作成していることを示しています。

競合他社のコンテンツ戦略を分析するときは、競合他社がコンテンツを公開する頻度を特定する必要があります。これを行うには、Google に「site:競合他社のドメイン」と入力し、[ツール] をクリックして、[いつでも] をクリックします。

Google 検索 – ワードストリーム

次に、ドロップダウン メニューから日付範囲を選択します。今回は「過去 1 か月」を選択しました。

Google 検索 – フィルター – 過去 1 か月

これにより、競合他社が毎月公開するコンテンツの量がわかります。

Google SERP – ワードストリーム

次に、競合他社のサイトに最も多くのトラフィックをもたらしているページを確認する必要があります。これを行うには、Semrush のオーガニック リサーチ ツールの「オーガニック ページ」レポートを使用できます。

オーガニック ページ レポート – ワードストリーム

このレポートから学べることが 2 つあります。

  1. これらの洞察はコンテンツのアイデアを提供します。サイトに最も関連するトピックを特定し、そのトピックのコンテンツの作成を開始します。
  2. これらのトピックをカバーするコンテンツがすでにあるにもかかわらず、ページに多くのトラフィックが集まっていない場合は、より高いレベルのトラフィックを取り込むようにコンテンツを最適化する必要があります。

次に、競合他社が作成しているコンテンツの品質を評価する必要があります。コンテンツの深さと関連性を検討する必要があります。情報はよく調査されており、内容は検索意図と一致していますか?

次に、競合他社がコンテンツ内で示しているEEAT (経験、専門知識、権威、信頼性)のレベルを評価します。

たとえば、ハウツー ガイドに実践的なビデオを含めることで経験を実証していますか?

それとも、記事の著者に関する情報を含めることによって専門知識を伝えていますか?

Wordstream に関する記事をご覧ください。

ワードストリーム – 記事著者

ステップ 3: バックリンク分析

次に、WordStream のバックリンク プロファイルを分析します。これには分析できるさまざまな要素がありますが、この競合他社の分析では主に 4 つのことに焦点を当てます。

  • バックリンクの数: WordStream のサイトを指すバックリンクの総数。
  • バックリンクの品質: WordStream にリンクしている高権限の参照ドメインの数。
  • トップリンクされたページ:そのページへのバックリンクが最も多いページの数。これは、コンテンツの品質と人気を示しています。

Semrush のバックリンク分析ツールを使用すると、WordStream には合計 1,060 万のバックリンクと 87,000 の参照ドメインがあることがわかります。

ワードストリーム – 参照ドメインとバックリンク

ここで、それらのリンクのうち、上位の参照ドメインからのリンクがどれだけあるかを確認してみましょう。

これを行うには、「参照ドメイン」の下の番号をクリックします。

最も高い権限スコア (AS) を持つドメインのみに注目する必要があるため、表の左上にある「AS」をクリックしてリストを降順で表示します。競合他社が各ドメインから受け取るバックリンクの数を表示することもできます。

ワードストリーム – 参照元ドメイン レポート

Semrush はドメイン名の下に、そのサイトがどのカテゴリに分類されるかを示します。この表を見ることで、WordStream のバックリンク プロファイルのソースの多様性も判断できます。

次に、最も多くのバックリンクを受け取っているページを分析したいと思います。 「インデックス付きページ」をクリックするだけでレポートを取得できます。

ワードストリーム – インデックス付きページのレポート

あなたのサイトに競合他社と同じトピックを扱っているページがある場合は、受信したバックリンクを競合他社のページのバックリンクと比較する必要があります。この比較により、バックリンクのパフォーマンスの点でそれらを上回っているのか、それとも下回っているのかについての洞察が得られます。

サイトにこれらのトピックをカバーするページが不足している場合は、最も関連性の高いトピックを優先して、優れたコンテンツを作成してください。

次に、競合他社のページにリンクしている参照ドメインを特定し、これらのドメインのウェブマスターに積極的に連絡してリンクを依頼します。

ステップ 4: テクニカル SEO 分析

競合他社の分析中に分析できる技術的な SEO 要素は数多くあります。サイトのパフォーマンスに焦点を当て、Wordstream のコア ウェブ バイタル、ページの読み込み速度を分析し、サイトがモバイル フレンドリーかどうかを確認します。

コアウェブバイタル

Core Web Vitals は、ポジティブな UX の提供という観点からサイトのパフォーマンスを測定する一連の指標です。コア Web Vitals メトリクスは次のとおりです。

  • 累積レイアウト シフト (CLS):ページのコンテンツが読み込み中にどの程度移動するかを分析することにより、ページが視覚的にどの程度安定しているかを測定します。
  • 初回入力遅延 (FID):ユーザーが最初にページを操作してからブラウザがこの操作の処理を開始するまでにかかる時間を測定します。 FID は、2024 年 3 月に Interaction to Next Paint (INP) と呼ばれる新しい指標に置き換えられます。
  • Largest Contentful Paint (LCP):ページ上の最大のコンテンツ要素がユーザーに表示されるまでにかかる時間を測定します。

これらの指標はすべて、優れた UX を提供するために重要であり、Google のランキング要素にも含まれているため、分析する価値があります。

これを行う最も簡単な方法は、Google の Page Speed Insightsを使用することです。

まず、競合他社のページのモバイル版の Core Web Vitals が表示されます。

ページスピード – ワードストリーム

「デスクトップ」タブをクリックすると、デスクトップ バージョンのメトリクスが表示されます。

PageSpeed – ワードストリーム – デスクトップ

競合他社の Core Web Vitals を分析すると、サイトのパフォーマンスのベンチマークとして機能するため便利です。

複数の競合他社を分析すると、自社のニッチ分野内のサイトの平均パフォーマンス レベルを把握し、サイトのパフォーマンスがこのレベル以上であることを確認できます。これにより UX が向上し、ランキングが向上する可能性があります。

ページの読み込み速度

次に、Page Speed Insights を再度使用して、WordStream のページ読み込み速度を確認します。注目すべき指標は「速度指数」です。これは、ページ上の視覚要素が完全にレンダリングされるまでにかかる時間を示します。

PageSpeed – ワードストリーム – 速度インデックス

理想的には、これを 2 ~ 3 秒以下にすることが必要です。したがって、このページはかなり遅いです。

ここで重要なのは、競合他社のページ速度を分析することで、自社のページ速度と比較できるということです。これは、パフォーマンスが優れているかどうか、または改善が必要かどうかを示します。

「速度インデックス」指標はサイト全体を表すものではなく、分析のために貼り付けた特定の URL のみに関係することに注意することが重要です。

モバイルフレンドリー性

次に、WordStream のサイトがモバイル フレンドリーかどうかを確認する必要があります。 Google がモバイル フレンドリー テストを廃止したため、代わりに Bing のモバイル フレンドリー テスト ツールを使用することになります。

Bing – モバイルフレンドリーツール

Wordstream のページがモバイル フレンドリーであることがわかります。

この分析を行う主な理由は、競合他社に対してサイトのベンチマークを行うことです。たとえば、サイトのページがモバイル フレンドリーではない場合、それは競合他社に遅れをとっていることを意味します。オンライン マーケティングの分野では、単一の要素が競合他社に対して優位性があるかどうか、またはその逆を決定することがあります。

ステップ 5: 有料メディア分析

この競合分析の最終段階では、WordStream の有料メディア戦略を見ていきます。

PPCキーワード調査

まず最初に、Semrush の広告調査ツールを使用して WordStream の PPC キーワードについて洞察を得る必要があります。このツールを使用すると、次のようなメトリクスを表示できます。

  • 位置の変更
  • 検索ボリューム
  • クリック単価
  • 渋滞
ワードストリーム – 有料検索位置

この分析により、競合他社が優れているキーワードと苦戦しているキーワードが明らかになります。特定のキーワードでの成功と、うまく成果が上がっていない分野に注目してください。

あなたと競合他社が同じキーワードをターゲットにしている場合は、あなたの広告のパフォーマンスを競合他社のパフォーマンスと比較してください。これにより、パフォーマンスが優れている領域、または劣っている領域を特定できるようになります。

競合他社が成功しているキーワードを分析することで、競合他社の広告コピーを分析して、それを再現することを試みることができます。一方で、掲載結果が芳しくないキーワードを分析することで、広告コピーを最適化し、掲載結果を上回ることができます。

PPC 戦略を改善するもう 1 つの効果的な方法は、競合他社がターゲットにしているが、自社がターゲットにしていない有料キーワードを特定することです。

これを行うには、 Semrush のキーワード ギャップ ツールを使用します。

Semrush – キーワードギャップ

ここでは、WordStream がターゲットにしているが、私たちのサイトはターゲットにしていない有料キーワードのリストを取得します。

キーワードのギャップ – バクリンコ vs ワードストリーム

この分析により、PPC 戦略とターゲット ユーザーについての洞察が得られます。

さらに、ターゲットとしているキーワードの CPC を分析することで、広告予算に関する貴重な洞察が得られます。この理解は、それらと効果的に競争するために必要な予算を決定するのに役立ちます。

研究のガイドとなる競合分析テンプレートとツール

この実際の例からわかるように、Semrush には競合他社の詳細な分析を行うのに役立つ機能が多数ありますが、収集したすべての情報を保存する場所が必要です。

心配しないでください。 Semrush の提供によるこの無料のスプレッドシート テンプレートを使用すると、競合他社の分析データを 1 つの簡単にアクセスできる場所に保存できます。

結論

競合他社の分析は、デジタル マーケティング戦略についての洞察を得るために不可欠であり、競合他社の成功から学び、自社の戦略を強化することができます。

また、競合他社がパフォーマンスを発揮していない領域も強調され、競合他社の欠点を利用して競合他社を上回るパフォーマンスを発揮する機会が得られます。

ただし、重要なのは小さく始めることだということを覚えておいてください。一度に大量の競合他社を分析して自分自身を圧倒しないでください。

目的は、マーケティング活動を改善し、競合他社に先んじるためにすぐに行動できる洞察を得ることです。

このガイドが役立つと思われた場合は、SEO 競合他社分析に関する詳細ガイドをご覧ください。

seojapan

SEOに取り組む企業が”今”考えるべき生成AIについて|セミナーレポート

1 year 7ヶ月 ago

ー法人SEOのプロが徹底討論

アイオイクス株式会社 豊藏翔太 × COUNTER株式会社 宮田和也

本記事は、2024年4月5日(金) に開催されたセミナーレポートです。COUNTER株式会社宮田氏と弊社豊藏が法人SEOと生成AIに関する徹底討論を行いました。

討論のテーマ

  • 生成AIによるコンテンツ自動作成がSEOにもたらす影響と対策
  • 生成AIによる検索エンジンアルゴリズムの変化予測と対応策
  • 生成AIを有効活用しながらも、オリジナリティのあるSEOを実現する方法

本記事のまとめ

  • 生成AIの登場によるSEOの変化について、法人SEOのプロである豊藏氏と宮田氏が議論を交わした。
  • 生成AIによるコンテンツ自動生成がSEOにもたらす影響と対策として、生成AIを使うべきか否か、品質担保、オリジナルコンテンツとの棲み分けなどが論点となった。
  • 生成AI時代のSEOに求められる専門性として、Googleのアルゴリズム理解とAIツールの適切な活用が重要とされた。
  • AIをコンテンツに活用する場合、コンテンツの構成は人間が担い、執筆をAIに任せるのが良いとの見解が示された。
  • Q&Aでは、地方でのSEO、生成AIの適切な使い方、YMYL領域での注意点、ペナルティリスクの低減策、優れたSEO会社の特徴などが議論された。

<導入・登壇者紹介>

生成AIの登場により、社会が便利になりつつあります。一方で、人間の必要性も問われ始めてきました。生成AIの登場によりSEOがどのように変化していくのか、法人SEOのプロにお話しいただきます。

豊藏:本日は、アイオイクス株式会社とCOUNTER株式会社が共催するセミナーにご参加いただきありがとうございます。宮田さんとのディスカッションを通して、どのように生成AIと向き合うべきかを考える機会にできればと思います。

宮田:COUNTER株式会社の宮田です。埼玉の越谷市でコンサル力を強みとしたSEO会社を経営しています。自社でAIツールも開発しています。

豊藏:アイオイクス株式会社の豊藏と申します。当社はSEOで20年の歴史があり、海外のSEO情報などを発信するオウンドメディア『SEO Japan』も運営しています。

――――――――――――――――――――――――――――――――――――――――

<タイトルを決めて、サムネイルから生成AIで企画してみた>

セミナーのタイトルとサムネイル画像をClaude3(クロード3)に読み込ませ、セミナーの内容を企画されたとのこと。まさに生成AIの活用例です。生成AIによるセミナー企画について、豊藏氏にお話しいただきます。

※Claude3は、OpenAIが開発したGPT-4と同様、大規模言語モデルに基づいた生成AI。GPT-4より高性能と話題になった。

豊藏:セミナーのタイトルとサムネイル画像は宮田さんとともに作成しました。そこから先は、AnthropicのClaude3 を使って企画しています。

Claude3へのインプット

  • セミナーのタイトル
  • セミナーのサムネイル画像

Claude3への投げかけ

“このセミナー(画像を添付)を実施しようと考えています。
タイトルは「SEOに取り組む企業が“今”考えるべき生成AIについて-法人SEOのプロが徹底討論-」です。昨今の生成AIのテーマのうち、SEOに関連したパネルディスカッションを行いたいと考えています。
どんなテーマが良いですか?”

Claude 3へのインプット内容

その回答が、以下です。

内容に問題がなかったので、セミナーのページ構成もClaude3にお願いしました。

※実際に作成されたページ

生成AIを使うかどうかは、シンプルに求めるアウトプットが出てくるかがポイントです。

今回は、セミナータイトルとの整合性があり、宮田さんとディスカッションできる内容だったので、生成AIを使って良かったという結果になりますね。

――――――――――――――――――――――――――――――――――――――――

【テーマ1】生成AIによる検索エンジンアルゴリズムの変化予測と対応策

議論するテーマもClaude3が企画したものとのこと。「生成AIによる検索エンジンアルゴリズムの変化予測と対応策」に関して、6つの切り口、12個の論点が出力されました。

ここからはSEOと生成AIに焦点をあてて、豊藏氏と宮田氏が議論を交わします。

■論点1:コンテンツの質や独自性の評価方法の変化

検索エンジンがコンテンツの質や独自性をどのように評価しているのか、気になる人が多いでしょう。法人SEOのプロであるお二方は、日頃から多くの企業様に聞かれているとのこと。

このパートで登場したポイントは、以下の4つです。

  • 機械的に作られたコンテンツかどうか
  • E-E-A-Tなどの評価基準
  • 誰が発信しているのか
  • ドメインの強さ

宮田:コンテンツの質や独自性の評価方法は、2段階で評価するように変わりつつあると思います。

まずは、機械的に作られたコンテンツかどうかの評価。コピーページではないか、そもそも内容が間違っていないか、という観点での評価です。

そのうえで、E-E-A-Tなどの評価基準によって最終的なコンテンツの評価が決まると捉えています。

豊藏:私は、「誰が言っているのか」、「強いドメインかどうか」が重要だと捉えています。

ページ単体を評価するアルゴリズムの強化はとても大切ですが、昨今のAIへのリソース投下もあり、インデックス数を絞るなど、別な形で評価を効率化するのではないかと思っています。

宮田:私は検索アルゴリズムには、まだまだ分析の余地があると考えています。例えば、生成AIが作ったコンテンツのクセです。

豊藏さんが言うように、ドメインの強さや被リンクの数なども重要です。しかし、Googleの検索アルゴリズムは人の目に見えない部分でコンテンツの質を見ています。ページの質を重視しているからこそ、私たちがまだ見つけられていないアルゴリズムの変数を分析する必要性があるのではないでしょうか。

ただ、Googleは生成AIで作ったコンテンツを否定してはいません。「AIで作ったページだから評価を下げる」ではない点、誤解のないようにお願いします。

――――――――――――――――――――――――――――――――――――――――

■論点2:生成AI時代のSEOに求められる専門性

SEOの専門性は以前から必要でしたが、生成AI時代になって求められる専門性に変化はあるのでしょうか。開発やITコンサルティングなどのバックボーンを持ち、法人SEOのプロとして活躍されているお二方の考えは必聴です。

このパートで登場したポイントは、以下の3つです。

  • Googleのアルゴリズムへの理解
  • Googleの考えを理解したうえでAIツールをどう活用すべきか考えられる力
  • Webの知識とGoogleが評価する仕組みを理解する力

宮田:Googleのアルゴリズムへの理解がとても大切だと思っています。SEOは非常に大きな産業となりました。ですが、関わる人のおよそ8割は「コンテンツSEO」をやっています。

そのため、Googleのアルゴリズムを読み解ける「テクニカルSEO(データベースSEO)」に強い人はまだまだ限られている状況です。それだけに、Googleがどういう評価をしているのかを理解することが大切です。

生成AI時代では、Googleを理解したうえでAIツールを使いこなせるかが、企業のSEO競争力に影響すると思います。例えばライターはAIに代替され、ディレクターはGoogleの理解度とAIツールの活用が当たり前になるでしょう。

豊藏:SEOを理解するには、Webの知識が影響します。使われているサーバや技術がどのようなもので、Googleはそれをどう評価しているのか。この仕組みを理解しておかなければなりません。エンジニアが有利な世界と言われる理由はここにあります。

そのため、Webとは何かを知り、「外してはいけないポイント」を的確に押さえることが、SEOの腕につながります。加えて、方向性やビジョンを描く能力を持った人材が強く求められると考えています。

宮田:まったくの同意です。SEOの基礎はGoogleが持つ特許に基づいた考え方なので、そこを押さえられれば大丈夫です。基礎の考え方・仕組みを理解していれば、AI時代も乗り越えられます。

ただ、生成AI時代にコンテンツがどのように評価されるかは、知っておくほうがいいでしょう。

――――――――――――――――――――――――――――――――――――――――

【テーマ2】生成AIによるコンテンツ自動生成がSEOにもたらす影響と対策

続いてのテーマは、「生成AIによるコンテンツ自動生成がSEOにもたらす影響と対策」です。6つの切り口、12個の論点のうち、以下の3つについて豊藏氏と宮田氏が議論を交わしました。

  • 生成AIを使うべきか、使わざるを得ないのか
  • 生成AIコンテンツの品質担保
  • 生成AIコンテンツとオリジナルコンテンツの棲み分け

■論点3:生成AIを使うべきか、使わざるを得ないのか

生成AIは便利ですが、必ずしも求めるアウトプットが出るとは限りません。そのため、生成AIの活用に対するスタンスは分かれるところです。法人SEOのプロは、生成AIの活用に対してどのように考えているのでしょうか。

このパートで登場したポイントは、以下の3つです。

  • 市場原理から考えると、生成AIを使わざるを得ない
  • コンテンツの良し悪しで評価される
  • Googleは生成AIの活用に寛容な姿勢

宮田:生成AIは使わざるを得ないと思います。そもそもSEOは相対評価だからです。

ある企業が生成AIでコンテンツを大量に作り、特定のキーワードで検索上位を独占したとします。これに対抗するには、同様に大量のコンテンツを作らざるを得ません。SEOの理論というよりも、市場原理として生成AIを使わざるを得ない、と言えるでしょう。

もう一つ、「生成AIコンテンツに対するGoogleの姿勢と今後の方針予測」にも触れます。これは明確で、コンテンツの良し悪しで評価されます。

Googleは、AIを使っている・使っていないは気にしないスタンスです。AIを使って良いコンテンツを作れるなら「使ってください」なので、寛容と言えますね。

豊藏:1つ悩むのは、AIが作成したと明記するかどうかですね。AIでコンテンツを作ったとしても、人の手が入っているためです。

宮田:そうですね。ただ、AIを使って作ったコンテンツと明記したからといって、Googleの評価は下がりません。検索順位に関しては、心配する必要はないと思います。

――――――――――――――――――――――――――――――――――――――――

■論点4:生成AIのコンテンツの品質担保

生成AIで作ったコンテンツの品質担保は、コンテンツSEOに関わる人が最も気になるテーマの1つでしょう。Googleは生成AIが作ったかどうか気にしないスタンスとはいえ、コンテンツである以上、評価はしているはずです。

このパートで登場したポイントは、以下の4つです。

  • 品質チェックのための校閲は必須
  • 「AIっぽさ」が嫌われる雰囲気があるものの、問題はない
  • ハルシネーションは注意が必要
  • コンテンツを公開した責任を持つ

宮田:生成AIで作ったコンテンツの品質担保は、従来どおり校閲し、人がチェックするのがいいですね。コンテンツの整合性や品質は、誰が作ったかに関わらず確認すべきです。

ただ、AIが作ったコンテンツには、特有の「AIっぽさ」があります。これが何となく嫌われる雰囲気があるだけで、特に問題はありません。

豊藏:私は品質の平準化の問題が大きいと思っています。生成AIを使う時間帯や状況、インプットによって、アウトプットが安定しない部分があるためです。調子が悪いと品質をコントロールしきれない印象を持っています。

そのため、公開したコンテンツの品質に責任を持つことが大切です。私にとって生成AIは、「すごく優秀な外注さん」みたいなものです。誰が作ったのかが見えないだけに、少し怖さがありますね。

――――――――――――――――――――――――――――――――――――――――

■論点5:生成AIコンテンツとオリジナルコンテンツの棲み分け

生成AIに適したコンテンツと人が作るべきコンテンツの線引きについて、議論していただきました。YMYL領域や取材記事など、コンテンツと言ってもさまざまです。生成AIを使うかどうか、どのように判断されているのでしょうか。

このパートで登場したポイントは、以下の4つです。

  • 競合が少ないキーワードは生成AI
  • YMYL領域で生成AIはリスクが伴う
  • サイトの有機性に繋がる手の込んだコンテンツは人の手
  • コンテンツ公開後のレピュテーションにも注意が必要

宮田:私は、競合が少ないキーワードは、生成AIで一気にコンテンツを作ってしまえと思うタイプです。初期に多くのユーザーを獲得し、そのテーマのスコアを一時的に上げることが重要だからです。

一方で、YMYLなどの分野で確認の甘いコンテンツを大量に公開すると、後戻りできない危険性があります。キーワードや領域によって生成AIを使うかどうか、線引きしたほうがいいですね。

取材記事やレポート記事、体験記事など、手の込んだコンテンツはサイトの有機性に繋がります。ユーザーエンゲージメントに大切なコンテンツなので、ここにお金をかける企業が増えると思います。

豊藏:なるほど、分かります。

宮田:ただ、インタビュー記事もAIが作れるようになるんだろうなとも思っています。

豊藏:コンテンツの品質も大切ですが、SEOのリスクを考えることも重要です。

ある企業がオウンドメディアでAIが作ったコンテンツを大量に公開したとします。一時的に成果が出る反面、検索結果に表示されるコンテンツは誰に見られているかわかりません。もしネガティブなレピュテーションが事業に影響する領域だった場合、SEOの取り組み自体がリスクに繋がる可能性があるのです。

そういう領域で事業を行う企業は、丁寧にコンテンツを作るべきですね。

先ほど宮田さんがおっしゃったように、オリジナルコンテンツをどのようにAIと絡めていくかは、今後のAIの技術進歩にとっても大きなテーマだと思います。

――――――――――――――――――――――――――――――――――――――――

【テーマ3】生成AIを有効活用しながらも、オリジナリティのあるSEOを実現する方法

最後のテーマは、「生成AIを有効活用しながらも、オリジナリティのあるSEOを実現する方法」です。時間の関係上、議論された論点は1つでしたが、コンテンツ作成においてどこを生成AIに任せ、どこに人の手を入れるべきか、お二方の考えを知ることができました。

■論点6:オリジナリティのあるコンテンツ企画の立て方

コンテンツを作る際、生成AIで構成を作る、執筆させる、そもそもコンテンツのテーマを考えさせるなど、使い方は人によってさまざまです。法人SEOのプロは、コンテンツを作るにあたって生成AIをどのように使っているのでしょうか。

このパートで登場したポイントは、以下の4つです。

  • 執筆は生成AIでいい
  • 構成は人が作るべき
  • コンテンツのネタを練ることが重要
  • インプットが品質を左右する

宮田:ペルソナを決めるとか構成案を出す部分までAIでやっている企業があるんですが、「それって大丈夫なの?」と思っています。執筆はAIでいいんです。ですが、最初の構成を決めるのは人間がやるべき。理由は、AIが出す構成案のレベルが低いからです。そこの部分は人間がやるべきだと考えています。

豊藏:ネタをしっかりと作ることが重要ですね。いかにオリジナリティのあるネタを作れるか。インプットをどのように構築するか。ここが品質に大きく影響すると思います。

まだまだ議論を交わし足りないお二方でしたが、セミナー終了の時間となってしまいました。ここで中締めし、延長戦としてQ&Aに続きます。

――――――――――――――――――――――――――――――――――――――――

<Q&A>

【質問1】都会と地方のSEO対策の違いについて教えてください。

宮田:SEOには2つの区切りがあります。1つがドメインベースで獲りにいくもの。もう1つがエリアのキーワードで獲りにいくものです。

例えば、事業ドメインであれば「クレジットカード」というキーワードで1位を取りにいくことになります。一方、地方であればやや難易度は下がります。SEO会社にはエリアに強いところがあるので、地方でのSEOを強化するなら、そういった企業に任せてみてはいかがでしょうか。

【質問2】生成AIで記事を作る際の適切なインプット量を知りたいです。また、効果を上げるために、アウトプットでチェックするべきポイントも知りたいです。

宮田:アウトプットのチェックに関しては、先ほどお話した通りですね。

豊藏:プロンプトがどうこうと言うよりも、目的をきちんと言語化し、明確にすることのほうが重要だと思います。情報量を詰め込むよりも、シンプルにどういうことを自分がしたいのかを突き詰めて考えていく。そのほうが、AIを上手く使えると思います。

【質問3】SEOに生成AIは比較的使いやすいのですが、企業のホームページを作成する際には、まだうまく使いこなせていません。SEOとは異なる使い方のポイントがあれば教えてください。

宮田:SEOコンテンツ以外でも使えると思っています。まず作りたいページの構成をしっかりと決めて、後はライティングをするというやり方であれば、既存のプロンプトでも十分に使えると思います。

【質問4】再生医療のクリニックを経営しています。AIを社内に取り入れ記事を書きたいのですが、どのように取り組めばよいでしょうか。生成AIによって医学的な記事も書けるのかどうかを教えてください。

宮田:先ほども申し上げたように、医学的なコンテンツであっても構成をしっかりと作って、執筆はAIに任せるのは大丈夫です。ただ、その情報が正しいかどうかが非常に重要です。YMYL領域は、Googleの評価基準が高いですよね。それだけに誤った内容があると、ページやドメインの評価が著しく落ちてしまいます。

その品質を担保できれば、問題はありません。ただ、再生医療の領域はYMYLのど真ん中なので、生成AIを使うのは若干危険かなと。まだ生成AIに情報が少ない現在の状況でやるのであれば、我々のような専門家に相談いただくのが最適と思います。

【質問5】AIの可能性に期待する一方で、AIを使ったコンテンツはGoogleからのペナルティを受けるのではと心配です。どのようにすればペナルティリスクを下げられますか?

宮田:基本的に有益なコンテンツであれば問題はありません。私自身、構成だけ自分で作ってほぼノールックで作ったコンテンツと、ガチガチにチェックして作り込んだコンテンツを比較しましたが、結果はほとんど変わりませんでした。

ただし、YMYLのように評価基準が高い領域で雑にコンテンツを作るのは危険です。しっかりと人力でファクトチェックしてください。

生成AIは、コンテンツの質に影響するというよりも、コンテンツを作るスピードに大きく影響していると思います。従来は人力で1ヶ月かけていた制作が、生成AIなら1週間でできます。これまでは1ヶ月に数本程度だったコンテンツが、一気に30本・40本と更新できるんです。例えば私の知り合いのサイトで、1ヶ月に500ページを作ったところがあります。

豊藏:それはすごいですね!

宮田:ただ、結果的にページの評価は落とされました。

仮説ですが、ページの更新スピードに対して、サイトの成熟度が追い付いていなかったことが原因です。普通に考えて、ドメインを新規で作って1ヶ月で記事コンテンツが500ページも更新されるというのはおかしい。明らかな大量作成は怪しまれるので、そこは気を付けたいですね。

いきなり何百記事も入れるのであれば、きちんと被リンクをもらって「このサイトはお金をかけて運営している」ことを示さないといけません。ドメインが若い場合は注意した方がいいでしょう。

【質問6】SEOを依頼する際、どんなSEO会社に発注すればいいですか?

宮田:検索エンジンがどうだ、順位を上げるのが上手い、といった部分ではなく、しっかりと対話してコンサルティングしてくれる会社がいいと思います。残念ながら、市場環境やクライアントのビジネスまで深く理解した提案ができるSEO会社は少ないのが現状です。クライアントと対話して、深く理解してくれるコンサル力のあるSEO会社が求められているのではないでしょうか。

豊藏:本当にその通りです。SEOは手段でしかないんですよね。要は、知識が多い・少ないではなく、お客様の会社のことを理解した上で、SEOをどのように活用するべきかを考えることが我々の仕事です。私も普段からできるだけ専門用語とかを使わないように気を付けています。

それから「できる・できない」をハッキリとお伝えすることも意識しています。できないことは「できない」と言える人のほうが信用できると思うので、参考にしていただければと思います。

今回のセミナーは以上で終了となりました。

こちらの動画は、今回登壇頂いたCOUNTER様の運営するCOUNTER MARKETING CHANNELにて全編公開中です。

SEOに関してご相談があれば、ぜひお気軽にアイオイクス株式会社の豊藏氏、COUNTER株式会社の宮田氏にお問い合わせください。

seojapan

マーケティング担当者にとってなぜURLパラメータが重要なのか?扱い方や問題点を紹介

1 year 8ヶ月 ago

この記事は、BACKLINKOの「What Are URL Parameters? A Guide for Marketers and SEOs」を翻訳した記事です。
ウェブサイトのカスタマイズとデータ解析に役立つURLパラメータの使用法について紹介しています。
URLパラメータはウェブアドレスの「?」以降に続く文字列で、ウェブサイトの内容をカスタマイズするために使われます。これを活用することで、トラフィックの出典を特定したり、ユーザーの行動を解析するのに役立ちますが、検索エンジンの評価に悪影響を与える可能性もあるため、適切な使用が推奨されます。
基礎的なパラメーターの種類から使用方法、注意点など幅広く紹介しています。

URLパラメータは、Webサイトのコンテンツと機能を変更する URLに追加されるテキスト文字列です。または顧客の行動に関するデータを収集します。URLパラメータは、「?」に続くテキスト文字列として、WebサイトのURL内に含まれます。

URLパラメーターがユーザーエクスペリエンスを調整する方法の例を次に示します。robojan.gumroad.com/l/CFmodeling?layout=discover&recommended_by=staff_picks

URLの例は、次の要素で構成されます。

  • ベースURL
  • ? (URLパラメータの開始)
  • URLパラメータ

このURLには、2つのパラメータがあります。

  1. layout=discover:使用するページ レイアウト (ディスカバー レイアウト) を指定します。
  2. recommend_by=staff_picks:ユーザーがどのようにページを発見したかを示します。「staff_picks」が推奨ソースです。

しかし、大きな疑問は次のとおりです。

なぜこれがあなたにとって重要なのでしょうか?

この投稿では、次のことについて説明します。

  • URLパラメーターがマーケティングとSEOに与える影響
  • URLパラメータに対するGoogleの見解
  • URLパラメータに関する一般的な問題を回避するためのヒント

URLパラメータはどのように機能するのでしょうか?

URLパラメーターは、バリエーションごとに個別のURLを必要とせずに、ページのコンテンツや動作を変更します。

ユーザーがパラメーターを含むURLにアクセスすると、Webサーバーまたはアプリケーションはこれらのパラメーターを読み取り、ページのコンテンツを調整します。個別のページを多数作成する必要はありません。

デジタルマーケティングやWebサイト開発に携わっている場合、URLパラメーターを避けて通ることは出来ません。

では、それらがどのように機能するかを見てみましょう。

構造と機能

URLパラメータには常に、「key=value」形式のキーと値のペアが含まれます。

  • 「キー」は調整または追跡したいものです (例 : utm_source、言語)
  • 「値」はキーを定義します (例:fb、en_US )

たとえば、訪問者のインタラクションを追跡する Facebook広告の次のURLを考えてみましょう。eu.huel.com/products/huel-black-edition?utm_source=fb&utm_medium=cpc&utm_campaign=ROE_ACQ_PRO_PURCHASES_7D-CLICK_JJ24_ASC

キーと値の構造を使用した URLパラメーターの内訳は次のとおりです。

  • utm_source=fb:「utm_source」は、Web サイトのトラフィックの発信元を示すキーです。「fb」部分は、トラフィックが Facebookから送信されていることを示します
  • utm_medium=cpc:「utm_medium」はキーであり、この場合はトラフィック メディアを表し、「cpc」はクリック単価 (つまり、広告) としてのメディアを示します。
  • utm_campaign:「utm_campaign」はキャンペーン名を表すキーで、「ROE_ACQ_PRO_PURCHASES_7D-CLICK_JJ24_ASC」はキャンペーンの名前です。

補足:URL内に複数のパラメータがある場合は、各キーと値のペアをアンパサンド (「&」) で区切ります。

URLパラメータの種類

URLパラメータには、アクティブとパッシブの 2 種類があります。

アクティブパラメータ

アクティブなパラメータは、ユーザーのニーズに合わせてWebページのコンテンツまたは機能を動的に変更します。

以下に例を示します。

elcorteingles.com/en/electronics/search/?s=google+pixel+buds+pro

パラメータ「?s=google+pixel+buds+pro」は、サイトの検索機能を制御します。そして、検索フレーズに関連するページを表示します。この場合は「Google Pixel Buds Pro」です。

アクティブパラメータの使用例

アクティブなパラメータはさまざまな目的に役立ちます。主な用途は次の 3 つです。

1. Webページの動作または外観を変更する

アクティブなパラメーターは、Webページ要素の動作や外観を変更できます。これにより、ユーザー定義の設定に合わせてページが調整され、ユーザーエクスペリエンスが最適化されます。

たとえば、Googleのダークテーマに切り替えると、次のURLパラメータが有効になります。https://www.google.com/?pcccc=1​

2. コンテンツをパーソナライズし、カスタマイズする

アクティブなパラメーターは、ユーザーに表示されるコンテンツをユーザーの好みや過去の行動に合わせて調整し、よりパーソナライズされたエクスペリエンスを実現します。

たとえば、フィルタを使用しながら AirBnB Webサイトで宿泊施設を検索すると、選択したフィルタに固有のURLパラメータが有効になります。

https://www.airbnb.com/rooms/46050063?Adults=2&category_tag=Tag%3A5348&enable_m3_private_room=true&photo_id=1160550891&search_mode=flex_destinations_search&check_in=2024-03-17&check_out=2024-03-22&source_impression_id=p3_1 710343718_yhRYPkxp8vEcKmFz&previous_page_section_name=1000&federated_search_id=7dfc3a2c-d135-4548-8220-d9272077cd68&ゲスト=3&子供=1

3. 動的なコンテンツ作成のサポート

アクティブパラメータは、ユーザー入力、設定、またはコンテキスト情報に基づいてコンテンツを動的に生成します。

たとえば、AccuWeatherで時間ごとの天気予報を指定すると、次のURLパラメータが有効になります。accuweather.com/en/es/madrid/308526/hourly-weather-forecast/308526?hour=1710352800

パッシブパラメータ

パッシブパラメータは主に追跡と分析に使用されます。Webページのコンテンツや機能は変更されません。

ClickUp広告の例を次に示します。

clickup.com/compare/monday-vs-clickup?utm_source=google&utm_medium=cpc&utm_campaign=trial_all-devices

この例では、「?」に続くパラメータは受動的です。サイトの外観や機能を変更することなくデータを収集します。

補足:URLパラメータはさまざまな方法で設定されます。Web開発者がWebサイトを構築するときに手動で追加する場合があります。また、誰かがサイトを使用したときに自動的に作成されることもあります。

サーバーは、コンテンツをより適切に整理するためにそれらを作成することもできます。さらに、マーケティングおよび分析ツールを使用すると、特別な追跡パラメーターをURLに追加して、特定のキャンペーンのパフォーマンスを簡単に確認できるようになります。

マーケティング担当者にとってURLパラメータが重要なのはなぜですか?

URLパラメーターは、動的なWebサイトを構築する際の技術的な役割を超えて、マーケティングキャンペーンの分析と改良にも役立ちます。

それらを使用して次のことができます。

  • Webサイトへのトラフィックを促進するチャネルを特定する
  • 訪問者が、ウェブサイトとどのようにやり取りするかを理解する
  • 訪問者の行動に基づいて、コンテンツとユーザーエクスペリエンスを調整する
  • マーケティング活動のパフォーマンスとROIを評価する
  • インフルエンサーマーケティングのキャンペーンの効果を評価する

GoogleによるURLパラメータの扱い方

Googleは、URLパラメータを理解して読み取ります。

クローラーはそれらをクロールできます。そしてGoogleは、それらをインデックスに登録できます。

実際、どのパラメータが重要で、どれが重要でないかを特定するのが上手になりました。

しかし、これまで見てきたように、このプロセスは完璧ではありません。

したがって、起こり得る複雑さを避けるために、URL パラメータを注意深く管理する必要があります。

URLパラメータがSEOの問題になるのはどんな時か?

URLパラメーターは、下記の場合などでSEOの問題になります。

  • 重複したコンテンツ
  • 予算の無駄をクロールする
  • リンクエクイティの分配
  • URL構造とユーザビリティの問題

それぞれを詳しく見てみましょう。

重複コンテンツの問題

URLパラメーターを使用して、サイト上のアイテムを並べ替えたりフィルター処理したりすると、ほぼ同じコンテンツを表示する複数のURLが作成される場合があります。

これにより、コンテンツの重複の問題が発生する可能性があります。そして検索エンジンを混乱させます。

その結果、検索結果で「ページのどのバージョンを優先すべきか」を特定するのに苦労する可能性があります。

3 つの重複ページはすべてランク付けに苦労します

クロールバジェットの問題

インターネット上には10億を超えるWebサイトが存在するため、GoogleのWebクローラーが単一のWebサイトをクロールするのに費やすことができる時間には制限があります。この時間はクロールバジェットと呼ばれます。

Webサイトに多くのURLパラメーターのバリエーションがある場合、クロールバジェットの問題が発生する可能性があります。

基本的にクローラーは、同様のページのクロールに多くの時間を費やし、Webサイト上の他の重要なコンテンツを無視する可能性があります。これは主に、数千(またはそれ以上)のページがあるWebサイトで問題になります。

ページ総数が非常に多いとインデックス作成に影響を与える可能性があります

リンク株式の希薄化

チャネルのSEO値を、あるページから別のページにリンクします。

リンクエクイティ (またはリンクジュース) として知られるこのSEO値は、サイトのランキングの向上に役立ちます。

ただし、リンクが同じURLのさまざまなバージョンを指している場合、リンクの資産はそれらのバージョン間で分割されます。

その結果、検索エンジンは各URLを別々のものとして認識するため、リンクの資産の可能性全体が希薄になります。それらが同じコンテンツを指していると認識するのではなく。

リンク株式の希薄化

SEO に優しくない URL

追加パラメータが多すぎるURLはかなり長くなり、見た目が悪くなります。GoogleのURL構造のベスト プラクティスでは、 URL構造をシンプルで読みやすく保つことが推奨されているため、そのアドバイスに従うことが最善です。

また、長いURLは検索結果で切り詰められて表示されないため、クリックスルー率に影響を与える可能性があります。

Google SERP – URL

URLパラメータのベストプラクティス

URLパラメーターが、Webランキングやユーザーエクスペリエンスに悪影響を及ぼさないようにするには、次のベストプラクティスに従ってください。

1.正規タグを使用する

検索エンジンが、正規タグを使用してWebページの元のバージョンを識別できるようにします。

ベースURLにパラメータが追加された、Reddit広告からのこのInboxally URLを見てください。inboxally.com/?rdt_cid=4345946952391789066&utm_campaign=getoutofspam&utm_medium=cpc&utm_source=reddit

次に、ページのHTMLコードを見てください。canonicalタグが使用されていることがわかります。

インボックス – 正規タグ

これらのタグは、検索エンジンがページの元のバージョンを指すようにするため、そのバージョンにインデックスを付け、他のバリエーションは無視します。

2. URLパラメータの使用を制限する

URLはクリーンかつシンプルに保ちます。必要な場合を除き、URLパラメータの使用は避けてください。

例えば:

次のように、URLパラメーターを使用してWebページの言語を変更することができます。https://www.yourwebsite.com?lang=en-us

ただし、もっと良い方法があるため、お勧めしません。

URLパラメーターを使用する代わりに、サブドメインを使用することをお勧めします。Semrushのやり方は次のとおりです。

https://es.semrush.com/

Slackなどのサブディレクトリを使用することもできます。

https://slack.com/intl/de-de

3. メタタグとrobots.txtを賢く使用する

メタタグを使用して、どの検索エンジンにインデックスを付けるかを制御します。これには「noindex」タグを使用できます。

さらに、robots.txtファイルは、Webサイトの検索エンジンのクロールを許可するページを管理します。これを使用して、検索エンジンが不要なパラメーターを含むURLにアクセスするのをブロックします。

robots.txtファイルは非常に重要であるため、Googleもクローラーが重要でないページをクロールするのを阻止するためにこのファイルを使用しています。

Google – Robots.txt

4. ユーザーフレンドリーなURLを使用する

明確で説明的な短いURLを優先します。次のような長くて複雑なものは使用しないでください。https://www.yourwebsite.com/products?category=laptops&id=1234

代わりに、次のような単純なパスベースのURLに置き換えます。https://www.yourwebsite.com/laptops/dell-latitude-550

5. Webサイトを定期的に監視および監査する

SemrushのSemrush – Site Auditなどのツールを使用して、定期的なWebサイト監査を実施します。これらは、URLパラメータによって引き起こされる可能性のある問題を特定するのに役立ちます。

Site Auditツールの使用を開始する方法は次のとおりです。

ドメインを入力し、「監査を開始」ボタンをクリックします。

Semrush – サイト監査

クロール範囲、監査に含めるか監査から除外するか特定するURL、クロールソースなど、監査のさまざまな設定を変更できます。

ほとんどの場合、デフォルト設定のままで「サイト監査の開始」をクリックします。

サイト監査 – 開始

監査が完了すると、発見されたすべての問題の概要を示す詳細レポートを確認できるようになります。

サイト監査 - レポート

ここから、「問題(Issues)」タブをクリックします。

サイト監査 – [問題]タブ

問題のリンクされた部分をクリックします。

Backlinko サイトの問題

これにより、その特定の問題が発生しているすべてのページのリストが表示されるページが表示されます。

問題とそれに対処する方法の詳細を確認するには、「理由と修正方法(Why and how to fix it)」リンクをクリックしてください。

バックリンコ – 間違ったページ

6. サイトマップを最適化する

サイトマップを使用して、検索エンジンがサイトをどのようにナビゲートするかをガイドします。

インデックスを作成するページの元のバージョンである正規URLのみを含めます。

これを行う方法は次のとおりです。

まず、現在のサイトマップを確認して、正規URLのみが含まれていることを確認します。

次に、トラッキングパラメータなど、コンテンツに大きな変更を与えない不要なURLや、検索エンジンから意図的に隠しておきたいページを削除します。

最後に、更新したサイトマップをGoogle Search Consoleを通じて送信します。

7. URL書き換えの実装

URLの書き換えには、複雑なURLをより単純でわかりやすい形式に自動的に変換することが含まれます。

このサーバー側のプロセスは、URLをより説明的かつ簡潔にすることで、SEOとユーザーエクスペリエンスに役立ちます。

たとえば、URLを次のように変更できます。

www.yourwebsite.com/product.php?id=123

次のような読みやすいバージョンにします。

www.yourwebsite.com/electronics/smartphone-model-x

URLを書き換えると、訪問者には簡易バージョンが表示されます。ただし、サーバーは依然としてそれを元の複雑なURLとして認識します。

URL書き換えを実装する

URLパラメータは、Web サイトのランキングに悪影響を及ぼしていますか?

URLパラメータにより、重複コンテンツが誤って作成される可能性があり、サイトのランキングに悪影響を与える可能性があります。

これが事実かどうかを知る最良の方法は何でしょうか?

Webサイトの監査を実行します。

このプロセスをガイドするには、15ポイントのチェックリストSEO監査テンプレートを使用してください。

ウェブサイトをGoogleやその他の検索エンジンにとって最高の状態に保つために、ウェブサイトのヘルスチェックを行う時期が来ました。

seojapan

SEOのためのアジャイル プロジェクトに優先順位を付ける方法

1 year 8ヶ月 ago

本記事はSearch Engine Land「Agile for SEOs: How in-house teams get projects prioritized」を翻訳した記事です。アジャイル手法が、社内SEO担当者がプロジェクトに優先順位を付け、部門を超えたチームで実行するのにどのように役立つかを説明しております。4月から新しいSEOプロジェクトに参加される方などぜひ一読してみてください。

SEOに関する推奨事項やプロジェクトがシャッフルの中で埋もれてしまったり、他のチームによって優先順位が低くなったように感じたことはありますか?

社内で働いている場合は、最適化作業に適切なリソースを確保して実装する際に、「逃すことへの恐怖」(FOMO)を経験したことがあるでしょう。

良いニュースは、「アジャイル」と呼ばれるプロジェクト管理方法論が、部門を超えたチームの自己組織化とより効果的なコラボレーションに役立つことです。

アジャイルの儀式(会議)とプロセスを理解することで、開発サイクルとより適切に統合し、開発サイクルに影響を与え、SEO要件が見落とされないようにすることができます。

この記事では、アジャイル手法の主要な側面を取り上げ、参加を目指すべきさまざまなアジャイルミーティングの計画を立て、SEOの変更が優先されて開始されるように効果的なチケットと承認基準を作成する方法に関するヒントを提供します。

FOMOに別れを告げ、アジャイルプロセスの力を通じて SEO作業を開始しましょう。

アジャイルなプロジェクト管理でFOMOを阻止する方法

アジャイルなアプローチにより、物事を成し遂げるチームのプロセスにあなたも参加することができます。 

AIがトレンドになっているかもしれませんが、私はアジャイルフレームワークは存続すると信じています。人工知能やソフトウェア知能に依存するAIとは異なり、アジャイルはタスクを達成するためにチームが自然に組織される方法に依存します。

具体的な機能と改善を優先します。主要なテクノロジーチームは、複雑なプロジェクトの管理におけるビジネス価値と効率性を高めるために、アジャイルを採用することが増えています。

アジャイル手法の概要

アジャイルプロジェクト管理は、プロジェクト作業を小さな増分セグメントで管理する方法であり、イテレーションまたはスプリントと呼ばれる短期間で簡単に割り当て、管理し、完了することができます。 

従来、プロジェクト管理はウォーターフォールスタイルのアプローチに従っていました。この方法では、すべての作業が前もって完了し、後で顧客のフィードバックが収集されます。

このプロセスが完了するまでに数か月かかる場合がありますが、特に競合他社に先駆けて製品MVPを市場にリリースしたい場合には、必ずしも理想的とは限りません。(聞き覚えがある?) 

アジャイルスタイルは、作業が短いサイクル (スプリント)で完了するように設計されており、(製品自体と関係するチームの両方に対する)フィードバックと改善がプロセスに組み込まれているため、より反復的です。 

アジャイルのルーツはソフトウェア開発の世界にあります。重要な要素は次のとおりです。 

  • プラン
  • 届ける
  • 学ぶ

文脈として、これはアジャイル ソフトウェア開発のマニフェストです。 

アジャイルは12の原則に基づいています。

私のお気に入りは次のとおりです。 

  • ビジネス担当者と開発者は、プロジェクト全体を通じて毎日協力する必要があります。
  • 優れた技術と優れた設計に継続的に注意を払うことで、機敏性が向上します。
  • チームは定期的に、より効果的になる方法を検討し、それに応じて動作を調整します。
  • わかりますか?チームがアジャイルを使用すると、途中の全員が実際の作業に取り組むチームの一員になります。全員が力を合わせて大きなことを成し遂げます。

アジャイルの原則は本質的にコラボレーションと継続的な改善に関するものです。どの組織でもこのアプローチを使用して無駄のない思考と運用を行い、顧客に価値を提供できます。 

以前の記事では、アジャイル手法と、それがスクラムフレームワークを使用して実行される方法について言及しました。

スクラムベースのプロセスは反復的であり、迅速な市場参入を可能にするため、大規模または複雑なソリューションを処理するのに最適です。これにより、チームは顧客からのフィードバックから学び、継続的な改善を組み込むことができます。

一方、カンバンとウォーターフォールの方法論は通常、より段階的で直線的なアプローチを採用します。 

コアアジャイル チームは通常、次のメンバーで構成されます。 

  • プロダクトマネージャー
  • プロジェクト/プログラムマネージャー。
  • エンジニアリング、ユーザーエクスペリエンス、QA、SEOなどの中小企業などのサポート チームをリードします。 

この構造の中で、毎日および毎週の儀式(または会議)は、全員が仕事に向けて調整し、物事を前進させるのに役立ちます。

この作業は、通常 1 ~ 2 週間の期限付きスプリントで完了するように設計されています。チームが望ましい速度を達成するには、特定のスプリント内のすべてのチケットがその時間内に終了する必要があります。 

さらに詳しく: SEO プロダクト管理: 主要なフレームワークと基礎

画像クレジット: Sean Morrison、Technology Program Management、Under Armour 

それは継続的なサイクルです。このように、段階的な改善は、アジャイルリリース トレインと呼ばれるものを使用して達成されます。

eコマース サイトの場合、これらのチームは商品詳細ページ、オンサイト検索機能、チェックアウト プロセスなどの側面を改善します。 

アジャイルチームと統合する方法 

概念的には、これはアジャイルを使用した部門横断的なチームのワークフローを理解することです。さて、同じく SEO の専門家である Aleyda Solis は次のように書いています。 

「 SEOをWeb開発、デザイン、製品チームの目的と一致させることで、全員が同じ認識を保つことができます。これにより、SEO ニーズに優先順位を付ける最適な方法を特定し、他のチームの担当者と行動計画を作成して、全員が同じ方向を向いて進むことができるようになります。

たとえば、Web開発チームがスプリントで作業している場合、各スプリントの長さを知ることで、各スプリントの適切な目標を調整するのに役立ちます。」

スプリントの期間を知ることに加えて、重要な会議にいつ、どこに参加するかを理解することが重要です。ビジネス関係者はスプリントのさまざまな時点で参加します。したがって、より広範なアジャイルスクラムプロセスを把握すると、さらに多くのコンテキストが得られます。

アジャイルスクラムを使用するチームの会議の習慣を学び、慣れるのに時間をとらないと、混乱の感覚が永続する可能性があります。どこにいて、何をすればよいか、他のチームに仕事を手伝ってもらう方法もわかりません。

重要なのはパターンを見つけることです。

このパターンを認識して、誰と共同作業するか、いつ会議を開催するか、何を準備する必要があるかを把握できるようにガイドします。

アジャイルプロセスに関与する個人から始めましょう。

指揮者を見つける 

まず、プロダクトマネージャーを見つけます。

あなたがビジネス関係者であれば、この日常のプロセスからはほとんど関わっていません。この担当者は、アジャイル チームの会議リズムの調整を支援するタッチポイントとなり、チケットをどこにどのように送信するかについてアドバイスをくれます。

ビジネスオーナーは主に最初(チームへの「要求」を定義するため)と最後(出力を検証するため)に参加します。 

2 番目に見つけるのはリリーストレインエンジニア(基本的にはリードエンジニア)です。

この担当者は、アジャイルなリリーストレインの実行を促進し、途中でリスクと依存関係を管理します。この担当者は、リクエストを正常に開始できるように、リクエストの実装方法に関する技術的なニュアンスをほぼガイドできます。 

余談になりますが、プロジェクトマネージャーも特定しておくとよいでしょう。(このロールには、スクラムマスターからデリバリーマネージャーまで異なる名前を付けることができます。)

機能的には、チームの現在のスプリントとバックログ(取り組むべきチケットのラインナップ)を整理するという点でプロダクトマネージャーをサポートし、通常、作業の進行状況についてより広範な組織に報告します。 

組織内でこれらの役割を特定すると、参加すべきさまざまな会議に案内するのに役立ちます。 

アジャイルプロジェクト管理の儀式(会議)

2 番目のステップは、どの会議に参加すべきか、そしてチームを前進させるためにどのように貢献するかを知ることです。 

このセクションでは、ビジネス関係者としてどこに計画を立てる必要があるか、会議の種類、いつ開催されるか、誰が出席するかを計画します。私は SEOプロダクトマネージャーとして、対象分野の専門家であると同時にビジネス関係者であるという点で、パートナーとしても活動しています。 

アジャイル プロジェクト管理方法論をサポートするこれらの会議に参加することで、部門を越えたチームと協力して仕事を遂行しながら、知識を得ることができます。 

アジャイルではチームが自己組織化できるため、このプロセスの一部として見られる総会の用語と種類の概要を以下に示します。 

立ち上がる

これは多くの場合、特定の週に毎日または隔日で行われます。通常、これらは 15 分間の会議で、議題はチームの最新情報やチームの作業で妨げられている領域に関するラウンドテーブルです。

通常、ビジネス関係者はスタンドアップに出席しませんが、特に、チームのために取り組んでいるチケットについてチームが質問していることがわかった場合は、いくつかのスタンドアップに出席すると役に立つ場合があります。

ビジネス関係者としては、毎日のスタンドアップパーティーに招待されたいものです。これは、全員が何に取り組んでいるのか、どこでブロックされているのかを聞くためのフォーラムです。また、チケットに関連する質問がある場合は、あなたが答えることができます。

スタンドアップは新しい作品を紹介する場所ではないことに注意してください。それに適した時期はスプリント計画です。 

グルーミング

これは通常、スプリントのペースに応じて、1 時間、隔週、または毎週のミーティングです。ここでは、プロダクトマネージャーとプロジェクトマネージャーが、各チケットをスプリントに追加する前に、各チケットに関わる作業と労力のレベルについてチーム(エンジニアリング、デザイン/ユーザーエクスペリエンスなど)と話し合います。

各チケットのサイズと範囲を把握したら、スプリントに追加します。 

これは、ビジネス関係者が参加すべき重要な会議です。なぜなら、ビジネス関係者は、それに取り組んでいるチームにチケットを売り込み、質問に答え、優先度や重大度などの追加のコンテキストを提供するからです。準備を整え、簡潔に、わかりやすく、丁寧に話すことが重要です。 

グルーミングの準備として、チームに持ち込むチケットの種類を特定してチケットを作成します。ほとんどの場合、これは問題または機能強化のいずれかであり、次のように分類できます。 

  • バグ(つまり、かつては機能したが、現在は機能しなくなったもの)。
  • 新しい機能または機能。
  • 回帰(つまり、以前の機能が期待どおりに動作しなくなった)。

これについては、SEO チームが効果的なチケットを作成する方法 について詳しく説明します。チケットは、自分のチームの仕様を統合するためのガイドとして使用できます。 

ヒント: 受け入れ基準に定量的な指標を使用し、作業が完了したものとして表示および承認される場所のソースを提供します。(SEO の場合、ソース コードであることがよくあります。他のチームの場合、「カスタマーエクスペリエンスは X になります」になる可能性があります) 

ビジネスオーナーとして、チケットにリクエストと提案が明確に含まれていれば、仕事が完了する可能性が高くなります。 

洗練

これらの会議は 1 時間の会議になる場合があり、スプリントの現在のチケットのセットまたはバックログ内のチケットに適用できるため、必要に応じて開催されます。 

継続的な改善会議は、チームを団結させて要件を調整し、チケットの作業レベル(LOE)、QA入力などを調整することを目的としています。 

テクノロジーは急速に変化することは誰もが知っています。アジャイル プロセスのこの部分は、チームが要件を計画し、既存の市場状況に基づいて適応するのに役立ちます。 

スプリント計画

ここで、チームは今後のスプリントに含まれる作業を計画します。通常、各スプリントには 1 ~ 2 週間のタイムボックスが設定されており、その間にすべてのチケット(予定された作業)が完了します。 

効果的なスプリント計画により、チーム全体が各チケットの作業レベルを把握し、スプリント内で完了することができます。理想的には、ベロシティのKPI出力は右上がりの傾向になります。  

スプリント計画会議に参加すると、チームが短期的に取り組んで何を実現するのかを把握するのに役立ちます。

計画された作業の予測可能性があれば、チームは技術的負債や成長関連の取り組みのいずれかを少しずつ減らすことに集中できます。全体的な改善に向けて、攻撃的戦略と防御的戦略のバランスの取れた戦略を提供します。 

バックログの絞り込み

この会議は、チームがキューに入れているチケットの未処理分を整理したり優先順位を付けたりする必要がある場合に、必要に応じて開催できます。通常、この会議にはプロダクトマネージャー、プロジェクトマネージャー、エンジニアリングリーダーが参加します。 

アジャイルスクラム手法の大部分は、チームメイトがキャパシティが許す限り取り出せるように、常に「健全で手入れの行き届いた」作業のバックログを保持することです。 

通常、ビジネス関係者はこの会議に出席しませんが、プロジェクトマネージャーにチームのバックログについて尋ねると、チームがより多くの作業や分割可能な大規模なプロジェクトを引き受ける必要性や機会がどこにあるのかをよりよく理解できるようになります。 

ここでの効果的な言葉は「壊れた」ものです。アジャイルでは、大規模なプロジェクトは常に個別のチケットに分割されます。 

デモ/ショーケース

機能が機能し、運用環境またはライブ環境に入る前に関係者にデモする準備ができているときに発生します。 

プロジェクト マネージャーは、エンジニアリング チームが進捗状況をより広範な聴衆に共有して紹介する準備ができたときにスケジュールを設定します。これは、構築されたものが期待を満たしていることをチームが検証するタッチポイントであるため、ここでは関係者の出席が重要です。 

上で述べたように、定量化可能な受け入れ基準をチケットに含めるという徹底的な作業を行っていれば、開発プロセスのこの時点までに、チケットが完了したことを確認するのは簡単になります。 

レトロスペクティブ(レトロ

このミーティングはプロジェクト マネージャーによって企画され、スプリントの完了後に開催されます。ここでは、チーム全体が集まり、最近のスプリントで何がうまくいったか、何がうまくいかなかったか、そして将来に向けてどのように改善できるかを話し合います。 

外部関係者は、友情を築き全員の改善を支援する時期であるため、特に自分たちの作業がスプリントの一部である場合には、この会議に参加する必要があります。 

これを行うための優れた方法は、例として 1 ~ 2 枚のチケットと、起こった具体的な良いことまたは悪いことを準備しておくことです。事実にこだわり、どうすれば改善できるかを強調します。フィードバックは、チームとして活動する集団的な成長と改善の場から得られるべきです。 

ここでの重要なポイントは次のとおりです。時間と労力を求めてアジャイル チームに参加する場合、関係者はチケットに「何が」必要なのか(「方法」ではなく、 アジャイル向けの明確で簡潔な情報を提供する必要があります)チームが決定します。チームがソリューションの設計を進めることができるよう、チームが決定できるよう、返信は簡潔にしてください。

FOMOは沈静化しつつありますね?なぜなら、あなたも解決策の一部になるからです。 

もうない。恐れ。

アジャイルチームと再び協力するように依頼するにはどうすればよいですか?

なんだか中毒性がありますね。物事を成し遂げること。 

何かを実装すると、さらに欲しくなります。共同作業をしていると、FOMOが実際に治まり始めます。

チームの会議周期のカレンダーへの招待状がすべて揃っています。インターロックとコミュニケーションを促進するPOCと、いつチケットをレビューしてサインオフする準備ができているかを知っています。

カードを正しく使えば、社内のSlackチャネルに招待されることもあります。 

これらのチームと再び作業できるようにするための最善の方法は、チームが時間制限のあるスプリント内に完了することを共同で約束した作業を完了できるように支援することです(頭韻は楽しいものです)。これは、熱心に取り組み、準備を整えることで実現できます。 

要件を逃さないようにする方法

これを書き留めてください。数値化できるようにしてください。

最初に、質問を簡単な言葉で定義します。ここでは、問題と質問を具体化するのに役立つ、効果的な(および非効果的な)チケットとユーザー ストーリー プロンプトの例をいくつか示します。

もう一度、ソリスの言葉を引用します。 

「 SEO 関連の開発リクエストやチケットが正しく実装されていることを確認することは、SEO実行中に望ましい結果に向けた重要なステップです。」

はい!これを行うには、チケットに明確で定量化可能な受け入れ基準(AC)を定義します。 

ビジネスオーナーは、ACを提供して、何かがどのように機能するか、および/または望ましい顧客エクスペリエンスについての期待を規定できます。 

定量化できるほど、検証が容易になり、作業が完了したことをチームに評価することが容易になります。 

定性的な出力よりも定量的な出力の方が望ましいのは、後者は主観的であり、探しているものを正確に得られない可能性があるためです。 

たとえば、SEOプロダクト マネージャーとして、私がよく行うSEO関連のリンクのACの 1 つは、次のような形式になっています。 

  • <a href> は view:source 内にある必要があります。 
  • <a href> にはパラメータを指定しないでください。 

その基準は、コード内でそれを確認した場合の簡単な「はい/いいえ」応答です。その形式で存在するか、存在しないかのどちらかです。合格/不合格のQA。 

したがって、重要なのは、定量化可能な AC をチケットに含めることです。これにより、DoD(完了の定義)に関してチームと調整し、その完了を簡単にスポットチェックして検証できるようになります。  

自分の組織がアジャイルを使用しているかどうかを確認するにはどうすればよいですか?

文字通り、尋ねてください。プロダクトマネージャーの肩書を持つ人を見つけて、「ちょっと簡単な質問ですが、プロジェクト管理にアジャイル手法を使用していますか?」と尋ねます。もしそうなら、チームが現在のスプリントで計画していることを把握するために、毎日のスタンドアップ ミーティングに招待してもらえますか?」

その招待状を受け取ったとき。時間通りに出席してください(文字通り、会議は短いからです)。聞く。メモする。チームのセレモニーに参加すればするほど、その気持ちが身に染みていきます。 

そうやって物事を成し遂げるのです 

これで、物事を成し遂げる方法の最大の秘密がわかりました。これは大変なことだとわかっています。それはあなたにとって新しいもの、または異質なものかもしれません。そしてそれはすべて、日常の出来事に加えて行われます。しかし、これらのチームを見つけることには価値があります。アジャイルプロセスに組み込むことで、より広範なチームで物事を成し遂げることができます。

これが機能することが信じられない場合は、これまでどおり操作を続けてください。関与しないでください。すべてのチケットがどこかのチームのバックログに追いやられるのを見てください。ただし、大きなプロジェクトを立ち上げて変化を生み出したい場合は、試してみてください。ここで説明した内容を実装し、所有権を取得してこの方法で運用してください。必ず結果が出ることを約束します。アジャイルはアウトプットを目的として設計されています。 

社内SEOプロダクト マネージャーとして、私はアジャイル フレームワークについて学び、その中で運用する(そしてさまざまな企業で実践する)ことに慣れるまでに数年かかったと直接言えます。正直に言うと、私はまだ勉強中です。しかし、何でもそうですが、チームメイトと関わり、コミュニケーションを深めれば行うほど、作業は容易になります。 

seojapan

スキーマ マークアップの重要性: エンティティとの関係

1 year 8ヶ月 ago

この記事は、Backlinkoの「Schema Markup Guide: Help Search Engines Help You」の翻訳記事になります。ウェブページに追加するスキーママークアップ(構造化データ)の重要性とその方法について解説しています。

スキーママークアップは、検索エンジンにコンテンツの内容を明確に伝え、適切な検索結果に表示させるためのコードです。スキーママークアップがSEOにどのように役立つか、エンティティ(実体)との関連性などについて紹介しています。

また、スキーママークアップの種類や、それをウェブサイトに適用する方法についても詳しく説明しています。

スキーマ マークアップは、コンテンツの内容を検索エンジンに伝えるために Web ページに追加するコードです。

コンテンツの背後にある意味を Google に伝えることができれば、適切な人にコンテンツを表示できます。これにより、オーガニック トラフィックが増加し、コンバージョンが向上する可能性があります。

スキーマのマークアップは次のようになります。

Google SERPのスキーマ
スキーマ マークアップが正しく行われると、検索エンジンがクリックスルー率 (CTR) とコンバージョンを向上させるのに役立つコンテキストの Web が作成されます。

このガイドでは、次のことを学習します。

  • スキーママークアップとは
  • エンティティとの関係
  • SEO の成功にとってエンティティが重要な理由
  • Google が適切な視聴者にコンテンツを提供できるように、以下に示すようなページレベルのナレッジ グラフを作成する方法

上品なスキーマ – Nike – 視覚化

始めましょう。

スキーママークアップはSEOです

オンページ、オフページ、テクニカル SEOなどのスキーマ マークアップは、Google がコンテンツを理解するのに不可欠です。

スキーマ マークアップの核心は効率性です。

これは、検索エンジンが解釈や自然言語処理 (NLP) を必要とせずに明示的に理解できるキーと値のペアのセットを提供することです。

たとえば、次のスクリプトは、地元の企業(具体的には歯科医院) のスキーマ マークアップです。

スキーマのマークアップの例
今のところ、これは膨大なコードのように思えるかもしれませんが、数回スクロールすると、それぞれの意味が見えてくるでしょう。

スキーマ マークアップは、コンテンツが何に関するものなのか、誰を対象としているのか、そのコンテンツを公開することで誰が利益を得ているのかを宣言する方法です。

このように表現されると、EEAT の概念に非常に馴染みがあるように聞こえますよね。

それは、スキーマ マークアップは、ある意味で、検索エンジンがエンティティ間の点と点を結び付けるのに役立つからです。

スキーマの視覚化の例
上記のスキーマ マークアップを視覚化すると、これが Google が理解できる関係です。

各円はエンティティを表します。

エンティティ間の線は、それらのコンテキストと関係を表します。

実際、Google がスキーマ マークアップをどのように理解するかを ChatGPT に尋ねると、次のように説明されます。

構造化データ スクリプトは、「Boutique Dental Bondi」という名前の歯科医院を記述し、Web サイトと Web ページの両方として表示します。ビジネスのさまざまな側面とその相互関係について詳しく説明します。

アイデンティティとオンライン プレゼンス

ブティックデンタルボンディが主体です。これは、Web ページのコンテンツとしてと、Web サイトが表すエンティティとしての 2 つの役割を果たします。

「 Dentist」と「LocalBusiness 」を組み合わせて指定されています。

スキーマ – mainEntity
この診療所のオンラインでの存在感は、ソーシャルメディアプロフィールとオーストラリアビジネス登録へのリンクを通じて強化されています。これにより、その信頼性が確立され、デジタル フットプリントが拡大します。

スキーマ – 同じ

所在地と連絡先情報

オーストラリアのニューサウスウェールズ州ボンダイジャンクションにある診療所の物理的な場所が詳細に記載されており、完全な住所が記載されています。これにより、診療所のデジタル アイデンティティが具体的な現実世界の場所に接続されます。

スキーマ - アドレス
電話番号や Google マップのリンクなどの連絡先詳細により、直接のコミュニケーションや物理的な訪問が容易になり、潜在的な顧客とのオンラインおよびオフラインのやり取りの橋渡しが可能になります。

運用詳細

営業時間は毎日指定されており、いつサービスにアクセスできるかを潜在顧客に知らせます。これは訪問を計画する上で非常に重要です。

スキーマ – 営業時間

提供するサービス

このスクリプトでは、Boutique Dental Bondi が提供するさまざまな歯科サービスの概要を説明します。これらには、一般歯科および修復歯科、審美歯科、救急サービス、親知らずの抜歯が含まれます。各サービスは、それぞれの Web ページ上の詳細情報にリンクされており、ユーザーが特定のサービスを探索するための構造化された経路を作成します。

スキーマ – 知っていること
これらのサービスはより広範な概念にリンクされており、Wikipedia および Wikidata で利用できます。これにより、サービスに関する一般的なコンテキストがユーザーに提供されます。これは、各サービスの内容を理解するのに役立ちます。

では、スキーママークアップ SEO とは具体的にどのようなものなのでしょうか?

NLP は完璧とは程遠く、テキストを解析して意味を理解するプロセスにはコストがかかります。

スキーマ マークアップを使用してエンティティとエンティティ間の関係を識別すると、検索エンジンがすべての非構造化データを計算するために必要な作業量が削減されます。

したがって、文字通りコンテンツの配信を最適化することになり、したがってスキーマ マークアップを効果的に使用することが SEO となるのです。

しかし、これらすべてを理解するには、まずいくつかの重要な定義を説明する必要があります。

エンティティとは何ですか? SEO にどのように役立ちますか?

あらゆるものは一つの物です。

あなたは物であり、あなたのビジネスは物であり、あなたが提供するサービスや製品は物です。

そして、これらのそれぞれは個別の実体です。

したがって、あらゆるものをエンティティによって表すことができます。

あれは:

  • あなたは Person スキーマで表されるエンティティです
  • あなたのビジネスも組織スキーマで表されるものです
  • あなたのサービスや製品は個別の実体です

では、エンティティには何の意味があるのでしょうか?

とにかくGoogleはこれらのことを理解できないのでしょうか?

Google に十分な時間を与えてブランドを構築すれば、ほとんどのことは解決してくれるでしょう。しかし、SEO の重要な点は遅延時間を短縮することです。スキーマ マークアップを使用してコンテンツの内容を Google に伝えると、Google が点と点を結びやすくなります。

Backlinko を例に挙げると、ナレッジ パネル (左) に示されているように、Google はそれをビジネス エンティティとして認識し、これを Semrush のナレッジ パネル (右) と比較します。

Backlinko 対 Semrush – ナレッジパネル
2 つを並べてみると、Semrush のナレッジ パネルの方がより詳細な情報を備えていることがわかります。

ほとんどの人はナレッジ パネルを手に入れることに満足するでしょうが、Backlinko と Semrush はどちらも、それぞれのビジネス エンティティに対する Google の理解を向上させることができます。

どうやって?

スキーマ マークアップがその答えです。

スキーママークアップとは何ですか?

最も基本的な形式では、スキーマ マークアップは、解釈を必要とせずにマシンが理解できる言語です。

何年も前、大手の検索エンジン。Yahoo、Bing、Yandex、Google は、成長するインターネットの解析に役立つ一連の標準を作成するために協力しました。

彼らはこの標準に同意しただけでなく、この新しいタイプの言語を維持することにも同意し、こうしてSchema.org が誕生しました。

スキーマ.org
しかし、スキーマ マークアップは 1 つの言語だけではありません。実際、スキーマ マークアップには 3 つの言語があり、それぞれに独自のルールがあります。

スキーマは、個々の分類法で構成されるオントロジーから派生します。分類法とは何か、どのようなオントロジーが存在するかを決定するのは学者であり、彼らは平均的なマーケティング担当者ではありません。

これが、スキーマ マークアップ、構造化データ、ナレッジ グラフ、エンティティが非常にわかりにくいトピックとなる理由です。

つまりね。

分類法が何であるかを知る必要はありません。

オントロジーが何であるかを知る必要はありません。

効果的なスキーマ マークアップを実装するために知っておく必要があるのは、タクソノミーとオントロジーが存在するという事実だけです。

そしてすぐに (準備ができたら) ナレッジ グラフについて説明します。

ただし、今のところは次の点に焦点を当ててください。

  • エンティティは物です
  • スキーママークアップは物事を定義し区別する方法です
  • スキーマ マークアップは次の方法で表現できます。
    •  JSON-LD
    • マイクロデータ
    • RDFa
  • JSON-LD、microdata、RDFa にはすべて、エンティティの記述方法に関する独自のルールがあります。
  • これらのルールを作成および維持する主体は Schema.org です。
    スキーマ マークアップの作成部分に到達したら、言語と構文を再検討します。

構造化データが非構造化データよりも優れているのはなぜですか?

検索エンジンは、Web ページを解析して解釈して、インデックスを作成するかどうかを決定する必要があります。

テクニカル SEO の場合、このプロセスはクロール フェーズとレンダリング フェーズの間のどこかで発生します。

これが「文字列ではなく物」の意味です。

  • モノ=構造化データ
  • 文字列 = 非構造化データ (単語、画像、ビデオ、オーディオなど)

構造化データはスキーマ マークアップの別の派手な言い方であり、スキーマ マークアップが何であるかはすでにご存知です。

では、非構造化データとは何ですか?また、なぜ非効率なのでしょうか?

非構造化データは通常、Web ページ上の単語を指しますが、画像、ビデオ、音声も含まれます。

これは、単語、文章、段落、ページが文字と数字の羅列であるためです。

機械は文字や数字の文字列をうまく解読できますが、人間ほどうまくコンテキストを導き出すことはできません。

そして、それを考えると、文脈によって意味が明確になります。

したがって、スキーマ マークアップは、文字と数字の文字列の機械による解釈に依存せず、物事を定義する行為です。

構造化データが SEO にどのように役立つか

スキーマ マークアップの目的は、検索エンジンが Web ページ、ビデオ、またはポッドキャストの内容を理解できるようにすることです。

スキーマ マークアップがなければ、検索エンジンは文字、単語、文章を理解するために NLP に依存する必要があります。

Google と Bing は NLP でかなりうまくやっていますが、これはリソースを大量に消費するプロセスであり、利益率が損なわれます。

GenAI によってインターネットが成長するにつれて、クロール、レンダリング、インデックス作成のコストはますます高くなるでしょう。

そして、Bing と Google が営利企業であることを忘れないでください。

スキーマ マークアップを使用することにより、Google と Bing は JSON-LD、RDFa、microdata を明示的に理解するため、コンテンツを理解するために NLP に依存する必要がなくなります。

ウェブページにスキーマ マークアップがあると、コンテンツの内容を Google が理解しやすくすることができます。

しかし、これは実際にどのようなメリットがあるのでしょうか?

Google がコンテンツとそのコンテキストをより深く理解できれば、コンテンツを適切な検索に適切に提供できるようになります。ただし、これにはオーガニックトラフィック量が犠牲になる可能性があります。

Google は、すべての検索をコンテンツに誘導するのではなく、コンテンツの性質を認識して、より具体的なクエリに対してランク付けする場合があります。これにより、一般的なキーワードで見つかった訪問者よりも、コンテンツに関与する可能性が高い訪問者を引き付けることができます。オーガニックトラフィックの減少につながる可能性があります。

スキーマ マークアップをコンテンツ ワークフローに組み込むことのもう 1 つの利点は、対象ユーザーにとっての利点です。それは検索エンジンだけではありません。

上位にランクされるインターネット コンテンツのほとんどは最適化されています。

私たちが言いたいことを検索エンジンに理解してもらうための書き方が、非常にテンプレート化された書き方になってしまったのは、私たち全員が悪いのです。

「SEO コンテンツ」は優れたユーザー エクスペリエンスを提供せず、流れや個性が欠けています。

スキーマ マークアップを使用すると、会話形式で記述し、スキーマ マークアップを介して事実の記述を予約できます。

ただし、すべてのスキーマ マークアップが役立つわけではありません。

それについては後ほど説明します。

ページまたは Web サイトにスキーマ マークアップがあるかどうかを確認する方法

既存の Web ページまたは Web サイトにスキーマ マークアップがあるかどうかを確認する方法をいくつか紹介します。

SEO Pro Extension を使用する (Kristina Azarenko 著)

所要時間は数秒もかからないため、この方法をお勧めします。簡単な眼球テストのようなものだと考えてください。

その方法は次のとおりです。

まず、無料の Chrome 拡張機能をインストールします。

Chrome ウェブストア – SEO Pro 拡張機能
Chrome ブラウザで、分析したい Web サイト上の任意のページを読み込みます。次に、拡張機能アイコンをクリックします。

SEO プロ – 分析
「スキーマ」タブをクリックします。スキーマ タイプがリストされている場合、これはページにスキーマ マークアップが実装されていることを意味します。

SEO プロ – スキーマ

Schema.org バリデータを使用する

スキーマ マークアップをもう少し詳しく知りたい場合は、SEO Pro Extension の後にこれを使用してください。

https://validator.schema.orgに移動し、URL を貼り付けます。

Schema.org – バリデーター
「テストを実行」をクリックします。結果ページに検出されたスキーマ タイプが表示されている場合は、そのページにスキーマ マークアップが実装されています。

スキーマ – バリデーターの結果

Semrushによるサイト監査機能を利用する

すでに Semrush で 1 つ以上の Web サイトを監視している場合、スキーマ マークアップの問題 (特に、カノニカル タグ、シン コンテンツ ページ、メタ タグなど) をチェックするためにサイト監査機能を使用しないのは愚かです。

サイト監査が完了していることを確認してください。完了していない場合は、今すぐ実行してください。

Semrush – サイト監査
監査が完了したら、「マークアップ」ウィジェットをクリックします。

サイト監査 – マークアップ ウィジェット
わかるでしょ:

  • スキーマ マークアップのあるページとないページの割合
  • 有効なスキーマ マークアップと無効なスキーマ マークアップを持つページの割合
  • スキーマ マークアップ タイプごとの Web ページの内訳

サイト監査 – マークアップ レポートレポートを下にスクロールすると、Web サイトで見つかった構造化データ項目のリストが表示されます。このパネルには、有効な数と無効な数が表示されます。無効なスキーマは検索エンジンによって無視されるため、おそらく修正する必要があるでしょう。

マークアップ – 構造化データ項目

Google SERPに表示されるスキーママークアップの例

スキーマ マークアップを実装する利点の 1 つは、検索結果の外観がより豊かになること (一般にリッチリザルトと呼ばれます) です。

リッチな結果が必要になるのは、結果が競合他社より目立つようになり、CTRとコンバージョンの向上につながるためです。

Google は 22 種類のリッチリザルトをサポートしています。完全なリストはここでご覧いただけます。

ただし、リッチリザルトを表示するかどうかは Google の裁量にあります。スキーマ マークアップ ≠ リッチリザルト であることを強調する価値があります。

スキーマ マークアップにより可能となる一般的なリッチリザルトをいくつか示します。

ローカルビジネス

ローカル ビジネス スキーマをページに追加すると、次のようなビジネスに関する重要な情報を含むリッチ スニペットが有効になります。

  • 商号
  • 住所
  • Webサイト
  • 電話番号
  • 営業時間
  • カスタマーレビュー
  • 地図上のあなたのビジネスの場所

ローカル ビジネス スキーマにより、あなたのビジネスがマップ パックに表示される可能性も高くなります。

以下に示すのは、ユーザーが「シカゴのパン屋」などを検索したときに SERP で目立つように表示される、トップ評価の地元企業 3 社のコレクションです。

Google SERP – ベーカリー シカゴ

製品のスニペット

製品スキーマ マークアップにより、Google は次のようなさまざまな製品仕様を SERP に表示できるようになります。

  • 商品名
  • モデル
  • ブランド
  • 価格
  • 評価
  • 可用性

これは、製品の検索結果がユーザーにとってより多くの情報を提供し、製品の機能と利点についての洞察を提供することを意味します。

製品スキーマ マークアップで強化された検索結果の例を次に示します。

Google SERP – 製品スキーマ

レビューのスニペット

レビュー スキーマを使用すると、Google はレビュー スニペットや星評価を使用して検索結果を強化できます。レビューと評価は実際の顧客から得られたものであるため、ページの信頼性を高め、ユーザーの信頼を高めるのに役立ちます。これらは、e コマース サイトや、レストランや店舗などの実店舗にとって非常に価値があります。

次の例では、レビュー スキーマ マークアップが、トリップアドバイザーなどのユーザー作成のレビュー サイトで使用されています。

Google SERP – レビュースキーマ

ブレッドクラム

ブレッドクラム スキーマ マークアップは、Google がサイトの階層を理解するのに役立ちます。サイトのページとその全体的な構造の間の関係を識別します。Google はこの情報を使用して、検索結果にパンくずリストを表示します。

ブレッドクラムは、水平方向に配置され、「>」記号で区切られたテキスト リンクです。

リッチリザルトに表示されると次のようになります。

Google SERP – パンくずリスト

スキーマにはどのような種類がありますか?

スキーマがエンティティを記述する方法であることを覚えていますか?

Schema.org では 800 種類を超えるスキーマが定義されています。これらの範囲は、最も一般的なアイテム ( Thing ) からIndividualProductなどの特定のサブタイプまで多岐にわたります。彼らは、何を説明できるか (エンティティ)、どのように説明できるか (言語)、どのような属性 (語彙) を使用するかを決定できる人々です。
SEO の専門家として、エンティティに対する Google の認知度を向上させるために使用したいスキーマは次の 5 種類です。

ウェブページ

概要: Web ページに遭遇したことを検索エンジンに伝えるスキーマの一種。

これを使用する場合:すべてのページは Web ページですが、すべてのページにスキーマ マークアップが必要なわけではありません。この Schema.org タイプをホームページ用に予約し、Web サイト、ホームページ、Web サイトの背後にある組織 (または個人) の間の関係を宣言するために使用します。

使用方法:これらは、スキーマの形成に使用できる属性です。

url:これを使用してページの場所を確立します
isPartOf:これを使用して、Web ページをより広範な Web サイトに接続します。
mainEntity:これを使用して、対応するエンティティにリンクすることで、プライマリ トピックが何であるかを宣言します。
例えば:

スキーマ – ウェブページ

組織

概要:組織に遭遇したことを検索エンジンに伝えるスキーマの一種。これは、企業、非営利団体、慈善団体、法人、またはクラブの場合があります。

使用する場合: Web サイトの「概要」ページで組織スキーマをエンティティ ホームとして設定して使用します。コンテンツと組織の間の関係を確立するために、他のページ (ホームページ、ブログ記事、カテゴリ ページなど) で組織を参照することもできます。

使用方法:これらは、スキーマの形成に使用できる属性です。

  • 創設者:新しいビジネスまたはスタートアップにこれを使用します
  • SameAs:これを使用してソーシャル メディア プロファイルをポイントし、Crunchbase や LinkedIn などの外部ソースでエンティティを検証します。
  • TaxID/vatID:これを使用して、信頼できる (政府関連の) ソースからのエンティティを検証します。
  • legalName:これを使用して、エンティティの登録された会社名を宣言することでエンティティを検証します。
  • 部門:エンティティのさまざまな場所を説明するためにこれを使用します
  • makesOffer:サービスベースのビジネスで、どのような製品やサービスが提供されるかを説明するためにこれを使用します。
  • hasOfferCatalog: e コマース Web サイトで販売する製品を説明するためにこれを使用します。
    例えば:

スキーマ – 組織

製品

概要:エンティティが商品またはサービスのいずれかを購入できることを検索エンジンに伝えるスキーマの一種。

使用する場合:このスキーマ タイプを製品またはサービス ページでプライマリ スキーマ タイプとして使用します。e コマース小売業者の場合は、個々の製品の詳細ページで製品タイプを使用します。サービスベースのビジネスの場合は、プライマリ サービス ページで製品タイプを使用します。他のページ (製品カテゴリ ページ、ホームページ、ブログ投稿など) で 1 つ以上の製品タイプを参照することもできます。

使用方法:これらは、スキーマの形成に使用できる属性です。

  • aggregateRating: PDP でこれを使用してレビューのリッチリザルトを有効にします
  • オファー:これを使用してオファー タイプにリンクし、製品またはサービスの価格や在庫状況などの重要な詳細を指定できるようにします。

概要:エンティティが人であることを検索エンジンに伝えるスキーマの一種。その人は、生きている場合もあれば、死んでいる場合も、アンデッドである場合も、架空の人物である場合もあります。

いつ使用する必要があるか:情報の作成者または査読者を開示したい場合は常に、パーソン スキーマを使用する必要があります。すべてのプロファイル ページでもこのスキーマ タイプを使用する必要があります。

使用方法:これらは、スキーマの形成に使用できる属性です。

  • name:これを使用して人の名前を宣言します
  • alumniOf:個人の学歴を確立するためにこれを使用します
  • 敬称プレフィックス:相手が博士の場合に使用します。
  • has職業:これを使用して個人の職業を説明し、接続されたコンテンツに対する信頼性を確立します。
  • jobTitle:これを使用して、名前は同じだが役職が異なる複数の人物を区別します。
  • KnowAbout:その人がよく知っているトピック、主題、概念を説明するためにこれを使用します。
  • worksFor:同じ名前、職業、役職を持つ人々を区別するためにこれを使用します。
  • SameAs:これを使用してソーシャル メディア プロファイルをポイントし、LinkedIn などの外部ソースでエンティティを検証します。

例えば:

人物スキーマ

ローカルビジネス

概要: エンティティがローカル エリアにサービスを提供し、物理的な場所を持つ組織であることを検索エンジンに伝えるスキーマの一種。

使用すべき場合: LocalBusiness スキーマは、ビジネスに物理的な場所があり、営業時間があり、リンクできる Google ビジネス プロフィール (旧称 Google マイ ビジネス) がある場合に使用します。

使用方法:組織スキーマと同じ属性を使用できますが、スキーマの形成に使用できる追加の属性がいくつかあります。

  • opensHours:これを使用して、ローカル ビジネスの Google ビジネス プロフィールにあるのと同じ営業時間を反映します。
  • 住所:ビジネスの Google ビジネス プロフィールと同じ住所を検証するために使用します。
  • hasMap:これを使用して、Google マップに従って Google ビジネス プロフィールの URL にリンクします。

次のいくつかのセクションでは、スキーマ マークアップを Web サイトに取得する方法について説明します。これには 2 つの手順が必要です。それでは、これを次のように分けてみましょう。

スキーママークアップの作成方法

Web サイトまたは Web ページにスキーマ マークアップを取得する方法
スキーママークアップを作成する方法
スキーマ マークアップを作成するには、スキーマ マークアップを手動で生成することも、スキーマ マークアップを自動的に生成するサードパーティのプラグインを利用することもできます。各方法には長所と短所があります。

WordPress 用のサードパーティプラグインから始めましょう。

WordPress プラグインを使用する

WordPress Web サイトの場合、Yoast と Rank Math の両方の無料バージョンでスキーマ マークアップを自動的に生成できます。

WordPress プラグインは、「設定すれば後は忘れる」ため、Web サイトにスキーマ マークアップを取得する最も簡単な方法です。

ただし、Yoast SEO や Rank Math などの自動化ソリューションの主な欠点は、スキーマ マークアップをカスタマイズしてよりリッチにする能力が限られていることです。

ヨーストSEO

Yoast SEOをインストールすると、スキーマ マークアップ設定が自動的に適用されます。つまり、WebPage スキーマはすべてのページに設定され、Article スキーマは投稿に適用されます。

Yoast SEO – スキーマ

ランク計算

Rank Math でスキーマ マークアップを有効にするには、 Rank Math SEO メニュー>ダッシュボード>スキーマ (構造化データ)に移動し、スイッチを切り替えて有効にします。

ランク計算 – スキーマ
有効にすると、Yoast SEO と Rank Math の両方が、ページ タイトルや公開日などのメタデータに基づいてスキーマ マークアップを自動的に生成します。ただし、これらのサードパーティのプラグインは、ページ上のコンテンツを意味のある接続された構造化データに変換するのに役立つことはほとんどありません。

場合によっては、WordPress ブロックがスキーマ マークアップを生成することもできます (FAQPage など)。下の写真は Kadence Blocks のアコーディオンブロック部分です。

Kadence Block – FAQ スキーマ
[FAQ スキーマを有効にする] オプションを有効にすると、すべての質問と回答が FAQPage スキーマとしてマークアップされます。

スキーマ マークアップ ジェネレーターを使用する

WordPress 以外の他の Web サイトプラットフォームについてはどうですか?

Wix サイトの場合、プラットフォームにはデフォルトのスキーマ マークアップ セットが同梱されています (詳細はこちら) が、独自にカスタマイズしたスキーマ マークアップを追加することもできます。

Webflow、Squarespace、Duda、およびその他のプラットフォームの場合は、独自のスキーマ マークアップを生成して個々のページに追加する必要があります。これを行うには、スキーマ マークアップ ジェネレーターを使用するか、JSON-LD を自分で作成します。

考慮すべき 3 つのスキーマ マークアップ ジェネレーターを次に示します。

  1. Merkle によるスキーマ マークアップ ジェネレーター
  2. スキーマントラ
  3. Rank Ranger によるスキーマ マークアップ ジェネレーターおよびバリデーター

Merkle によるスキーマ マークアップ ジェネレーター (JSON-LD)

Merkle のSchema Markup Generator (JSON-LD) は、記事、ブレッドクラム、イベント、FAQ ページ、またはハウツー スキーマを迅速かつ簡単に作成する方法です。ドロップダウン メニューから目的のスキーマ タイプを選択するだけで、ツールによって入力するフィールドが多数表示されます。

これは、スキーマ マークアップを初めて使用する人にとっては最適です。

スキーママークアップジェネレーター
それが良い理由:

  • 各フィールドに入力すると、JSON-LD が作成されることがわかります。
  • JSON-LD を Google リッチリザルト テストで検証するための直接統合があります。
  • ワンクリックでコードをコピーするオプションがあります

記事 – スキーマの生成
このツールの欠点は、スキーマのタイプと属性が制限されていることです。そのため、次の 2 つのオプションを確認する必要があります。

Schemantra によるスキーマ ナビゲーター

意味のあるスキーマ マークアップの生成に本格的に取り組みたい場合は、Schemantra の Schema Navigator も良い出発点となります。

Merkle のツールとは異なり、このツールではほぼすべてのタイプのスキーマ タイプを選択できます。しかし、この自由さゆえに、最初は圧倒されるかもしれません。

まず、説明しているエンティティの種類を知る必要があります。

Schemantra – スキーマの作成
検索バーにスキーマ タイプ (「人」など) を入力し、結果をクリックして、「送信」をクリックします。

スキーマントラ – 人物
これにより、次の画面がロードされ、スキーマの属性を入力できるようになります。

最初に行う必要があるのは、スキーマ タイプに「@id」プロパティを割り当てることです。

スキーマントラ – バックリンコ
これが、Schemantra をより優れたスキーマ マークアップ ジェネレーターの 1 つとしている理由です。これは、単一のエンティティごとに「@id」プロパティを強制的に割り当てるためです。ただし、「@id」フィールドが何のためにあるのかわからないため、これも障害となる可能性があります。

続行するには次のことを知っておく必要があります。

  • これは、Web ページに記述されている項目の一意の識別子として機能します。これは、複数の書籍や製品など、ページに複数の同様の項目が含まれており、それぞれを他の項目と区別する必要がある場合に便利です。
  • 「@id」を使用すると、同じページ上のスキーマの異なる部分が相互に参照できるようになります。たとえば、ページ上に書籍とその著者に関する情報が個別に存在する場合、@id を使用すると、スキーマ マークアップで書籍とその著者がリンクされ、それらが関連していることを示すことができます。これは、検索エンジンにコンテキストを伝える方法です。
  • 「@id」フィールドを設定するには、次のテンプレートを使用します: #{schemaType} 例: #person、#organization、#event、#localbusiness、#article など。

「@id」フィールドを設定したら、下にスクロールして、誰について話しているのかを検索エンジンが認識できるようにするための属性を入力します。

Merkle のツールと同様に、Schemantra では、各フィールドに入力すると JSON-LD 出力が表示されます。

Schemantra は、オタクになることを恐れず、より深いスキーマを構築するために物事をテストする場合に最適です。

Rank Ranger によるスキーマ マークアップ ジェネレーターおよびバリデーター

Merkle のツールと同様に、 Rank Ranger のSchema Markup Generator & Validator は、以下に示すように、事前に構築された多数のスキーマ タイプを提供します。

Rank Ranger – スキーマ マークアップ ジェネレーター
これは、エンティティを記述するために最も適切なタイプを使用できるようにスキーマ サブタイプが含まれているため、優れています。

選択したスキーマのタイプに応じて、Rank Ranger では入力できる属性の数が制限されています。

ランクレンジャー - スキーマ - 組織
たとえば、上のスクリーンショットでは、Corporation Schema.org Type を選択すると、ツールには親スキーマ タイプ (Organization) から属性を追加するオプションが表示されません。

この欠点にもかかわらず、Merkle のものではなく、Rank Ranger の Schema Markup Generator & Validator を使用して始めることを検討してください。

JSON-LD を手動で (または支援を受けて) 作成する

間違いなく、JSON-LD を手動で記述すると、最適なスキーマ マークアップが提供されます。これは、任意の種類のスキーマに必要な属性を含めることができるためです。

さらに重要なのは、JSON-LD を手動で作成すると、柔軟性が得られ、あるスキーマ タイプを別のスキーマ タイプに接続できるようになります。これが検索エンジンがコンテキストを理解する方法です。

まず、JSON-LD は中括弧で囲まれたキーと値のペアで構成されます。

キーと値のペア
キーと値のペアは、Schema.org で定義されている語彙を使用して指定する属性と値を指します。

例えば:

属性 – キーと値のペア
スキーマを記述する属性を追加すると、より多くのキーと値のペアが作成されます。

複数のキーと値のペア
また、エンティティ間の関係はマシンがコンテキストを理解する方法であるため、スキーマ マークアップの最適な用途はスキーマを接続することです。

上のビジュアルでは、中括弧内に中括弧があることがわかります。これが、スキーマ タイプをネストする方法です。

ChatGPT を使用したスキーマ マークアップの生成

ChatGPT 関連のすべてのことと同様、プロンプトは出力内容にとって重要です。

最初のステップは、記述したいスキーマ タイプ (例: 人、法律サービス、歯科医、オンラインビジネス) を選択することです。

次に、Schema.org のドキュメントを参照して、使用するすべての属性を特定します。

人物のスキーマ マークアップを作成したいとします。ブラウザに Schema.org から人物スキーマをロードします。

Schema.org – 人
次に、次のように Person スキーマの JSON-LD を生成し、属性とその値を含めることを ChatGPT に伝えます。

「パーソンスキーマのJSON-LDを生成してください。スキーマ マークアップに必要な情報を提供します。名前:ジョン・ドゥ。役職: SEO エキスパート。対象作品: セムラッシュ。KnowsAbout: SEO。」

ChatGPT – スキーマの生成
ChatGPT が何もないところからこのコードをすべて書き出すのに文字通り数秒を要したので、おそらくこの瞬間は歓声を上げているでしょう。

しかし、ChatGPT の重要な点は、プロンプトに直接応答することです。また、JSON-LD は適切に見えますが、正しくありません。

なぜ?

ChatGPT に十分な情報を提供しなかったため、ChatGPT はタスクを完了するために最善を尽くしました。

より適切なプロンプトを使用してもう一度試してみましょう。

「パーソンスキーマのJSON-LDを生成してください。スキーマ マークアップに必要な情報を提供します。名前:ジョン・ドゥ。役職: SEO エキスパート。WorksFor: Semrush (https://en.wikipedia.org/wiki/Semrush、https://twitter.com/semrush と同じ)。KnowsAbout: 検索エンジンの最適化 (https://en.wikipedia.org/wiki/Search_engine_optimization と同じ、代替名: SEO)。

ChatGPT – より良いスキーマ
ずっといい!そして、JSON-LD をSchema.org の validatorにスローすると、エラーは存在しません。

スキーマ – 検証
しかし、それだけではありません。

コードをClassy Schema の視覚化ツールに投入すると、スキーマ マークアップを通じて作成した関係を確認できます。

上品なスキーマ – 視覚化
それぞれの円は個別の実体であり、それらを結ぶ線はそれらの間の関係を表します。これが基礎的な知識のグラフです。

スキーマ マークアップの生成に ChatGPT を使用する最も良い点は、イライラする構文エラーを回避できることです。ただし、JSON-LD を最初から作成することを学びたい場合は、「JSON-LD と schema.org の語彙だけを使用してセマンティック SEO を行う方法」というガイドをブックマークしてください。

スキーマ マークアップを Web サイトに取得する方法

スキーマ マークアップを生成したので、次にそれをどうしますか?

  • どこへ行くのですか?
  • JSON-LD が <footer> に入ったらどうなるでしょうか? まだ機能しますか?
  • <head> にも <footer> にもコードを挿入できない場合はどうすればよいでしょうか?
  • スキーマ マークアップは本体に配置しても機能しますか?
これらはすべて有効な質問です。 JSON-LD を に挿入する必要があります。これにより、JSON-LD がクロールボットが見つけるコードの最初の行の 1 つとなることが保証されます。 ただし、本文または <フッター> 内の JSON-LD は両方とも検証され、機能します。では、それを <head>に取り込むにはどうすればよいでしょうか?これは、使用している CMS またはバックエンドによって異なります。WordPress Web サイトの場合、サイト全体のスクリプトをに配置できるテーマがあります。ページごとにスクリプトを挿入できるプラグインもあります。たとえば、SOGO Add Script Header Footer は、この機能を実行する無料のプラグインです。

WordPress プラグイン – スクリプトの追加
特注の方法を使用する場合は、重複を避けるために自動スキーマ マークアップ生成を無効にする必要があります。

他のプラットフォームについては、ドキュメントを参照する必要があります。ただし、Wix、Squarespace、Webflow、および Duda ではすべて、すべてのページまたは個々のページにスクリプトを追加できるようにする必要があります。

Google タグ マネージャー (GTM) を通じてスキーマ マークアップを追加することもできます。クライアントに対してこれを行う場合は、クライアントのライブ サイトでコードを変更することがないため、これが推奨される方法かもしれません。

既存の GTM タグがインストールされている限り、Web サイトのバックエンドにログインすることなくデプロイできます。

スキーママークアップが正しいかどうかを確認する方法

スキーマのマークアップに関しては、常に次の 3 つの点を確認する必要があります。

  1. 構文エラーはありますか?
  2. Google の要件を満たしていますか?
  3. エンティティは正しく接続されていますか?

それぞれ少しずつ異なるので、これまでの努力が確実に報われるように詳しく見ていきましょう。

Schema.org を使用して構文エラーを検証する

構文エラーがあると、スキーマ マークアップが無効になります。つまり、Googlebot は、JSON-LD で構文エラーが発生した場合、それを無視します。

構文エラーの大部分は、コンマまたは中括弧の欠落に関連しており、JSON-LD を手動で作成した場合、コンマまたは中括弧の位置を間違えるのは避けられません。

幸いなことに、Schema.org バリデーターはマークアップにコーディングミスがあることを教えてくれます。ただし、それを修正する方法は教えてくれないので、非常に腹立たしいことになるかもしれません。

その前に、 Schema.org 検証ツールについて詳しく見てみましょう。

Schema.org – バリデーター
サイトをロードすると、FETCH URLとCODE SNIPPETの 2 つのオプションが表示されます。

  • スキーマ マークアップを使用してすでに公開されているページには「FETCH URL」を使用します。完全な URL をコピーしてフィールドに貼り付け、「RUN TEST」をクリックするだけです。
  • マークアップがライブにプッシュされていない場合は、「コード スニペット」を使用します。JSON-LD スクリプトをコピーしてフィールドに貼り付け、「テストの実行」をクリックするだけです。

数秒後、結果画面が表示されます。

次の例では、ツールは hentry、Article、FAQPage の 3 つの別個のスキーマ タイプを選択しています。

検出されたスキーマ
エラーや警告は表示されません。なるほど。

しかし、ここにエラーの例があります。

スキーマ - エラー
残念ながら、Schema.org バリデータには、エラーを解決する方法に関するガイド手順が提供されていません。意図的に 4 つの間違いを追加したにもかかわらず、最初の構文エラーのみを検出したようです。

では、このシナリオに到達したら何をすべきでしょうか?

エラーのデバッグに何時間も費やして髪の毛を抜くこともできますし、ChatGPT を使用することもできます。

ChatGPT で、JSON-LD をクリップボードにコピーし、次のプロンプトを入力します。

「JSON-LD で 1 つ以上の構文エラーを解決しようとしています。何を見つけて何をしたか説明せずに、コードを修正して正しいバージョンを出力してもらえますか? これが私の JSON-LD です。」

また、プロンプトの最後に必ず JSON-LD を貼り付けてください。

案の定、ChatGPT は汗をかかずにタスクを実行します。また、プロンプトが表示されるため、その内容についてのエッセイを読む必要はありません。

ChatGPT – コード修正
必ず新しい JSON-LD を取得し、Schema.org バリデーターに再度貼り付けて、テストを実行してください。

ChatGPT – スキーマの検証
Schema.org バリデータと ChatGPT を組み合わせると、Google がスキーマ マークアップを確実に解析できる確実な方法になります。

Google でリッチリザルトの資格を確認する

Schema.org は JSON-LD、microdata、RDFa のスキーマ マークアップ語彙を維持および更新しますが、Google は構造化データを Schema.org とは異なる方法で扱います。

これは、スキーマ マークアップが Schema.org の観点からは完璧であっても、Google の要件を満たしていない可能性があることを意味します。

なんて迷惑なんでしょう!

このため、Schema.org で構造化データのマークアップを検証した後は、必ず Google リッチリザルト ツールで構造化データのマークアップを確認する必要があります。

準備ができて?

Schema.org バリデータと同様に、Google リッチリザルト テストはライブ URL または JSON-LD スクリプトを分析できます。

Google – リッチリザルトをテストする

  • スキーマ マークアップがすでに公開されている場合は、URL オプションを使用して完全な URL を貼り付けます。
  • スキーマ マークアップがまだ公開されていない場合は、スクリプト内で code オプションと過去を使用します。

マークアップしたスキーマに応じて、1 つ以上の有効な項目が検出された画面が表示されるか、まったく検出されない画面が表示されます。

次のスクリーンショットでは、リッチリザルト ツールがローカルのビジネスと組織のエンティティを取得しており、一部の詳細がリッチリザルトとして SERP に表示されている可能性があります。

リッチリザルトテスト – 有効な項目
しかし、有効なアイテムが検出されなかった場合はどうなるでしょうか?

リッチリザルトテスト – 有効な項目がありません
これは、スキーマのマークアップに問題があることを意味しますか?

いいえ。

これでわかるのは、スキーマ マークアップで記述したエンティティのリッチリザルトは Google では表示されないということだけです。

Google がリッチリザルトを表示できるスキーマ タイプを知りたい場合は、開発者ドキュメントを参照してください。

エンティティは適切に接続されていますか?

ここまでできたら、よくやった。しかし、スキーマ マークアップから最大の価値を引き出すには、スキーマ間の関係を構築する必要があるため、これで終わりではありません。これは、あるエンティティと別のエンティティ間の関係によって Google がコンテンツのコンテキストを理解するためです。

接続されたスキーマ マークアップへようこそ。

ちょっと待って、接続されたスキーマとは何ですか?

接続スキーマは、Web サイト上の重要な Web ページのナレッジ グラフを作成する方法です。

あるスキーマ タイプが別のスキーマ タイプにどのように接続できるかを調べるのに最適なツールは、SchemaApp の無料のスキーマ パス ツールです。

スキーマ アプリ – スキーマ パス
これを行うには、最初のドロップダウンからスキーマ タイプ (個人、組織など) を 1 つ選択します。次に、2 番目のドロップダウンで関係を作成する他のスキーマ タイプ (サービス、製品など) を選択します。

「クリックしてパスを検索」を押すと、パスが存在する場合、SchemaApp が 2 つのエンティティを接続する方法をリストし、ChatGPT を使用して関係をネストされた JSON-LD に変換します。

わかりました。それで、私たちはどこにいたのですか?

そうです、エンティティがスキーマ マークアップに正しく接続されているかどうかを確認する方法を知りたいのですね。

「上品なスキーマ」を入力します。

Classy Schema のStructured Data Viewer は、優れたエンティティ視覚化ツールです。

スキーマ マークアップが既に含まれている URL を貼り付けるか、JSON-LD スクリプトをコード フィールドに貼り付けてから、[ VISUALIZATION ] タブをクリックして、どのスキーマが接続されているかを確認します (存在する場合)。


カスタム JSON-LD を貼り付けると、構造化データ ビューアに、Web サイト、組織、Web ページのスキーマがどのように相互に接続されているかが表示されます。

上品なスキーマ – Nike – 視覚化
これが探しているものです。あるノードと別のノードの間に線が表示される場合、これは 2 つのエンティティ間に関係が形成されていることを示します。

上記の視覚化は、検索エンジンに次のことを伝えます。

  • Web ページにはスキーマ マークアップがあります。
  • このウェブページはオーストラリアの人々にサービスを提供しています。
  • 同じ Web ページは、オーストラリアの視聴者向けに作成された広範な Web サイトの一部です。
  • この Web サイトは、米国を中心とした Web サイトの一部であり、組織がその背後にある主要な主体となっています。
  • Nike, Inc. と呼ばれるこの組織は、スペイン、日本、フランス、オーストラリア、米国、カナダを含む世界の複数の国にサービスを提供しています。

PS – 上記の視覚化は、ナレッジ グラフがどのように見えるかを示しています。

あるノードを別のノードに接続する線が表示されない場合、エンティティはまったく接続されていません。

以下に、切断されたスキーマの例を示します。

切断されたスキーマの例
5 つのエンティティが JSON-LD でマークアップされていますが、それらのどれも相互に関係がありません。

独自のスキーマ マークアップを作成する時期が来ました

上記と同じツールと手順を使用して、次のステップでは、JSON-LD を使用して独自のエンティティを記述します。

これも:

  • スキーマ ジェネレーターの助けを借りて組織スキーマを使用してビジネス Web サイトを記述する
  • ChatGPT の助けを借りて Person スキーマを使用して自分自身をマークアップする
  • スキーマ アプリ パス ツールを使用して、組織と個人のスキーマ間のコンテキストを作成する方法を確認する
  • Schema.org バリデーターで JSON-LD を実行する
  • Google リッチリザルト テストでのスキーマ マークアップの検証
  • スキーマ マークアップをホームページと概要ページに追加する

ご存知のとおり、スキーマ マークアップにより Google 検索の CTR が向上します。

したがって、これらの手順を実行した後、CTR を向上させ、より質の高いトラフィックをページに誘導するためのさらに 3 つのアイデアについてガイドを読んでください。

※この記事は、Backlinkoの「Schema Markup Guide: Help Search Engines Help You」の翻訳記事になります

seojapan
確認済み
2 時間 28 分 ago
SEO Japan フィード を購読

人気記事トップ10

人気記事ランキングをもっと見る