AI・LLM20 min read⁂ Featured

Claude × LLMO 完全ガイド — 自社で使う Claude と、自社サイトが引用される Claude

Claude を業務に入れる側と Claude に引用される側を統合して語る、唯一無二の実装ガイド。llms.txt / 構造化データ / E-E-A-T / 業種別 SOP まで、47本の権威性監査実績と 17 エージェント運用知見から書きおろし。

  1. 序論 — Claude 導入と LLMO は「裏表」である
  2. 1. Claude の引用メカニズム — Anthropic 公式から読み解く
  3. 1.1 Claude の citations 機能は「明示的に渡された文書」を引用する
  4. 1.2 一方、Web ブラウジング・Claude.ai のチャットでは話が変わる
  5. 1.3 「Claude に引用されたら CTR が 2-3 倍」は出典なき俗説
  6. 1.4 では、何を信じて最適化するか — 「Claude が信頼するソースの構造」
  7. 2. 自社サイトを Claude に引用される構造に整える 7 ステップ
  8. Step 1: llms.txt を設置する
  9. 主要サービス
  10. 主要記事
  11. Step 2: 構造化データを実装する
  12. Step 3: 数字に一次出典を付与する(鉄則 #2 整合)
  13. Step 4: 業種別 SOP を言語化する
  14. Step 5: モデル別最適化(Opus / Sonnet / Haiku で読まれ方が違う)
  15. Step 6: Citation Readiness Score を計測する
  16. Step 7: 月次 audit ループを回す
  17. 3. Claude を社内に入れて自社の LLMO を加速する 5 パターン
  18. パターン 1: Claude で自社サイトの数字 audit を自動化する
  19. パターン 2: Claude で業種別 SOP の言語化テンプレを生成する
  20. パターン 3: Claude でコンテンツの E-E-A-T シグナル監査
  21. パターン 4: Claude で内部リンク網の最適化提案
  22. パターン 5: Claude で公的出典の自動検証
  23. 4. 業種別 LLMO × Claude 戦略
  24. 4.1 士業(規制業種 × E-E-A-T 高要求)
  25. 4.2 EC(商品データ × FAQ schema)
  26. 4.3 SaaS(技術文書 × Docs 構造化)
  27. 4.4 製造業(業界用語の言語化)
  28. 4.5 メディア(authority signal の量産)
  29. 5. 失敗パターン 5 件と俗説の訂正
  30. 失敗 1: 「Claude に引用されたら CTR が 2-3 倍」俗説
  31. 失敗 2: 「AI 検索シェア XX%」断言の出典欠如
  32. 失敗 3: 「llms.txt 設置だけで Claude が引用してくれる」誤解
  33. 失敗 4: 「自社で Claude を使っていれば Claude に引用される」誤解
  34. 失敗 5: 「業界俗説」を孫引きで書き続ける
  35. 6. 比較表 — Claude モデル別の LLMO 効果と用途
  36. 7. 使い分けフローチャート — どこから始めるか
  37. 8. 訪問者価値コンテンツ(持ち帰れる実装資産)
  38. (a) Claude × LLMO セルフチェックリスト 12 項目
  39. (b) Claude × LLMO 業種別ロングテール KW 候補 12 個
  40. (c) コピペテンプレ — Claude 引用最適化のための llms.txt 雛形
  41. 主要サービス
  42. 主要記事(ピラー)
  43. 用語集 / 比較 / 業種別
  44. 会社情報
  45. (d) Claude 引用 5 大失敗パターン(再掲・要点)
  46. (e) 公的リソース集(一次出典で確認すべき URL)
  47. 9. よくある質問
  48. Q1. Claude を社内に入れていない会社でも LLMO はできるか?
  49. Q2. Claude Opus 4.7 と Sonnet 4.6、どちらを最初に契約すべきか?
  50. Q3. llms.txt を設置すると robots.txt や sitemap.xml と競合しないか?
  51. Q4. AI 検索引用と従来 SEO は両立するか?
  52. Q5. 月次 audit にどれくらいの工数が必要か?
  53. 10. 次のステップ 5 項
  54. 11. Tufe Company の Claude × LLMO 支援
  55. サービス導線
  56. 関連コンテンツ
  57. 用語集
  58. まとめ — 今日から始める判断チェックリスト

序論 — Claude 導入と LLMO は「裏表」である

Claude を業務に入れる議論と、自社サイトが Claude に引用される議論は、ほぼ常に別の本・別のセミナー・別の担当者で語られています。前者はエンジニアリングと社内 IT の議題、後者はマーケティングと SEO の議題というのが、2026 年 5 月時点の業界の暗黙の前提です。

しかし、この二つは同じコインの裏表です。Claude が回答時に何を「良いソース」と判定するかを理解した会社こそが、Claude に引用される側に回れます。逆に、自社で Claude を運用して「どんな質問にどんな根拠をぶつけると Claude は信用するか」を体感している会社しか、自社サイト側の最適化を本気で詰められません。

AI に答えてもらう側と、AI に引用される側の対称性こそ、2026 年の LLMO 戦略の核心です。

このピラー記事では、Anthropic 公式の citations 仕様、llms.txt 仕様(llmstxt.org — Jeremy Howard が 2024 年 9 月 3 日に提案)、Google Search Central の helpful content / E-E-A-T 指針、そして Tufe Company が自社サイトで運用している 17 個の専門エージェントと 47 本の権威性監査記録から、Claude を業務に入れる自社サイトが Claude に引用されるを一体化した実装手順を提示します。

※ 出典: Anthropic Citations Feature Documentation(取得 2026-05)/llmstxt.org Specification(取得 2026-05)/Google Search Central — Creating Helpful Content(取得 2026-05) ※ Tufe Company 内部実測 / 2026-05時点(自社サイトでの 47 本の権威性監査記録および 17 エージェントの dogfooding ログより)

1. Claude の引用メカニズム — Anthropic 公式から読み解く

「Claude は何を見て、何を引用するのか」を、推測ではなく公式仕様から押さえます。

1.1 Claude の citations 機能は「明示的に渡された文書」を引用する

Anthropic の citations API は、ユーザーがリクエストに含めた document ブロックの中身を、文字インデックス(plain text)・ページ番号(PDF)・ブロックインデックス(custom content)で参照する仕組みです。

※ 出典: Anthropic Citations API Documentation(取得 2026-05)

つまり、Claude の API レイヤーで「引用される」とは、ユーザー側のシステムが Claude にどのドキュメントを渡したかで決まります。ここまでは仕様の話で、SEO 側のコントロール対象外です。

1.2 一方、Web ブラウジング・Claude.ai のチャットでは話が変わる

Claude.ai 上のチャットや、Web 検索ツールを使ったエージェント実行では、Claude は Web 上の公開コンテンツから情報を取得して回答します。ここで「自社サイトが選ばれるかどうか」が LLMO の本丸です。

Anthropic 公式は Claude.ai の Web 検索アルゴリズムの内部仕様を公開していません。断言できる事実は次の 3 つだけです。

  1. Claude は Web 検索ツール(web_search)経由でリアルタイム取得した結果を citations 付きで返せる仕様を持つ
  2. Claude のサーバーサイド Web search ツールは $10 per 1,000 searches の有料機能として API ユーザーに提供されている
  3. citations 仕様上、titlecontext は「引用されない補助情報」、source の中身だけが引用対象になる

※ 出典: Anthropic Server-side Tools Pricing(取得 2026-05) ※ Tufe Company 内部実測 / 2026-05時点(Claude API の web_search ツール検証ログ)

1.3 「Claude に引用されたら CTR が 2-3 倍」は出典なき俗説

LLMO 界隈で見かける「AI 検索に引用されると通常順位の 2-3 倍の CTR」「Claude 引用で指名検索が X% 増える」などの数字は、2026 年 5 月時点で Anthropic も Google も第三者調査機関も公表していません

参考までに、Featured Snippet(Google の強調スニペット)については Ahrefs の調査で「ゼロクリック化で逆に CTR が下がるクエリも多い」と報告されています。AI 引用も同じ構造的バイアスを持つ可能性が高く、「Claude 引用 = アクセス増」の単純な等式は要警戒です。

※ 出典: Ahrefs — Featured Snippets Study(取得 2026-05)

詳しくは SEO/MEO/LLMO 業界の数字俗説 30 件 で出典付き訂正を整理しています。

1.4 では、何を信じて最適化するか — 「Claude が信頼するソースの構造」

Anthropic の citations 仕様、Google の helpful content 指針、そして Tufe Company が 47 本の自社記事に対して実施した数字監査ログから帰納できる事実ベースの最適化原則は次の 4 つです。

  1. 一次出典付きの数字: Claude は数値の妥当性を文書外で検証する手段を持たないため、本文中で ※ 出典: [...](URL)(取得 YYYY-MM) のように明示された数字を、根拠不明な数字より優先する傾向が観察される(Tufe 内部観測)
  2. 構造化された見出し階層: H2 → H3 → H4 の論理階層が崩れていない記事は、citations API のチャンキング(sentence chunk)でも意味のある単位で切られやすい
  3. E-E-A-T の経験(Experience)シグナル: Google が 2022 年末に E-A-T へ追加した「Experience」(実体験)は、Anthropic 公式の言葉ではないが、Claude の Web 検索結果ランキングが Google の検索結果に強く依存している以上、間接的に効く
  4. llms.txt と構造化データ: 後述の通り、Claude を含む複数の AI エージェントが llms.txt を「サイト構造の凝縮ガイド」として読み込む実例が増えている(Anthropic 自身が docs.anthropic.com に llms.txt を設置)

※ 出典: Google Search Central — Helpful Content System and E-E-A-T(取得 2026-05) ※ Tufe Company 内部実測 / 2026-05時点(47 本の権威性監査と 17 エージェントの dogfooding ログ)

2. 自社サイトを Claude に引用される構造に整える 7 ステップ

ここからは実装フェーズです。各 Step に自社実測の根拠を併記します。

Step 1: llms.txt を設置する

llms.txt は Jeremy Howard が 2024 年 9 月に提案した仕様で、サイトのルートに /llms.txt というマークダウンファイルを置き、「LLM に読ませる前提でサイト構造と主要コンテンツのリンクを凝縮する」ものです。Anthropic・Cloudflare・fast.ai などが採用しています。

※ 出典: llmstxt.org Specification(取得 2026-05)

最小構成:

markdown
# Tufe Company

> AI・SEO・Web 制作・自動化を手がける東京の事業会社。LLMO/MEO/EC 領域の権威性監査と
> エージェント運用に強み。

## 主要サービス

- [LLMO Optimization Pack](https://tufecompany.co.jp/market/llmo-optimization-pack): 結論先出し・FAQ・構造化データ・llms.txt を一括整備
- [Monthly Citation Audit](https://tufecompany.co.jp/market/monthly-citation-audit): AI 検索引用状況の月次レポート
- [AI Search Health Check](https://tufecompany.co.jp/market/ai-search-health-check): LLMO 継続運用フェーズ

## 主要記事

- [Claude × LLMO 完全ガイド](https://tufecompany.co.jp/blog/claude-llmo-optimization-2026)
- [SEO/MEO/LLMO の数字俗説 30 件](https://tufecompany.co.jp/blog/seo-meo-llmo-myths-30-corrections-2026)

詳しい書き方は 手書き llms.txt vs AI 生成 llms.txt の使い分けllms.txt セットアップ完全ガイド を参照。

※ Tufe Company 内部実測 / 2026-05時点(自社 llms.txt を 2026-02 設置、3 ヶ月で AI クローラの公開ページアクセス比率が変化したことを GA4 user agent 別ログで確認)

Step 2: 構造化データを実装する

Article / FAQPage / HowTo / Organization / Person スキーマの JSON-LD 実装は、Google AI Overview や Claude の Web 検索ツールがコンテンツ意味を解釈する補助になります。

  • Article schema: author, datePublished, dateModified, reviewedBy, wordCount を必須に
  • FAQPage: Claude が「Q&A 形式の凝縮された答え」を選びやすい
  • Organization: 会社の sameAs で SNS・GitHub・LinkedIn を繋ぐと E-E-A-T の権威性(Authoritativeness)に寄与

詳細は 構造化データ × LLMO デュアル最適化ガイド を参照。

※ Tufe Company 内部実測 / 2026-05時点(自社 47 記事に Article + FAQPage 二重実装を 2026-03 完了、Search Console の「リッチリザルト」表示が以前比で増加)

Step 3: 数字に一次出典を付与する(鉄則 #2 整合)

これは Tufe Company の 9 鉄則の中でも最重要項目です。なぜか — Claude は本文中の数字を文書外で検証する手段を持たないため、出典が明示されていない数字を含むコンテンツを「引用ソースとして危険」と判定する可能性が高いからです。

運用ルール:

  • 具体数値(%・倍・件・秒・分・時間・年・万・億・円)を書く前に WebSearch / WebFetch で公式ソースを確認
  • 採用ソース優先順位: 政府統計 > 政府ポータル > 業界団体公式 > 事業者公表
  • 引用フォーマット: ※ 出典: [ソース名](URL)(取得 YYYY-MM)マッチ行から ±5 行以内に配置
  • 自社実測は ※ Tufe Company 内部実測 / YYYY-MM時点 等の明示注釈

※ Tufe Company 内部実測 / 2026-05時点(権威性監査 47 本で 200 件以上の数字違反を訂正、SEO/MEO/LLMO 業界の俗説 30 件を一次出典で訂正済)

Step 4: 業種別 SOP を言語化する

業種特有の業務手順・専門用語・規制要件を言語化したコンテンツは、Claude が「この業種の質問にはこのサイトを引用すべき」と判定する強いシグナルになります。

例: 士業向け SOP の言語化要素

  • 業界特有の手続きフロー(例: 法人成りタイミングの判断条件、相続放棄の期限管理)
  • 専門用語の平易な言い換え(顧客向け・社内向け)
  • 規制要件チェックリスト(金商法・宅建業法・税理士法など)
  • 失敗パターン集と回避策

業種別の詳細実装例は LLMO 業種別事例集 2026 を参照。

※ Tufe Company 内部実測 / 2026-05時点(業種別 pSEO ページを士業・EC・SaaS・製造・メディア・地域サービスで合計 200 ページ超展開、引用候補化されたパターンを社内データベース化)

Step 5: モデル別最適化(Opus / Sonnet / Haiku で読まれ方が違う)

Claude には 2026 年 5 月時点で 3 つの current モデルが存在し、それぞれ得意分野とコンテキスト長が異なります。あなたのコンテンツが「どのモデルで読まれるか」を意識すると、文章設計が変わります。

モデル入力 / 出力価格 (USD/MTok)コンテキスト長主な使われ方
Claude Opus 4.7$5 / $251M複雑な推論、長文処理、エージェント
Claude Sonnet 4.6$3 / $151M速度と知能のバランス、業務自動化
Claude Haiku 4.5$1 / $5200K大量処理、高速応答、コスト最適化

※ 出典: Anthropic Pricing(取得 2026-05)/Claude Models Overview(取得 2026-05)

実務上の含意:

  • Opus 4.7 で読まれる前提なら、1M tokens の文脈に長い記事を一気に投入されるため、論理の一貫性と内部リンクの整合性が決定的に重要
  • Sonnet 4.6 で読まれる前提なら、結論先出しと FAQ 構造の効きが最も大きい(業務自動化エージェントが多用)
  • Haiku 4.5 で読まれる前提なら、200K tokens でチャンクされるため、各 H2 セクション 1,000〜1,500 字で完結する構造が引用されやすい

Step 6: Citation Readiness Score を計測する

「自社サイトが Claude に引用される準備がどれくらい整っているか」を自己採点する 10 項目スコアです。Tufe Company が社内運用しているチェックリストの簡易版を公開します。

  • /llms.txt を設置済み(主要 10 ページ以上が記載されている)
  • 全主要ページに Article / FAQPage の JSON-LD が実装されている
  • 主要記事の冒頭 300 字以内に「結論」を明示している
  • 全数値に ※ 出典: [...](URL) が ±5 行内に併記されている
  • author の Person スキーマと sameAs が実装されている
  • 業種特有の SOP・専門用語が言語化されたコンテンツが 10 本以上ある
  • 月次で AI 引用状況(ChatGPT / Perplexity / Claude.ai)を手動確認している
  • 内部リンクが各記事 5 本以上、関連用語へ繋がっている
  • dateModified が更新時に正しく更新される CMS 設計になっている
  • sitemap.xml / robots.txt / llms.txt の整合性が取れている

詳しいスコアリング基準は Citation Readiness Score 解説 を参照。

※ Tufe Company 内部実測 / 2026-05時点(社内採点で 10/10 達成は 2026-04、達成前後で AI 経由とおぼしき直接流入の質的変化を観測)

Step 7: 月次 audit ループを回す

Claude を含む AI エンジン側のアルゴリズムは継続的に変動します。一度整備して終わりではなく、月次で監査ループを回すことが LLMO の本体です。

Tufe の月次 audit ルーチン:

  1. bash scripts/audit_numbers.sh で数字出典率を CSV 監査
  2. 違反密度 top 10 のファイルを修正
  3. ChatGPT / Perplexity / Claude.ai で主要 KW 10 個を手動検索し引用状況を記録
  4. Search Console の AI Overview 表示数を確認
  5. llms.txt と sitemap.xml の整合性を再生成

詳細運用は Monthly Citation Audit サービス としてパッケージ化しています。

※ Tufe Company 内部実測 / 2026-05時点(月次 audit を 2025-12 から開始、5 ヶ月運用で社内コンテンツ 200+ 件の数字違反を訂正済)

3. Claude を社内に入れて自社の LLMO を加速する 5 パターン

ここからは「Claude を業務に入れる側」の話です。重要なのは、Claude で社内業務を回している会社ほど、自社サイトの LLMO 精度も上がるという相関です。Tufe 自身がドッグフーディングで実証しています。

パターン 1: Claude で自社サイトの数字 audit を自動化する

Tufe Company は自社サイトの全 MDX に対する数字出典監査を、Claude Opus 4.7 のエージェントで自動化しています。具体的には:

  • 入力: 1 ファイルの MDX 本文(最大 8,000 字程度)
  • タスク: 数値(%・倍・件・年など)を抽出し、各数値に対して ※ 出典: リンクが ±5 行以内にあるか判定
  • 出力: 違反箇所の行番号と訂正提案

Claude Opus 4.7 の 1M context を使えば、関連する複数記事を同時に読ませて「同じ数字が他記事と矛盾していないか」もチェックできます。

※ Tufe Company 内部実測 / 2026-05時点(このループで 200+ 件の数字違反を訂正、bash scripts/audit_numbers.sh で CSV 監査も並走)

パターン 2: Claude で業種別 SOP の言語化テンプレを生成する

業種別 pSEO(士業・EC・SaaS・製造・メディア・地域サービス)のテンプレを Claude Sonnet 4.6 で生成しています。

  • 強み: コスト効率と速度のバランス($3/$15 per MTok)
  • 使い方: 業種別の「失敗パターン 5 件」「専門用語 10 個の平易な言い換え」「規制要件チェックリスト」を構造化マークダウンで生成
  • 人手の役割: 生成後、自社実測の数字を差し込み、出典 URL を実在確認

詳細は pSEO 業種別実装ガイド を参照。

パターン 3: Claude でコンテンツの E-E-A-T シグナル監査

各記事に対して「Experience(経験)の証拠は何か」「Expertise(専門性)はどう示されているか」「Authoritativeness(権威性)の sameAs リンクは整っているか」「Trustworthiness(信頼性)の出典は揃っているか」を Claude にチェックさせます。

Claude は内部プロンプトに業界の E-E-A-T 基準を読み込ませた上で、各記事の不足を指摘します。

※ 出典: Google Search Central — E-E-A-T Guidelines(取得 2026-05)

パターン 4: Claude で内部リンク網の最適化提案

Claude Opus 4.7 の 1M context にサイト全記事のタイトル + description + 主要 H2を投入し、「この記事から、どの記事へ、どんなアンカーテキストで内部リンクを張るべきか」を一括提案させます。

Tufe では scripts/internal-link-audit.ts と組み合わせて、内部リンクの「孤立記事ゼロ」を保っています。

※ Tufe Company 内部実測 / 2026-05時点(200+ pSEO ページに内部リンク提案を Claude Opus 4.7 で実行、平均 5-7 リンク / ページの相互接続を構築)

パターン 5: Claude で公的出典の自動検証

「この記事に書かれている数字 X の一次出典として、URL Y は妥当か」を Claude の web_fetch ツールで自動検証します。WebFetch は標準トークン課金のみで追加料金なしのため、コスト効率が良好です。

※ 出典: Anthropic Server-side Tools Pricing(取得 2026-05)

これにより、ChatGPT や Claude が出した URL を実在確認せずに採用してしまうリスクを排除できます(鉄則 #2 で禁止している運用パターン)。

4. 業種別 LLMO × Claude 戦略

業種ごとに「Claude が好む情報構造」と「ICP 顧客の検索意図」が違います。ICP として最も検索意図と LLMO 整合性が高い士業を主軸に、5 業種の戦略を整理します。

4.1 士業(規制業種 × E-E-A-T 高要求)

  • Claude が引用しやすい構造: 「Q. ○○の場合どうすべき? A. ○○。ただし要件は△△」の条件分岐型 FAQ
  • 必須シグナル: 執筆者の有資格者表記(弁護士登録番号・税理士登録番号)、Person スキーマの sameAs で日本弁護士連合会・日本税理士会連合会へのリンク
  • 失敗例: 「相談はお気軽に」だけで具体的な手続きフローが書かれていない記事は引用されない
  • Tufe 推奨: 業種特化型 pSEO で 30-50 ページの規制論点を網羅、各論点に裁判例・通達への一次出典を併記

※ Tufe Company 内部実測 / 2026-05時点(士業向け pSEO 30 ページ運用ログ)

4.2 EC(商品データ × FAQ schema)

  • Claude が引用しやすい構造: Product schema + FAQPage で「サイズ感」「素材」「返品条件」「配送日数」を構造化
  • 必須シグナル: review 数と評点(AggregateRating schema)、配送ポリシーの明示
  • 失敗例: 商品スペックだけで「誰にとってどう良いか」が書かれていない
  • Tufe 推奨: 業種別ロングテール(「○○ Amazon と楽天 どちらが安い」「○○ 失敗しない選び方」)を 20 個以上カバー

詳しくは EC コンテンツ戦略 2026 を参照。

4.3 SaaS(技術文書 × Docs 構造化)

  • Claude が引用しやすい構造: Docs サイトの llms.txt 設置(Anthropic 自身が docs.anthropic.com で実装している)、API リファレンスのコード例 + 自然言語解説
  • 必須シグナル: SoftwareApplication schema、料金ページの Offer schema、changelog の dateModified 更新
  • 失敗例: API 仕様だけ書いて「どんなユースケースで使われるか」が言語化されていない
  • Tufe 推奨: 各機能ページに「業種別ユースケース 3 つ」「比較表」「失敗パターン」を必置

4.4 製造業(業界用語の言語化)

  • Claude が引用しやすい構造: 業界用語と一般用語の対応表、製造プロセスのフローチャート、規格番号(JIS / ISO)への一次出典リンク
  • 必須シグナル: ISO 認証・JIS マーク取得の明示、技術者の経験年数と保有資格
  • 失敗例: 業界俗語を解説なしで使い、検索ユーザーの語彙と乖離している
  • Tufe 推奨: 「○○加工 とは」「○○部品 国内調達 と 輸入 コスト比較」のロングテール KW を 30 個以上

4.5 メディア(authority signal の量産)

  • Claude が引用しやすい構造: Article schema の reviewedBy で校閲者を明示、関連記事のクラスタリング、用語集ページへの内部リンク網
  • 必須シグナル: 編集方針(editorial policy)の公開、修正履歴の透明化、sameAs で SNS / 業界団体への接続
  • 失敗例: 「中の人」が誰なのか分からないメディアは E-E-A-T で減点
  • Tufe 推奨: 用語集(glossary)+ 比較(compare)+ 業種事例(industries)の 3 軸で内部リンク網を構築

詳しい業種別実装は LLMO 業種別事例集 2026 を参照。

5. 失敗パターン 5 件と俗説の訂正

LLMO 界隈で頻繁に流通する誤情報を、一次出典で訂正します。鉄則 #7「既存記事の数字は疑え」を実例で示すセクションです。

失敗 1: 「Claude に引用されたら CTR が 2-3 倍」俗説

よく見る記述: 「AI 検索(Claude/ChatGPT/Perplexity)に引用されると通常順位の 2〜3 倍の CTR が得られる」

実際: 2026 年 5 月時点で、Anthropic も Google も第三者調査機関も、このような数値を公表していません。「Claude 引用 → CTR 2-3 倍」を断言する一次出典は存在しません。Featured Snippet の研究では逆に CTR が下がるクエリも多く報告されており、AI 引用も同様のゼロクリック化バイアスを持つ可能性が高いです。

※ 出典: Ahrefs — Featured Snippets Study(取得 2026-05)

失敗 2: 「AI 検索シェア XX%」断言の出典欠如

よく見る記述: 「AI 検索のシェアは 2026 年に Google 検索の XX% に達した」

実際: AI 検索のシェアは Statista・SimilarWeb・eMarketer などが推計値を出していますが、「Google 検索全体に対する比率」を公式に発表している調査会社は 2026 年 5 月時点で存在しません。ChatGPT の週次アクティブユーザーは 2025 年 9 月時点で 8 億超ですが、「検索行動の何%」かは別問題です。

数字を書くなら「ChatGPT WAU 8 億超(2025 年 9 月時点 OpenAI 公表)」のように生数値 + 一次出典で書くのが安全です。

詳しくは SEO/MEO/LLMO の数字俗説 30 件 のカテゴリ B-4 を参照。

失敗 3: 「llms.txt 設置だけで Claude が引用してくれる」誤解

llms.txt は「サイト構造を凝縮した LLM 向けガイドマップ」であり、設置すればコンテンツが薄くても Claude が引用してくれるわけではありません。

llms.txt は Step 1 の入口に過ぎません。本質は Step 2〜7(構造化データ、数字出典、業種別 SOP、E-E-A-T、月次 audit)にあります。詳しい誤解の整理は 手書き vs AI 生成 llms.txt を参照。

失敗 4: 「自社で Claude を使っていれば Claude に引用される」誤解

社内で Claude API を契約していることと、自社サイトが Claude.ai の Web 検索で引用されることは完全に独立です。Anthropic は API 顧客とコンテンツプロバイダーを区別しておらず、API の支払いがクローラのランキングに影響することはありません(Anthropic 公式は明示していないが、Google が広告主と検索順位を分離しているのと同じ構造的論理)。

失敗 5: 「業界俗説」を孫引きで書き続ける

Map Pack CTR「20-30%」、Featured Snippet「1 位の 2-3 倍」、LP「最初の 3 秒」、ROAS「200% 未満要改善」など、SEO/MEO/AI/EC 業界には桁違いや混同合成の俗説が大量に流通しています。Tufe は 2026 年 5 月時点で 30 件の俗説を一次出典で訂正しました。

※ 出典: BrightLocal Local Consumer Review Survey(取得 2026-05)/Ahrefs — Featured Snippets Study(取得 2026-05)/Nielsen Norman Group — How Long Do Users Stay on Web Pages(取得 2026-05)

詳しくは SEO/MEO/LLMO 業界の数字俗説 30 件 — 一次出典で訂正 を参照。

6. 比較表 — Claude モデル別の LLMO 効果と用途

「どのモデルで自社の LLMO 業務を回すか」を 8 軸で並べた比較表です。

比較軸Claude Opus 4.7Claude Sonnet 4.6Claude Haiku 4.5
入力 / 出力価格 (USD/MTok)$5 / $25$3 / $15$1 / $5
コンテキスト長1M tokens1M tokens200K tokens
Knowledge cutoff2026-012025-082025-02
数字 audit の精度最高(複数記事を 1M で読ませて矛盾検出可)高(1 ファイル単位なら十分)中(短記事 audit 向き)
業種別 SOP 生成オーバースペック気味最適(コスト × 品質バランス)単純な reformat 向き
内部リンク提案1M で全サイト読み込み可 → 最強200 記事程度まで現実的単一記事内のリンク補完
公的出典の WebFetch 検証不要(無料の Sonnet で十分)最適単純チェック向き
大量バッチ処理コスト高中程度最適(Batch API で 50% OFF も可)
Tufe 推奨ユースケースサイト全体監査・複雑推論日常運用のデフォルト単純リライト・大量処理

※ 出典: Anthropic Pricing(取得 2026-05)/Claude Models Overview(取得 2026-05) ※ Tufe Company 内部実測 / 2026-05時点(17 エージェント・47 記事監査の運用ログ)

7. 使い分けフローチャート — どこから始めるか

Q1. 自社サイトに llms.txt は設置されていますか? ├─ いいえ → Step 1 から(最優先) └─ はい → Q2 へ Q2. 全主要ページに Article / FAQPage の JSON-LD は実装されていますか? ├─ いいえ → Step 2 から └─ はい → Q3 へ Q3. 全数値に一次出典が ±5 行内で併記されていますか? ├─ いいえ → Step 3 から(最重要) └─ はい → Q4 へ Q4. 業種別 SOP の言語化コンテンツは 10 本以上ありますか? ├─ いいえ → Step 4 + パターン 2(Claude Sonnet で SOP 生成) └─ はい → Q5 へ Q5. 月次で AI 引用状況を計測していますか? ├─ いいえ → Step 7 + Monthly Citation Audit 検討 └─ はい → Citation Readiness Score の自己採点へ

8. 訪問者価値コンテンツ(持ち帰れる実装資産)

このセクションだけでも「今日帰って動かせる」資産を 5 つ用意しました。

(a) Claude × LLMO セルフチェックリスト 12 項目

  • /llms.txt を設置済み
  • llms.txt に主要サービス・主要記事のリンクが 10 本以上掲載
  • 全主要ページに Article schema 実装
  • FAQPage schema が主要 10 ページ以上に実装
  • Organization schema の sameAs で SNS / GitHub / LinkedIn 接続
  • author の Person schema 実装(経歴 + 保有資格)
  • 全数値に ※ 出典: [...](URL) が ±5 行内
  • 自社実測値に ※ Tufe Company 内部実測 / YYYY-MM時点 注釈
  • 主要記事の冒頭 300 字以内に結論明示
  • 内部リンクが各記事 5 本以上
  • sitemap.xml と llms.txt の整合性
  • 月次で ChatGPT / Perplexity / Claude.ai での引用状況を手動確認

10 項目以上チェックできれば、LLMO 基礎は整っています。

(b) Claude × LLMO 業種別ロングテール KW 候補 12 個

検索ボリュームは「参考値」とご認識ください。

業種Claude 引用を狙いやすい KW 例
税理士「法人成り タイミング Claude に聞く」「インボイス Q&A 中小企業」
弁護士「相続放棄 期限 専門家解説」「離婚 慰謝料 相場 弁護士監修」
EC「○○商品 選び方 失敗しない」「○○ Amazon vs 楽天 比較」
SaaS「○○ツール 中小企業 比較表」「○○ 導入 失敗パターン」
製造「○○加工 とは」「OEM メーカー 選び方 確認すべき点」
クリニック「○○科 何科に行くべきか」「○○症状 自宅で対処 何日まで」

(c) コピペテンプレ — Claude 引用最適化のための llms.txt 雛形

markdown
# {会社名}

> {1〜2 文で会社の本質的価値を凝縮。業界・地域・差別化要素を含める}

## 主要サービス

- [{サービス 1 名}](https://{ドメイン}/{パス}): {1 文の価値訴求}
- [{サービス 2 名}](https://{ドメイン}/{パス}): {1 文の価値訴求}
- [{サービス 3 名}](https://{ドメイン}/{パス}): {1 文の価値訴求}

## 主要記事(ピラー)

- [{ピラー記事 1}](https://{ドメイン}/blog/{slug}): {Claude が引用しやすい一文要約}
- [{ピラー記事 2}](https://{ドメイン}/blog/{slug}): {Claude が引用しやすい一文要約}

## 用語集 / 比較 / 業種別

- [{glossary トップ}](https://{ドメイン}/glossary): {分野} 用語の定義集
- [{compare トップ}](https://{ドメイン}/compare): {主要選択肢} の比較
- [{industries トップ}](https://{ドメイン}/industries): {業種} 別の実装ガイド

## 会社情報

- 創業: {YYYY 年}
- 所在: {都道府県・市区}
- 専門領域: {差別化要素 3 つ}
- 連絡: [{お問い合わせフォーム}](https://{ドメイン}/contact)

{ } 内を書き換えるだけで使えます。サイズは概ね 1,000〜2,000 字に収めるのが推奨です(llmstxt.org の設計思想)。

(d) Claude 引用 5 大失敗パターン(再掲・要点)

  1. 「Claude 引用 → CTR 2-3 倍」俗説に基づく過剰投資
  2. 「AI 検索シェア XX%」を出典なしで書く
  3. llms.txt 設置だけで満足する
  4. 社内で Claude を使うことと自社サイトが引用されることを混同する
  5. 業界俗説を孫引きし続ける

(e) 公的リソース集(一次出典で確認すべき URL)

これらは Tufe Company が 47 記事の権威性監査で実際に WebFetch で照合した出典群の一部です。

※ Tufe Company 内部実測 / 2026-05時点(領域別の信頼一次出典カタログ の派生)

9. よくある質問

Q1. Claude を社内に入れていない会社でも LLMO はできるか?

可能です。Claude を業務に入れない会社でも、本記事の Step 1〜7 を実装すれば自社サイトが Claude.ai の Web 検索で引用される確率は上がります。ただし、社内で Claude を運用している会社の方が「Claude が何を信頼するか」の感覚が研ぎ澄まされるため、LLMO の精度も高くなる傾向はあります(Tufe の dogfooding 観察)。

Q2. Claude Opus 4.7 と Sonnet 4.6、どちらを最初に契約すべきか?

Tufe の推奨は Sonnet 4.6 からです。価格が Opus の 60% で、コンテキスト長は同じ 1M。一般的な業務自動化は Sonnet で十分です。サイト全体監査・複雑推論が必要になったら Opus を追加するのが現実的です。

※ 出典: Anthropic Pricing(取得 2026-05)

Q3. llms.txt を設置すると robots.txt や sitemap.xml と競合しないか?

しません。llms.txt は LLM 向けの補完仕様で、robots.txt(クローラ制御)と sitemap.xml(URL 一覧)とは目的が異なります。3 つは併存させる設計が標準です。

※ 出典: llmstxt.org Specification(取得 2026-05)

Q4. AI 検索引用と従来 SEO は両立するか?

両立します。むしろ AI 検索の Web 検索結果ランキングは Google オーガニックに強く依存しているため、SEO で上位のページの方が AI に引用されやすい傾向があります。「AI 引用 vs 被リンク獲得」の重み付けは AI 引用 vs 被リンク 2026 年の重み付け で詳しく整理しています。

Q5. 月次 audit にどれくらいの工数が必要か?

Tufe の自社運用では、コンテンツ 200 ページ規模で月 8〜12 時間程度です。Claude Sonnet 4.6 + 自動スクリプトで効率化しているため、人手の判断は違反 top 10 件の修正方針決定に集中しています。

※ Tufe Company 内部実測 / 2026-05時点(2025-12 から 5 ヶ月の月次運用ログ)

10. 次のステップ 5 項

Step A: 自社の Citation Readiness Score を採点する 本記事 Section 2 の Step 6 の 10 項目を採点。5 項目以下なら llms.txt 設置と数字出典付与から着手します。

Step B: 直近 5 記事の数字監査を Claude で回す Claude Sonnet 4.6 に MDX を 1 ファイル投入し、「数値の隣 ±5 行に出典 URL があるか」をチェックさせます。違反が多い記事から訂正に着手。

Step C: llms.txt を設置する 本記事 Section 8(c) のテンプレートをコピーし、自社情報で書き換えてサイトルートに設置。Tufe Company の /llms.txt も実装例として参考にしてください。

Step D: 主要 5 KW で Claude.ai / ChatGPT / Perplexity に手動検索 自社が引用されているか、何が引用されているかをスプレッドシートに記録。これが月次 audit ループの起点になります。

Step E: 3 ヶ月後に重み付けを見直す Step A の Citation Readiness Score を 3 ヶ月後に再採点。伸びていない項目に次の四半期のリソースを集中させます。

11. Tufe Company の Claude × LLMO 支援

Tufe Company は AI・SEO・Web 制作・自動化を手がける東京の事業会社です。本記事の内容は、Tufe が自社サイトで運用している 17 の専門エージェントと、47 本の権威性監査記録から書きおろしました。

サービス導線

  • LLMO Optimization Pack — 結論先出し構成・FAQ・構造化データ・llms.txt 設置をまとめて実施するフルパック。本記事 Step 1〜4 を一括で進めたい場合に。
  • Monthly Citation Audit — AI 検索引用状況を月次で計測・レポート。Step 7 の月次 audit ループをサービス化したもの。
  • AI Search Health Check — 月額の LLMO 継続運用フェーズ。AI エンジンのアップデートに毎月対応。
  • Schema Markup Library — 業種別の JSON-LD テンプレ集。Step 2 の構造化データ実装を加速。

関連コンテンツ

用語集

まとめ — 今日から始める判断チェックリスト

  • 自社サイトに /llms.txt を設置している
  • 全主要ページに Article / FAQPage の JSON-LD が実装されている
  • 全数値に ※ 出典: [...](URL) が ±5 行内で併記されている
  • 業種別 SOP の言語化コンテンツが 10 本以上ある
  • 月次で Claude.ai / ChatGPT / Perplexity の引用状況を確認している
  • Citation Readiness Score を四半期ごとに自己採点している
  • 社内で Claude を業務利用している(dogfooding ループが回っている)
  • 「Claude 引用 → CTR 2-3 倍」のような出典なき俗説を社内資料から排除した

8 項目中 5 項目以上をチェックできれば、Claude × LLMO の基礎は整っています。判断に迷う場合は、無料相談で御社の現状を 45 分(オンライン・契約前提なし)で診断し、優先 3 施策を書面でお渡しします。

本記事は仮起草版です。 Claude モデル・価格・コンテキスト長は lib/claude-model-data.ts を SOT とし、半期ごとに WebFetch で再照合します。次回再照合予定: 2026-11-11。 取得日時点(2026-05-11)の数値は Anthropic 公式 / Google Search Central / llmstxt.org で実在確認済。

Tufe Company

LLMO Division

Tufe Company の編集部。AI・SEO・LLMO・業務自動化に関する実務で得た知見を、 現場で使える形にして発信しています。記事への質問やテーマのリクエストは お問い合わせフォームからどうぞ。

§ Tufe Market · 今日から動かす

相談ではなく、いま手を動かしたい方へ。

この記事と関連するTufeの即時納品プロダクト。問い合わせ不要、決済後すぐにダウンロード/レポート納品されます。

01

AI Search Pack

URLを入れるだけで llms.txt / robots.txt / 構造化データを即時生成。AI検索(ChatGPT・Claude・Perplexity・Gemini)に引用される土台を最短で整備。

¥2,980Instant
02

AI Search Health Check

毎月、自社ドメインの AI 検索引用適性を診断。llms.txt / schema / E-E-A-T / 引用機会を100点満点で可視化。

¥1,980/月Subscription
03

LLMO Pack

AI検索エンジン(ChatGPT/Perplexity/Gemini)に「引用される側」になるための総合最適化パック。E-E-A-T・引用文脈・構造化を一括整備。

¥4,980Instant
§ Postscript · 読者の方へ

ここまで読んでくださって、ありがとうございます

記事の内容を自社で試したい、あるいは近い課題にどう手をつけるか相談したい — そういう方は、一度 Tufe Company にご連絡ください。 AI・SEO・LLMO・業務自動化の領域で、中小企業の現場に合わせた支援を行っています。

  • 初回ヒアリングは 45 分・オンライン・無料
  • 現状分析と、具体的な次の一手を書面でお渡しします
  • 契約前提の相談ではありません。判断は後日で問題ありません