「llms.txt 入れたのに引用されない」問題
AI 検索向けの llms.txt を入れても、ChatGPT や Perplexity の応答に自社サイトが出てこない。
そんな経験はありませんか。
これは llms.txt の問題ではなく、「サイト全体の引用適性」が低いことが原因のことが大半です。AI 検索エンジンは llms.txt 1 枚を見て引用するわけではなく、サイト全体のシグナルを総合判断しています。
そのシグナルを定量化したのが Citation Readiness Score です。
Citation Readiness Score の 8 軸
| # | 軸 | 配点 | 何を見るか |
|---|---|---|---|
| 1 | llms.txt の配置 + 充実度 | 15 | 単に存在するか / 5 セクション完備 / 200 文字以上 |
| 2 | robots.txt の AI ボット明示許可 | 10 | GPTBot / PerplexityBot / ClaudeBot を明示記載 |
| 3 | Organization JSON-LD の完備 | 10 | name / url / sameAs / contactPoint まで記載 |
| 4 | 固有名詞・数値・年月の密度 | 15 | 段落あたり最低 1 つ含む |
| 5 | FAQPage / HowTo schema の有無 | 10 | 構造化された Q&A の存在 |
| 6 | Author / Editorial の透明性 | 10 | 著者情報・所属・経歴・SNS 連携 |
| 7 | dateModified の運用品質 | 10 | 機械的更新ではなく意味のある更新 |
| 8 | 一次情報の量 | 20 | 実例・数値・体験談・社内データ |
合計 100 点。60 点以上が「合格ライン」、80 点以上が「AI 検索の常連組」です。
各軸を 1 つずつ深掘り
1. llms.txt の充実度 (15 点)
ファイルがあるだけでは 5 点。5 セクション(Title / Summary / Direct Answer / Main Sections / Key Concepts)が揃って 10 点。さらに「Direct Answer に固有名詞・数値が含まれている」状態で 15 点。
2. robots.txt の AI ボット明示許可 (10 点)
User-agent: GPTBot Allow: / のような明示記述があれば満点。AI ボットを意図的にブロックしている場合は 0 点(多くの企業は意識せず古い robots.txt のまま)。
3. Organization JSON-LD (10 点)
最低限の name / url で 5 点。logo / sameAs / contactPoint まで揃って 8 点。foundingDate / founder / address / aggregateRating まで含めて 10 点。
4. 固有名詞・数値・年月の密度 (15 点)
段落をランダム抽出して数値化します。「最高品質」「業界トップ水準」のような曖昧表現が並ぶサイトは低得点。「2026 年 4 月時点で月間 1,200 件の問い合わせ」のように具体的な数値が並ぶサイトは高得点。
5. FAQPage / HowTo schema の有無 (10 点)
FAQ ページに JSON-LD を埋めているか。HowTo(手順書)に schema を当てているか。AI 検索は構造化された Q&A を引用しやすい傾向があります。
6. Author / Editorial の透明性 (10 点)
ブログ記事に著者情報があるか。会社の編集ポリシーが公開されているか。Person schema が著者ページに当たっているか。
7. dateModified の運用品質 (10 点)
「全ページの dateModified を毎日自動で更新」は逆効果です。AI は「この更新は意味があったか」を見ています。本文の修正があったときだけ打ち直す運用が高評価。
8. 一次情報の量 (20 点)
最大配点。「他で書かれていることを書き直しただけ」のサイトは AI に引用されません。「自社で計測した数値」「自社の事例」「実際のお客様の声」「業界で観測したパターン」など、ここでしか読めない情報が必要です。
スコアを上げるための優先順位
時間と工数が限られている場合、以下の順序で改善するのが最短ルートです。
- まず 25 点取りに行く: llms.txt + robots.txt + Organization JSON-LD(合計 35 点配点)の基礎 3 点セット。これは Tufe の AI Search Integration Pack ¥2,980 で 60 秒で導入可能。
- 次に 30 点取りに行く: 固有名詞・数値の密度 (15) + FAQ schema (10) + Author 透明性 (10) の合計 35 点。テンプレ的な書き換えが多いので、月次で進めやすい。
- 最後に 30 点取りに行く: 一次情報 (20) + dateModified 運用 (10)。継続的なコンテンツ追加が必要なため、6 ヶ月単位で取り組む。
毎月測ることが大事
スコアを 1 度測って 80 点を取っても、6 ヶ月後に 65 点に戻ることがあります。理由は単純で、競合も同じことをするから、新しいコンテンツが増えていくから、AI 検索エンジンの評価軸が変わるから。
そこで Tufe では月次でスコアを採点し直す Monthly Citation Audit ¥2,980/月 を提供しています。
毎月、貴サイトの 8 軸スコア + 8 つの代表クエリでの引用適性 + 改善アクション 5 件 + 追加 FAQ 5 セットがメールで届きます。
まとめ
- AI 検索引用は llms.txt 1 枚では決まらない。サイト全体の 8 軸が見られている。
- 100 点満点で 60 点が合格ライン、80 点で常連組。
- 一次情報 (20 点) が最大配点。ここを書ける企業は強い。
- 1 度のスコアより、毎月の差分のほうが価値がある。
関連リソース
- LLMO 無料診断 — まずは現状確認
- Monthly Citation Audit — 月次でスコアを更新
- AI Search Integration Pack — 基礎 3 点セットを 60 秒で
- llms.txt 完全実装ガイド