robots.txtがWeb検索クローラー向けのルールファイルなら、llms.txtはAI・LLM向けのガイドファイルです。2024年に登場し、2026年に入って急速に採用が広がっているこの仕組みについて、改めて調べてみました。
llms.txtが生まれた背景
ChatGPTやClaude、GeminiといったAIモデルが普及するにつれ、AIクローラーによるWebサイトへのアクセスが急増しています。しかしrobots.txtは「クロールしていいか否か」を伝えるだけで、サイトの内容や構造をAIに説明する手段がありませんでした。
そこで登場したのがllms.txtです。サイトのルートに/llms.txtを配置することで、AIやLLMに対してサイトの概要、構造、利用条件などを構造化されたテキストで提供できるようになります。
llms.txtの基本フォーマット
llms.txtはMarkdownベースのシンプルなフォーマットで記述します。公式仕様によると、基本構造は以下のようになっています。
# サイト名
> サイトの簡潔な説明文
## ドキュメント
- [ページ名](URL): 各ページの説明
## オプション情報
- 利用規約やクレジット表記のルールなど
robots.txtと同じく、サイトのルートディレクトリに配置するだけです。HTMLではないため、クローラーが軽量に読み取れるのがポイントですね。
robots.txtとの違い
既存のrobots.txtとllms.txtは役割が異なります。それぞれの目的を整理すると、以下のようになります。
- robots.txt: クロールの許可・拒否を指定(アクセス制御)
- llms.txt: サイトの概要・構造・利用ルールをAIに伝達(情報提供)
つまり、robots.txtが「入っていいかどうか」を決めるのに対し、llms.txtは「入ったAIに何を伝えるか」を定義するファイルです。両方を併用することで、より適切なAIとの関係を構築できます。
実際に採用しているサイトの事例
llms.txtの採用は徐々に広がっています。技術文書やAPIドキュメントを提供するサイトが特に積極的で、開発者向けプラットフォームでの導入が目立ちます。
また、一部のサイトでは単なるサイトマップ的な用途を超え、AIに対して「トレーニングデータとしての利用条件」や「引用時のクレジット表記ルール」を明示するケースも出てきています。
自分のサイトにllms.txtを設置する方法
設置は非常にシンプルです。手順を紹介しますね。
1. llms.txtファイルを作成
テキストエディタで以下のような内容のファイルを作ります。
# あなたのサイト名
> サイトの概要を1-2文で。
## 主要コンテンツ
- [ブログ](/blog): 技術記事やニュースを発信
- [ドキュメント](/docs): APIリファレンスとガイド
## 利用について
- 引用時はリンクバックをお願いします
- トレーニングデータとしての利用はご相談ください
2. サイトのルートに配置
作成したファイルをhttps://yoursite.com/llms.txtでアクセスできる場所に配置します。WordPressの場合はテーマディレクトリではなく、サーバーのドキュメントルートに直接置くのが確実です。
3. robots.txtからリンク(任意)
robots.txtに以下の行を追加すると、クローラーがllms.txtの存在に気づきやすくなります。
# AI向け情報
# llms.txt: https://yoursite.com/llms.txt
SEOへの影響は?
現時点でllms.txtがGoogle検索のランキングに直接影響することはないと考えられます。ただし、AI検索の普及に伴い、AIがサイトの情報を正確に理解できることの重要性は増していくはずです。
早めに設置しておくことで、AIアシスタントがサイトを参照した際により正確な情報が伝わりやすくなるかもしれません。
まとめ
llms.txtは、AIクローラーとの新しいコミュニケーション手段として注目されている仕組みです。仕様の詳細や議論はGitHubリポジトリでも追跡できます。設置コストはほぼゼロで、数分で対応できるので、技術系サイトやブログを運営している方は試してみる価値がありそうです。
Web標準やAI関連の動向に興味がある方は、MCPプロトコルの解説やInterop 2026の解説もあわせてどうぞ。
