AI Readiness Checker:あなたのウェブサイトはAIエンジンから見えていますか?
半年かけてSEOを最適化し、Googleの検索結果で3ページ目から1ページ目まで順位を上げた。ところがある日、ChatGPTで自分の専門分野を検索したら、競合の記事が引用されていて、自分のコンテンツはどこにも見当たらなかった。これはSEOの問題ではありません——AI Readinessの問題です。AI検索エンジンはまったく異なるシグナルで引用するかを判断します:llms.txt、AIボットのクロールルール、構造化データ——PageRankとは無関係です。この記事では、AI Readiness Checkerがなぜ存在するのかを開発者の視点から説明します。
TL;DR
- SEO A+はAI Readiness A+と同じではない:Cloudflareが20万の上位サイトを分析し、AIエージェントへの準備が世界的に深刻に不足していることを明らかに
- すべての競合ツール(Cloudflare、LLMClicks)は「診断」だけ——診断後も修正方法が分からない
- AI Readiness Checkerの違い:17次元スキャン + サイトタイプ別カスタムスコアリング + Claude Codeへのワンクリック修復プロンプト生成
- 自分のサイト shareuhack.com をスキャンして76点——Schema.orgのカバレッジ不足が最大の弱点
あなたのウェブサイトはAIエンジンから見えていない——SEOとは関係ない
Cloudflareが2026年4月に公開したAgent Readinessレポートは、不都合な事実を明らかにしました:世界のトップ20万サイトでさえ、ほとんどがAIエージェントへの準備が深刻に不足しています。
従来のSEOが最適化するのはGooglebotのクロールルール:robots.txt、サイトマップ、メタタグ、PageRank。しかしGPTBot、ClaudeBot、PerplexityBotは異なるアクセスルールに従います。彼らが見ているのは:
- llms.txt:LLM専用に設計されたプレーンテキストファイルで、サイトのコンテンツと構造をAIに伝えるもの。Googleには無意味ですが、ChatGPTやClaudeがあなたを引用するかどうかの最優先シグナルの一つ
- AIボットクロールルール:robots.txtがGPTBotやClaudeBotのアクセスを正しく許可しているか(汎用ルールですべてのクローラーをブロックしていないか)
- 構造化データ:Schema.orgのArticle、Product、FAQマークアップにより、AIがコンテンツ構造を正確に理解できる
LLMClicksのデータによると、商業検索の68%がすでにAIシステムによって回答されています。あなたのサイトがこれらのAIシステムから見えていないなら、急成長中のトラフィックソースを逃しています。
自分のサイト shareuhack.com を初めてスキャンした時、結果に驚きました——SEOは常に意識してきましたが、AI Readinessには明らかなギャップがありました。この経験がAI Readiness Checkerツールの開発に直接つながりました。
なぜこのツールを作ったのか——Cloudflareを試した後の挫折感
Cloudflareが2026年にリリースした「Is Your Site Agent-Ready」ツールは市場のパイオニアでした。ウェブサイトをスキャンし、AIエージェント関連の項目がパスか不合格かをリストアップします。問題は:その後どうすればいいの?
ToolRadarやProduct Huntの実際のユーザーレビューはほぼ全員が同じことを言っています:「問題がどこにあるかは分かったけど、次のステップが分からない。」
- Cloudflare:問題リストを表示するが修復手順は提供しない。技術的ハードルが高く、非エンジニアは結果を見ても直し方が分からない
- LLMClicks AI Readiness Analyzer:技術用語リストを出力するが、非技術系のサイトオーナーには理解困難
- ayzeo:セマンティックペイロード分析に特化、優先順位付けなし、すべての項目が同じ重要度に見える
3つとも優れた「診断エンジン」です。しかし診断と修復の間には巨大な溝があります——特に非エンジニアのコンテンツクリエイターやECサイトオーナーにとって。
AI Readiness Checkerはこの溝を埋めるために設計されました:スキャン後、各失敗項目を展開して具体的な修復手順を確認でき、「コーディングエージェントにプロンプトをコピー」ボタンで Claude Code や Cursor に直接コピーして、AIにコードを修正させます。自分で一行もコードを書く必要がありません。
17の検出次元、それぞれがAI引用の失敗パスに対応
ツールがスキャンする17の次元は、技術項目のランダムな寄せ集めではありません。各次元の設計の背後には実際の失敗事例があります:「このシグナルがなかったから、AI検索エンジンはあなたを引用しなかった。」
Critical(これがないと見えない)
| 次元 | 欠如の結果 |
|---|---|
| llms.txt | ChatGPT、Claudeがクロール困難、引用可能性が大幅低下 |
| AIボットアクセスルール | robots.txtの誤設定 → すべてのAI検索エンジンが永久にあなたを無視 |
| Schema.orgマークアップ | AIがコンテンツが記事、商品、FAQ、チュートリアルのいずれか正確に識別不能 |
Important(あれば加点、なければ減点)
| 次元 | 欠如の結果 |
|---|---|
| XMLサイトマップ | AIクローラーがすべてのページを発見困難 |
| Answer Fragments | AI Overviewがコンテンツを直接回答として抜粋不能 |
| 構造化FAQ | Q&A型検索でコンテンツが正確にマッチング不能 |
Advanced(特定のサイトタイプにのみ関連)
| 次元 | 対象 |
|---|---|
| MCP Server Card | APIプラットフォーム、SaaS開発者 |
| OAuth 2.0 discovery | AIエージェントの認証アクセスが必要なサービス |
| OpenAPI spec | APIドキュメントの完全性 |
この階層設計は意図的です:ブログを運営しているなら、CriticalとImportant層だけに注力すれば十分。API開発者なら、Advanced層が最優先です。
サイトタイプが修正の優先順位を決める——「一律基準」のスコアリングツールを信じてはいけない
最も直感に反する設計決定:異なるサイトタイプでは、AI Readinessのスコアリングウェイトを完全に変えるべきだということ。
| サイトタイプ | 最優先項目 | 無視しても安全 |
|---|---|---|
| ブログ | llms.txt、AIボットルール、Schema.org Article | MCP Server Card、OAuth |
| EC | Product schema、構造化商品データ、Answer Fragments | MCP Server Card |
| SaaS | OpenAPI spec、機能ドキュメント、Answer Fragments | 一部のSchema.orgタグ |
| APIプラットフォーム | MCP Server Card、OAuth 2.0、OpenAPI spec | llms.txt(優先度低め) |
競合ツールの問題点:すべてのサイトを同一基準でスコアリングすること。ブログなのにMCP Server Cardがないから減点されるなら、それは誤判です——ブログにMCP Server Cardは不要です。
AI Readiness Checkerはまずサイトタイプを聞き、タイプに応じて各次元のウェイトを調整します。ブログではllms.txtのウェイトが最高、APIプラットフォームではMCP Server Cardのウェイトが最高。あなたのスコアが実際の状況を反映し、関係のない一律基準ではないことを保証します。
AIボット戦場——GPTBot vs ClaudeBot vs Google-Extended、あなたのrobots.txtは自分を傷つけているかもしれない
AIクローラー市場は複数の陣営に分裂し、各AIシステムのクロールルールは互いに異なります:
- GPTBot(OpenAI):robots.txtのDisallowルールを尊重
- ClaudeBot(Anthropic):同じくrobots.txtを尊重するが、新しいクローラーのため多くのサイトが専用ルールを設定していない
- PerplexityBot:解析がより寛容で、一部のケースではDisallowに完全に従わない可能性
- Google-Extended:Google Geminiがコンテンツを使用できるか制御、SEOメインクローラー(Googlebot)とは別管理
最も一般的なミスは、汎用のUser-agent: *とDisallowでスパムボットをブロックし、同時にすべてのAIクローラーもブロックしてしまうこと。すべてのAI検索エンジンにコンテンツを無視させていることに気づいていない可能性があります。
もう一つの一般的なミス:GPTBotの許可ルールだけ設定してClaudeBotを忘れること。結果:ChatGPTはあなたを引用できるが、Claudeはできない。
2026年4月17日にリリースされたCloudflare Radarの新機能で、サイトへの各AIクローラーの実際のアクセス量を追跡できます。特定のAIボットのトラフィックがゼロなら、robots.txtの設定問題の可能性が高いです。
スキャン後、「AI Bot Access Control」項目を展開してみましょう——通常最もすぐに修正できる問題です:robots.txtを1行変更するだけで完了。
MCP Server Card——API開発者が無視できないAIエージェントの名刺
ブログではなくAPIプラットフォームやSaaSサービスを運営しているなら、このセクションが最も重要です。
MCP(Model Context Protocol)Server CardはAnthropicが定義した標準で、AIエージェント(Claude、GPT-4 with function callingなど)が自律的にタスクを実行する際、利用可能な外部サービスを自動発見できるようにするものです。AIエージェント向けの「サービス名刺」と考えてください——エージェントがMCP Server Cardを見つけると、あなたが提供する機能とAPIの呼び出し方を把握します。
MCP Server CardのないAPIプラットフォームは、AIエージェントにとって見えない存在です。APIの機能がどれほど強力でも。
良いニュース:デプロイの難しさは予想より低い。MCP Server Cardは本質的に構造化されたJSONファイルで、OpenAPI specのサブセットに似ています。既にOpenAPIドキュメントがあれば、MCP Server Cardへの変換は通常数時間で可能です。
AI Readiness Checkerは、APIプラットフォームタイプのサイトにはMCP Server Cardに高いウェイトを、ブログタイプにはこの項目を安全にスキップします。「サイトタイプがスコアリングウェイトを決める」の実践的な適用です。
shareuhack.comをスキャンした結果——76点、改善すべき点
ツールの開発者として、自分に正直にならない理由はありません。
shareuhack.comのスキャン結果:76/100。
パスした項目:
- llms.txtが存在し正しいフォーマット
- AIボットクロールルールが正しく設定(GPTBot、ClaudeBot、PerplexityBotすべて許可)
- XMLサイトマップ完備
失敗した項目:
- Schema.orgカバレッジが不完全:一部のページにArticle schemaマークアップが欠如、AIエンジンがこれらのページを記事と正確に識別できない
- Answer Fragmentsの不足:一部の長文コンテンツにAI Overviewが直接抜粋できる簡潔な段落が不足
- llms.txtフォーマットの最適化余地:存在するが構造をより詳細にできる
これらの発見で気づいたのは、AI Readinessに積極的に注意を払っていても盲点が残り得るということ。100点を追いかけることが重要なのではなく、弱点がどこにあり、何を優先的に修正すべきか知ることが重要です。
修復ワークフロー:
- スキャン結果で失敗項目を展開
- 「修復プロンプトをコピー」をクリック
- Claude Codeを開き、プロンプトを貼り付け
- Claude Codeがプロンプトに基づいてコードを自動修正
- 変更をデプロイし、1時間のキャッシュ期限切れを待ち、再スキャンして確認
プログラミング不要。JSONを理解する必要もありません。非エンジニアのコンテンツクリエイターやECサイトオーナーなら、このワークフローはあなたのために設計されています。
始め方:ウェブサイトURLを入力して3分で診断レポートを取得
AI Readiness Checkerの使い方:
- ウェブサイトURLを入力
- サイトタイプを選択(ブログ、EC、SaaS、APIプラットフォーム)
- スキャン完了を待つ(通常30秒〜2分)
- スコアと各次元の結果を確認:
- 60+ = Pass(基本合格)
- 40-59 = Needs Work(改善が必要)
- <40 = Critical(緊急対応が必要)
- 失敗項目を展開、修復プロンプトをコピー
一度にすべてを修正する必要はない
スキャン結果はインパクト順にソートされています。Critical層の項目から始めましょう——llms.txt、AIボットルール、Schema.orgマークアップ——この3つを修正すれば通常DからBへジャンプできます。ImportantとAdvanced層の項目は後から段階的に対応できます。
結果はClaude CodeやCursorにコピー可能
各失敗項目の修復プロンプトはコーディングエージェントが直接実行できるよう設計されています。必要なのは:
- 技術的詳細の理解ではなく
- 自分でコードを書くことでもなく
- エンジニアの友人に助けを求めることでもなく
Claude CodeやCursorを開いてプロンプトを貼り付け、Enterを押すだけ。AIが修正してくれます。
結論:AI検索トラフィックは次のSEO——早く準備するほど大きなアドバンテージ
LLMClicksのデータによると、商業検索の68%がAIシステムによって回答されています。この割合は上がり続ける一方です。
今日のAI Readinessは2010年代初頭のSEOと同じ——ほとんどのサイトがまだ準備の必要性に気づいておらず、先行者が不釣り合いなアドバンテージを得ています。Cloudflareの20万サイトレポートも確認:世界的にほとんどのサイトがAIエージェントへの準備が深刻に不足しており、機会の窓はまだ大きく開いています。
100点を追いかける必要はありませんが、自分のスコアを知る必要はあります。
3分であなたのサイトをスキャンしてみましょう:AI Readiness Checkerへ →
FAQ
AI Readinessスコアは何点で合格ですか?
60点以上がPass(基本合格)、40-59点がNeeds Work(改善が必要)、40点未満がCritical(緊急対応が必要)。スコアはAI検索エンジンがあなたのコンテンツを効果的にクロール、理解、引用できるかを反映しており、SEOランキングとは直接関係ありません。
スキャン結果にキャッシュはありますか?サイト修正後、再スキャンまでどのくらい待つ必要がありますか?
ツールには1時間のスキャンキャッシュがあります。サイト修正後、キャッシュが期限切れになるまで(約1時間)待つ必要があります。すぐに再スキャンしたい場合は、別のブラウザを使用するかブラウザキャッシュをクリアしてみてください。
「AIエージェントにプロンプトをコピー」機能はどう使いますか?Claude Codeで使えますか?
スキャン結果の各失敗項目に「修復プロンプトをコピー」ボタンがあります。クリックするとクリップボードにコピーされるので、Claude CodeやCursorのチャットウィンドウに直接貼り付けます。AIコーディングアシスタントがプロンプトに基づいてコードを自動修正します。プログラミングの知識は不要です。


