AI Readiness Checker:你的網站對 AI 引擎是隱形的嗎?
你花了半年優化 SEO,Google 排名從第三頁爬到第一頁。但有一天你在 ChatGPT 裡搜尋自己的專業領域,發現它引用了競爭對手的文章,你的內容完全沒出現。這不是 SEO 的問題——是 AI Readiness 的問題。AI 搜尋引擎用完全不同的信號決定是否引用你:llms.txt、AI bot 爬蟲規則、結構化資料,這些和 PageRank 毫無關係。這篇文章從建造者的視角,解釋 AI Readiness Checker 為什麼存在,以及它能幫你做什麼。
TL;DR
- SEO A+ 不等於 AI Readiness A+:Cloudflare 分析 20 萬個頂尖網站,全球對 AI agent 準備嚴重不足(Cloudflare Radar 官方報告)
- 所有競品工具(Cloudflare、LLMClicks)都只做「診斷」,診斷完你還是不知道怎麼修
- AI Readiness Checker 的差異:掃描 17 個維度 + 依網站類型客製評分 + 一鍵生成修復 Prompt 丟給 Claude Code
- 我拿自己的網站 shareuhack.com 掃描,得了 76 分——Schema.org 覆蓋不完整是最大弱點
你的網站對 AI 引擎是隱形的——這和 SEO 沒關係
Cloudflare 在 2026 年 4 月發布的 Agent Readiness 報告揭露了一個不舒服的事實:即使是全球前 20 萬的頂尖網站,大部分對 AI agent 的準備依然嚴重不足。
傳統 SEO 優化的是 Googlebot 的爬蟲規則:robots.txt、sitemap、meta tags、PageRank。但 GPTBot、ClaudeBot、PerplexityBot 遵循不同的存取規則。它們看的是:
- llms.txt:一個專為 LLM 設計的純文字檔案,告訴 AI 你的網站有什麼內容、結構是什麼。對 Google 毫無意義,但對 ChatGPT、Claude 是否引用你是最高優先信號之一
- AI bot 爬蟲規則:你的 robots.txt 是否正確允許 GPTBot、ClaudeBot 存取(而非用通用規則擋掉所有爬蟲)
- 結構化資料:Schema.org 的 Article、Product、FAQ 標記,讓 AI 能準確理解你的內容結構
LLMClicks 的數據指出,68% 的商業搜尋已經由 AI 系統回答(LLMClicks 業界估算,非獨立第三方研究)。如果你的網站對這些 AI 系統是隱形的,你正在錯過一個快速成長的流量來源。
我拿自己的網站 shareuhack.com 做了第一次掃描,結果讓我驚訝——SEO 一直有在做,但 AI Readiness 竟然有明顯的缺口。這個經驗直接催生了 AI Readiness Checker 工具。
我為什麼做這個工具——試過 Cloudflare 之後的挫敗感
Cloudflare 在 2026 年推出的「Is Your Site Agent-Ready」工具是市場上的先驅。它會掃描你的網站,列出哪些 AI agent 相關的項目通過或失敗。問題是:然後呢?
ToolRadar 和 Product Hunt 上的真實用戶評論幾乎都在說同一件事:「知道哪裡出錯,但不知道下一步。」
- Cloudflare:列出問題清單,但不提供修復步驟。技術含量高,非工程師看得到結果但不知道怎麼改
- LLMClicks AI Readiness Analyzer:輸出技術術語列表,對非技術站長形同天書
- ayzeo:側重 semantic payload 分析,沒有優先級排序,所有項目看起來一樣重要
這三個工具都是很好的「診斷引擎」。但診斷和修復之間有一道巨大的鴻溝——特別是對非工程師背景的內容創作者和電商站長。
AI Readiness Checker 的設計目標就是填補這道鴻溝:掃描完之後,每個失敗項目可以展開,看到具體的修復步驟,而且有一個「複製 Prompt 給 coding agent」的按鈕——直接複製到 Claude Code 或 Cursor,讓 AI 幫你改程式碼。你不需要自己寫任何一行 code。
17 個檢測維度,每一個都對應真實的 AI 引用失敗路徑
工具掃描的 17 個維度不是隨意堆砌的技術清單。每個維度的設計背後都有一個真實的失敗案例:「因為缺少這個信號,所以 AI 搜尋引擎不引用你。」以下列出最核心的代表維度,依優先層級分類(完整 17 個維度依網站類型動態呈現在工具掃描結果中):
Critical(不做就隱形)
| 維度 | 缺少的後果 |
|---|---|
| llms.txt | ChatGPT、Claude 爬取困難,引用意願大幅降低 |
| AI bot 存取規則 | robots.txt 錯誤設定 → 所有 AI 搜尋引擎永遠不引用你 |
| Schema.org 標記 | AI 無法準確理解你的內容是文章、商品、FAQ 還是教學 |
| 內容可爬取性 | 動態渲染(SPA)或登入牆阻擋 AI bot 爬取 |
Important(做了加分,不做扣分)
| 維度 | 缺少的後果 |
|---|---|
| XML Sitemap | AI 爬蟲難以發現你的所有頁面 |
| Answer Fragments | AI Overview 無法直接摘錄你的內容作為答案 |
| 結構化 FAQ | 問答型搜尋中你的內容無法被精準匹配 |
| 內容新鮮度信號 | AI 系統可能認為內容過時而降低引用優先度 |
| 語意實體標記 | AI 無法辨識文章的主題實體(人物、地點、產品) |
Advanced(特定網站類型才重要)
如果你是部落格或電商,這層可以安全略過。
| 維度 | 適用對象 |
|---|---|
| MCP Server Card | API 平台、SaaS 開發者 |
| OAuth 2.0 discovery | 需要 AI agent 認證存取的服務 |
| OpenAPI spec | API 文件完整性 |
| Agent function schema | 希望 AI agent 能自動調用你服務的開發者 |
這個分層設計是有意的:如果你是部落格經營者,你只需要關注 Critical 和 Important 層。如果你是 API 開發者,Advanced 層才是你的優先項目。
你的網站類型決定優先修什麼——不要相信「一套標準」的評分工具
這是工具設計中最反直覺的決定:不同類型的網站,AI Readiness 的評分加權應該完全不同。
| 網站類型 | 最優先項目 | 可以忽略的項目 |
|---|---|---|
| 部落格 | llms.txt、AI bot 規則、Schema.org Article | MCP Server Card、OAuth |
| 電商 | Product schema、結構化商品資料、Answer Fragments | MCP Server Card |
| SaaS | OpenAPI spec、功能文件、Answer Fragments | 部分 Schema.org 標記 |
| API 平台 | MCP Server Card、OAuth 2.0、OpenAPI spec | llms.txt(較低優先) |
競品工具的問題在於:它們用同一套標準評所有網站。如果你是部落格,但工具因為你沒有 MCP Server Card 而扣你分,那是誤判——你根本不需要 MCP Server Card。
AI Readiness Checker 會先問你的網站類型,然後根據類型調整每個維度的加權。部落格的 llms.txt 權重最高;API 平台的 MCP Server Card 權重最高。這確保你看到的分數反映的是你的真實處境,而非一個不相關的通用標準。
AI bot 戰場——GPTBot vs ClaudeBot vs Google-Extended,你的 robots.txt 可能在誤傷自己
AI 爬蟲市場已經分裂成多個陣營,每個 AI 系統的抓取規則互不相同:
- GPTBot(OpenAI):尊重 robots.txt 的 Disallow 規則
- ClaudeBot(Anthropic):同樣尊重 robots.txt,但作為較新的爬蟲,很多網站還沒有為它設定專門規則
- PerplexityBot:解析規則更寬鬆,部分情況下可能不完全遵循 Disallow
- Google-Extended:控制 Google Gemini 是否可以使用你的內容,和 SEO 主爬蟲(Googlebot)分開控制
最常見的錯誤是用通用的 User-agent: * 搭配 Disallow 來擋垃圾爬蟲,結果同時把所有 AI 爬蟲也擋掉了。你可能不知道自己正在讓所有 AI 搜尋引擎忽略你的內容。
另一個常見錯誤:只設定了 GPTBot 的允許規則,但忘了 ClaudeBot。結果 ChatGPT 可以引用你,但 Claude 不行。
Cloudflare Radar 在 2026 年 4 月 17 日推出的新功能可以追蹤各 AI 爬蟲在你網站的實際存取比例。如果你發現某個 AI bot 的流量為零,很可能是 robots.txt 設定問題。
掃描後展開「AI Bot Access Control」項目——這通常是最容易立刻修復的問題,改一行 robots.txt 就完成。
MCP Server Card——API 開發者不能忽視的 AI 代理人名片
如果你經營的不是部落格而是 API 平台或 SaaS 服務,這一段對你最重要。
MCP(Model Context Protocol)Server Card 是 Anthropic 定義的標準,讓 AI agent(如 Claude、GPT-4 with function calling)在自主執行任務時,能自動發現可用的外部服務。你可以把它想像成 AI agent 的「服務名片」——agent 看到你的 MCP Server Card,就知道你提供什麼功能、怎麼呼叫你的 API。
沒有 MCP Server Card 的 API 平台對 AI agent 等同隱形,即使你的 API 功能再強大。
好消息是部署難度比預期低:MCP Server Card 本質上是一個結構化的 JSON 檔案,類似 OpenAPI spec 的子集。如果你已經有 OpenAPI 文件,轉換成 MCP Server Card 通常只需要幾小時。
AI Readiness Checker 在這個維度的處理方式:API 平台類型的網站會給 MCP Server Card 高權重;純部落格類型則可以安全略過這個項目。這就是前面說的「網站類型決定評分加權」的實際應用。
我用工具掃描了 shareuhack.com——76 分,這是我沒做好的地方
作為工具的建造者,我沒有理由不對自己坦白。
掃描 shareuhack.com 的結果:76/100。
通過的項目:
- llms.txt 存在且格式正確
- AI bot 爬蟲規則正確設定(GPTBot、ClaudeBot、PerplexityBot 皆允許)
- XML Sitemap 完整
未通過的項目:
- Schema.org 覆蓋不完整:部分頁面缺少 Article schema 標記,AI 引擎無法準確辨識這些頁面是文章
- Answer Fragments 不足:部分長文缺少直接可被 AI Overview 摘錄的精簡段落
- llms.txt 格式可優化:雖然存在,但結構可以更詳細
這些發現讓我意識到,即使你主動關注 AI Readiness,仍然可能有盲點。重點不是追求 100 分,而是知道自己的弱點在哪裡、優先修什麼。
修復流程是這樣的:
- 在掃描結果中展開失敗項目
- 點擊「複製修復 Prompt」
- 打開 Claude Code,貼上 Prompt
- Claude Code 根據 Prompt 自動修改程式碼
- 部署修改後等 1 小時快取過期,重新掃描確認
不需要寫任何程式碼。不需要理解 JSON。如果你是非工程師背景的內容創作者或電商站長,這個流程是為你設計的。
怎麼開始:輸入你的網站 URL,3 分鐘得到診斷報告
使用 AI Readiness Checker 的流程:
- 輸入你的網站 URL
- 選擇你的網站類型(部落格、電商、SaaS、API 平台)
- 等待掃描完成(通常 30 秒到 2 分鐘)
- 查看分數和各維度結果:
- 60+ = Pass(基本合格)
- 40-59 = Needs Work(需改善)
- <40 = Critical(急需處理)
- 展開失敗項目,複製修復 Prompt,貼到 Claude Code 或 Cursor
你不需要一次修完所有問題
掃描結果按影響力排序。從 Critical 層的項目開始——llms.txt、AI bot 規則、Schema.org 標記——這三個修完通常就能從 D 級跳到 B 級。Important 和 Advanced 層的項目可以之後慢慢處理。
修復 Prompt 長什麼樣子?
展開失敗項目後,你會看到類似這樣的修復 Prompt:
我的網站 [URL] 缺少 llms.txt 檔案。
請在網站根目錄建立 /llms.txt,格式如下:
- 包含網站名稱、主題描述
- 列出主要內容分類和對應的 URL 格式
- 說明哪些頁面不希望 AI 索引
參考格式:https://llmstxt.org
這個 Prompt 設計為可直接給 coding agent 執行,不需要你解釋技術背景。貼到 Claude Code 或 Cursor 後,AI 就會根據你的網站結構自動生成正確的 llms.txt。
結論:AI 搜尋流量是下一個 SEO,越早準備優勢越大
LLMClicks 的估算指出 68% 的商業搜尋已由 AI 系統回答(業界數據,非獨立研究驗證)。這個比例只會持續上升。
現在的 AI Readiness 就像 2010 年代初期的 SEO——大部分網站還沒意識到需要做,先行者能拿到不成比例的優勢。Cloudflare 20 萬網站的報告也證實:全球大部分網站對 AI agent 的準備嚴重不足,這代表機會窗口還大開著。
你不需要追求 100 分,但你需要知道自己的分數。
花 3 分鐘掃描一下你的網站:前往 AI Readiness Checker →
FAQ
AI Readiness 分數多少算及格?
60 分以上為 Pass(基本合格),40-59 分為 Needs Work(需改善),40 分以下為 Critical(急需處理)。分數反映的是 AI 搜尋引擎能否順利抓取、理解和引用你的內容,和 SEO 排名無直接關係。
掃描結果有快取嗎?修改網站後要等多久才能重新掃描?
工具有 1 小時的掃描快取機制。修改網站後需要等快取過期(約 1 小時)才能看到更新的結果。如果需要立即重掃,可以嘗試使用不同的瀏覽器或清除瀏覽器快取。
「複製 Prompt 給 AI Agent」的功能要怎麼用?可以給 Claude Code 嗎?
掃描結果中每個失敗項目都有「複製修復 Prompt」按鈕。點擊後複製到剪貼板,直接貼到 Claude Code 或 Cursor 的對話框中,AI 編程助手就能根據 Prompt 自動修改你的程式碼。不需要自己寫程式。


