Shareuhack | OpenAI Codex CLI 完整指南:終端 AI Coding Agent 實測與 Claude Code 場景分流
OpenAI Codex CLI 完整指南:終端 AI Coding Agent 實測與 Claude Code 場景分流

OpenAI Codex CLI 完整指南:終端 AI Coding Agent 實測與 Claude Code 場景分流

April 19, 2026
LunaMiaEno
撰寫Luna·研究Mia·審查Eno·持續更新·11 分鐘閱讀

OpenAI Codex CLI 完整指南:不是復活舊 API,是你終端裡的 AI Coding Agent

如果你聽到「OpenAI Codex」就想到 2021 年那個已經關閉的程式補全 API,你並不孤單——但你錯過的是一個完全不同的工具。2025 年推出的 Codex CLI 是用 Rust 從頭打造的開源 terminal coding agent,截至 2026 年 4 月已累積超過 75K GitHub stars、每月 1,450 萬次 npm 下載,以及 300 萬週活躍用戶。

這篇文章會幫你搞清楚 Codex CLI 到底是什麼、怎麼裝、跟 Claude Code 的定位差異在哪,以及你是否應該把它加進工具箱。

TL;DR

  • Codex CLI 與 2021 年的 Codex API 毫無關係,是 2025 年全新的 Rust 開源 terminal agent
  • 工具免費(Apache-2.0),但 AI 能力需要 OpenAI 帳號——ChatGPT Plus 用戶可免額外 API 費用使用
  • Rust 架構帶來記憶體約 80MB、token 處理 240+/秒的效能(DataCamp 測試環境),但程式碼品質盲測中 Claude Code 仍勝出
  • 與 Claude Code 是互補關係:Codex CLI 適合批量重構和 CI 環境,Claude Code 適合複雜架構推理
  • 原生支援 MCP,你在 Claude Code 設定的 MCP server 幾乎可直接複用

你以為 Codex 已死——但你記憶中的那個 Codex,從來就不是這個

這個混淆完全合理。OpenAI 在 2021 年推出基於 GPT-3 的 Codex API,主要用於程式碼補全(GitHub Copilot 早期就是用它驅動),然後在 2023 年 3 月正式關閉。故事到這裡,「Codex 死了」是正確的。

但 2025 年 4 月,OpenAI 用同一個品牌名稱推出了完全不同的東西:Codex CLI——一個用 Rust 從頭撰寫的 terminal coding agent。

兩者的差異不是版本升級,而是完全不同品類的產品:

舊 Codex API(2021-2023)新 Codex CLI(2025-)
本質雲端程式碼補全 API本地 terminal coding agent
技術架構GPT-3 微調模型Rust 原生應用 + codex-mini 模型
使用方式API 呼叫終端機直接互動
授權閉源商業 APIApache-2.0 開源
程式碼語言Python service95.6% Rust
狀態已關閉活躍開發中(700+ releases)

根據實際操作經驗,看到「Codex」就以為是舊工具的人非常多,尤其在繁中社群。如果你是其中之一,現在可以重新認識它了。

Terminal Coding Agent 的崛起——為什麼 Codex CLI 的規模值得認真看待

Terminal-native agent 在 2025 年起快速成為主流工作流的一部分——可以嵌入 CI/CD pipeline、批量操作大量檔案、在 SSH 遠端環境中運行,這些都是 IDE 外掛的結構性限制。Codex CLI 的數字說明這不是小眾工具:npm 月下載量從 2025 年 4 月的 8.2 萬暴增至 2026 年 3 月的 1,453 萬(公司自述),週活躍用戶超過 300 萬(Sam Altman 2026 年 4 月公開說明,公司自述數據)。

安裝與啟動——ChatGPT 帳號、API key,還是兩個都要?

先處理最多人問的問題:Codex CLI 開源,但不等於 AI 功能免費。

工具本身是 Apache-2.0 開源,你可以自由安裝、修改、甚至 fork。但背後的 AI 推理需要 OpenAI 的模型,所以需要帳號。好消息是,ChatGPT Plus 用戶有一條不用額外掏錢的路。

安裝

# npm(推薦)
npm install -g @openai/codex

# 或 Homebrew(macOS)
brew install --cask codex

認證方式選擇

方式一:ChatGPT 帳號認證(Plus/Pro 用戶推薦)

codex auth
# 瀏覽器會打開 OpenAI 登入頁面,登入後自動完成設定

這種方式不需要自己管理 API key,也不會產生額外的 API 費用——使用量計入你的 ChatGPT 訂閱方案。

方式二:API key 認證

export OPENAI_API_KEY="sk-..."

或在 ~/.codex/config.toml 設定:

preferred_auth_method = "apikey"

API key 模式按 token 計費,codex-mini-latest 費率(截至 2026 年 4 月):

  • Input:$1.50 / 1M tokens
  • Output:$6.00 / 1M tokens
  • Prompt caching 折扣:75%

免費 credits

Plus 用戶可領取 $5、Pro 用戶可領取 $50 的免費 API credits(30 天限期,截至 2026 年 4 月),登入時自動發放。

我們實測發現:如果你已經是 ChatGPT Plus 訂閱者,用 codex auth 是最無腦的起步方式——30 秒內完成設定,不用管 API key 和計費。

第一個 Coding 任務——從 Hello World 到實戰場景

安裝完成後,直接在終端機裡給 Codex CLI 一個任務:

codex "寫一個解析 CSV 並輸出 JSON 的 Python 腳本"

Codex CLI 會分析你的需求、生成程式碼、並詢問你是否要執行。這裡的關鍵概念是 approval mode——你決定 Codex CLI 有多大的自主權。

三種 Approval Mode

模式行為適用場景
suggest(預設)所有操作都需要你確認初次使用、學習工具行為
auto-edit自動編輯檔案,但執行命令需確認日常開發、信任程式碼但想控制系統操作
full-auto全自動執行CI/CD 環境、批量任務

切換方式:

# 啟動時指定
codex --approval-mode full-auto "重構所有 test 檔案使用 vitest"

# 或在 config.toml 設定預設值

重要full-auto 不代表「不安全」。Codex CLI 在此模式下啟用 kernel-level 沙盒——macOS 使用 Seatbelt 框架、Linux 使用 bubblewrap、Windows 在 PowerShell 下使用原生沙盒。根據官方 Sandbox 文件,沙盒預設封鎖非必要的網路存取,保護工作環境不受意外外部呼叫影響。

五個實用場景

  1. 腳本生成codex "寫一個監控磁碟使用率並發 Slack 通知的 bash 腳本"
  2. Bug 修復codex "這個 test 失敗了,幫我找出原因並修復"
  3. 測試撰寫codex "為 src/utils/ 下所有函式生成單元測試"
  4. 程式碼重構codex "把所有 var 宣告改成 const/let"
  5. 文件生成codex "為這個專案生成 API 文件"

Rust 架構帶來的效能優勢——不只是數字,是使用體感

Codex CLI 在 2025 年底從 TypeScript 重寫為 Rust,這不是「追 Rust 潮流」的決定,而是有明確的效能目標。根據官方 GitHub Discussion #1174 的說明,重寫的核心理由是啟動速度和記憶體效率。

具體數字(DataCamp 評測與第三方評測交叉驗證):

  • 記憶體佔用:約 80MB(Claude Code 在處理大型專案時可達數 GB)
  • Token 處理速度:240+ tokens/秒(DataCamp 測試環境)
  • Terminal-Bench 2.0 評分:77.3%(vs Claude Code 65.4%)(DataCamp 評測)

但這裡必須說清楚一個重要的 caveat:**Terminal-Bench 是針對 terminal 原生任務(腳本、系統管理、DevOps)的 benchmark,不代表整體程式碼品質。**在盲測中(開發者不知道程式碼由哪個工具生成),Claude Code 在 67% 的比較中被評為品質更高,Codex CLI 為 25%。

所以效能優勢是真實的,但要看場景:

  • 效能敏感場景:低記憶體 VPS、CI 環境、長時間批量操作 → Codex CLI 有結構性優勢
  • 品質敏感場景:需要精確架構決策的複雜開發 → Claude Code 的推理能力更適合

Codex CLI vs Claude Code——不是選一個,是場景分流

這是搜尋量最高的問題,但「哪個更好」是錯誤的提問方式。我們在日常工作中兩個都用,關鍵是為不同任務選不同工具。

場景分流矩陣

場景推薦工具理由
批量重構 / 腳本生成Codex CLItoken 成本較低、處理速度快,適合批量任務
複雜架構決策、多文件理解Claude Code程式碼品質盲測勝率 67%,推理更精確
CI/CD pipeline 整合Codex CLI80MB 記憶體、kernel-level 沙盒、原生適合無人值守
精確 debug、錯誤分析Claude Code多步推理能力較強
Vendor lock-in 敏感Codex CLIApache-2.0 開源,可 fork 可自部署
前端 UI 開發Claude Code對 React/Vue 等框架的理解更深
大量檔案重命名 / 格式統一Codex CLI批量操作效率高、成本低

安全機制的根本差異

兩者的安全哲學不同:

  • Codex CLI:kernel-level sandboxing(macOS Seatbelt、Linux bubblewrap),從作業系統層面隔離
  • Claude Code:application-layer hooks,在應用層面控制

這意味著在對安全要求嚴格的企業環境中,Codex CLI 的沙盒機制提供了更底層的保護。

實際建議

如果你已經在用 Claude Code,不需要切換——把 Codex CLI 加進來當第二工具。批量任務丟 Codex CLI、精細開發留 Claude Code。兩者都支援 MCP,工具鏈可以共享。

MCP 整合實戰——把 Codex CLI 接入你現有的工具鏈

Codex CLI 原生支援 MCP(Model Context Protocol),這代表你可以讓它連接外部工具——資料庫、檔案系統、文件搜尋、甚至其他 AI 服務。

設定方式

~/.codex/config.toml 中加入 MCP server 設定:

[mcp_servers.filesystem]
command = "npx"
args = ["-y", "@modelcontextprotocol/server-filesystem", "/path/to/allowed/dir"]

[mcp_servers.context7]
command = "npx"
args = ["-y", "@upstash/context7-mcp"]

或使用 CLI 指令管理:

codex mcp add filesystem npx -y @modelcontextprotocol/server-filesystem /path/to/dir

設定選項

每個 MCP server 支援以下設定:

  • command(必填):啟動 server 的指令
  • args(選填):傳遞給指令的參數
  • startup_timeout_sec(預設 10 秒):server 啟動逾時
  • tool_timeout_sec(預設 60 秒):工具執行逾時
  • enabled(預設 true):可以暫時停用而不刪除設定

專案層級設定

除了全域 ~/.codex/config.toml,你也可以在專案根目錄建立 .codex/config.toml,讓 MCP 設定跟著專案走。但要注意,專案層級的設定只在 trusted projects 中生效。

實務提醒:如果你已經在 Claude Code 設定了 MCP server,只需把 command 和 args 搬到 TOML 格式即可。以 filesystem server 為例:

Claude Code(~/.claude/settings.json):

{
  "mcpServers": {
    "filesystem": {
      "command": "npx",
      "args": ["-y", "@modelcontextprotocol/server-filesystem", "/path/to/dir"]
    }
  }
}

Codex CLI(~/.codex/config.toml):

[mcp_servers.filesystem]
command = "npx"
args = ["-y", "@modelcontextprotocol/server-filesystem", "/path/to/dir"]

兩者的 command 和 args 完全相同,只是格式語法不同。

開源生態與安全考量——Apache-2.0、沙盒、資料政策

Codex CLI 的 Apache-2.0 授權意味著:

  • 可商業使用:企業可以直接部署,不需要額外授權
  • 可修改和 fork:你可以基於原始碼建立客製化版本
  • 專利保護:Apache-2.0 包含明確的專利授權條款

社群活躍度

截至 2026 年 4 月的數字:

  • GitHub stars:75K+
  • Contributors:428 人
  • Releases:700+(平均每天近 2 個 release)
  • npm 月下載量:1,453 萬(2026 年 3 月)
  • 社群 fork:10.7K+,包括 every-code、open-codex 等衍生專案

這些數字(來自 GitHub 和 npm 公開資料)說明這是一個有持續動能的專案,不是 OpenAI 做了丟在那裡的實驗。

沙盒安全機制

Codex CLI 的 full-auto 模式使用 kernel-level sandboxing:

  • macOS:Seatbelt 框架(開箱即用)
  • Linux / WSL2:bubblewrap(需安裝:sudo apt install bubblewrap
  • Windows PowerShell:原生 Windows 沙盒

根據官方 Sandbox 文件,沙盒預設封鎖非必要的網路存取,檔案系統存取限制在工作目錄範圍內。

資料政策注意事項

使用 API key 模式時,你的程式碼會送到 OpenAI 的模型進行推理。OpenAI 的 API 資料政策聲明不會使用 API 輸入來訓練模型(截至 2026 年 4 月的政策)。但如果你處理高度敏感的企業程式碼,仍應評估是否符合你組織的合規要求。

Codex CLI vs Aider vs Gemini CLI——開源 Terminal Agent 生態全圖

2026 年的 terminal AI agent 不只 Codex CLI 一個選擇。以下是主要選手的定位:

快速定位比較

Codex CLIAiderGemini CLIClaude Code
開源授權Apache-2.0Apache-2.0Apache-2.0閉源
綁定模型OpenAI(GPT-4o、codex-mini)任意 LLMGoogle(Gemini)Anthropic(Claude)
語言RustPythonPythonTypeScript
沙盒機制Kernel-level有限Application-layer
免費方案ChatGPT Plus 含工具免費,模型自付免費額度較高Max plan $100/月起
特色效能、沙盒、大規模社群模型無關、最靈活大 context window程式碼品質最高

怎麼選?

  • 你依賴 OpenAI / GPT 生態:Codex CLI 是原生選擇
  • 你想用本地模型或混合模型:Aider 是唯一支援任意 LLM 的工具
  • 你處理超大 codebase、需要長 context:Gemini CLI 的 context window 最大
  • 你重視程式碼品質和複雜推理:Claude Code 目前仍領先
  • 你需要最嚴格的沙盒隔離:Codex CLI 的 kernel-level 方案最強

這些工具不互斥。根據實際使用經驗,我們發現最有效率的做法是根據任務性質切換工具,而不是只用一個。

適合 Codex CLI 的工程師——你的 Checklist

用這個 checklist 判斷你是否應該現在就試試 Codex CLI:

適合立即上手的情況:

  • 你是 ChatGPT Plus 或 Pro 訂閱者(零額外成本起步)
  • 你有大量批量重構、腳本生成的需求
  • 你在 CI/CD pipeline 中需要輕量的 AI agent
  • 你對 vendor lock-in 有顧慮,想要開源備選方案
  • 你已經在用 terminal-based 工作流,不依賴 IDE

可以暫緩的情況:

  • 你的主要需求是複雜架構推理和精確 debug → Claude Code 目前仍是較好的選擇
  • 你需要完全本地化、不連外網的 AI → 考慮 Aider + 本地 LLM
  • 你只寫前端、主要在 IDE 內工作 → IDE 整合工具可能更適合

起步建議

不需要放棄你現有的工具。用一個真實任務測試 Codex CLI——比如重構一批檔案或生成測試——如果它在你的場景中表現好,就把它加進工具箱作為互補選項。

# 30 秒起步
npm install -g @openai/codex
codex auth
codex "幫我檢查這個專案的 TODO 並生成 issue 清單"

Terminal coding agent 的時代已經到來,而 Codex CLI 是這個生態中最輕量、最開放的選項之一。試不試,你自己決定。

FAQ

Codex CLI 是免費的嗎?

Codex CLI 工具本身是 Apache-2.0 開源免費,但 AI 功能需要 OpenAI 帳號。ChatGPT Plus 用戶可透過 ChatGPT auth 方式免額外 API 費用使用;API key 模式下,codex-mini-latest 費率為 $1.50/1M input tokens、$6.00/1M output tokens。Plus/Pro 用戶各有 $5/$50 免費 API credits(30 天限期)。

使用 Codex CLI 一定需要 OpenAI API key 嗎?

不一定。ChatGPT Plus 和 Pro 用戶可以用 codex auth 指令登入 ChatGPT 帳號,不需要另外設定 API key。如果偏好按 token 計費的彈性,也可以在 config.toml 設定 preferred_auth_method = 'apikey' 切換至 API key 模式。

Codex CLI 可以離線使用嗎?

不行。Codex CLI 需要連線至 OpenAI 的模型 API 才能運作,AI 推理在雲端執行。不過,full-auto 模式下的沙盒會封鎖非必要的網路存取,確保你的程式碼不會被意外傳送到非 OpenAI 的外部伺服器。

Codex CLI 支援 Windows 嗎?

支援。在 PowerShell 環境下,Codex CLI 使用 Windows 原生沙盒;在 WSL2 環境下使用 Linux 沙盒實作(需先安裝 bubblewrap)。macOS 和 Linux 則開箱即用。

這篇文章對你有幫助嗎?