Shareuhack | OpenAI Codex CLI 完全ガイド:ターミナル AI コーディングエージェント実測と Claude Code との使い分け
OpenAI Codex CLI 完全ガイド:ターミナル AI コーディングエージェント実測と Claude Code との使い分け

OpenAI Codex CLI 完全ガイド:ターミナル AI コーディングエージェント実測と Claude Code との使い分け

April 19, 2026
LunaMiaEno
著者Luna·調査Mia·レビューEno·継続更新中·16 分で読了

OpenAI Codex CLI 完全ガイド:旧 API の復活ではない、ターミナルの AI コーディングエージェント

「OpenAI Codex」と聞いて、2021 年に終了したコード補完 API を思い浮かべる方は多いでしょう。しかし、見落としているのはまったく別のツールです。2025 年にリリースされた Codex CLI は、Rust でゼロから構築されたオープンソースのターミナルコーディングエージェントであり、2026 年 4 月時点で GitHub スター 75K 以上、月間 npm ダウンロード 1,450 万回、週間アクティブユーザー 300 万人を達成しています。

本記事では、Codex CLI の正体、インストール方法、Claude Code との位置づけの違い、そしてツールボックスに加えるべきかどうかを解説します。

TL;DR

  • Codex CLI は 2021 年の Codex API とはまったくの別物 — 2025 年リリースの Rust 製オープンソースターミナルエージェント
  • ツール自体は無料(Apache-2.0)だが、AI 機能には OpenAI アカウントが必要 — ChatGPT Plus ユーザーは追加 API 費用なしで利用可能
  • Rust アーキテクチャにより、メモリ約 80MB、トークン処理速度 240+/秒(DataCamp テスト環境)を実現。ただしコード品質のブラインドテストでは Claude Code が依然として優位
  • Claude Code とは補完関係 — Codex CLI はバッチリファクタリングや CI 環境に、Claude Code は複雑なアーキテクチャ推論に適している
  • MCP をネイティブサポートしており、Claude Code で設定済みの MCP サーバーをほぼそのまま流用可能

Codex は終わったはず — でもあなたが覚えている Codex は、これとは別物だった

この混同は当然のことです。OpenAI は 2021 年に GPT-3 ベースの Codex API をリリースし、主にコード補完に使用されました(初期の GitHub Copilot はこれを利用)。その後 2023 年 3 月に正式に終了しています。ここまでは「Codex は終わった」が正しい認識です。

しかし 2025 年 4 月、OpenAI は同じブランド名でまったく異なる製品をリリースしました:Codex CLI — Rust でゼロから書かれたターミナルコーディングエージェントです。

違いはバージョンアップではなく、完全に異なるカテゴリーの製品です:

旧 Codex API(2021-2023)新 Codex CLI(2025-)
本質クラウドコード補完 APIローカルターミナルコーディングエージェント
技術アーキテクチャGPT-3 ファインチューンモデルRust ネイティブアプリ + codex-mini モデル
使い方API 呼び出しターミナルでの直接操作
ライセンスクローズドソース商用 APIApache-2.0 オープンソース
実装言語Python サービス95.6% Rust
状態終了済み活発に開発中(700 以上のリリース)

実際の経験から言えば、「Codex」を見て旧ツールだと思う人は非常に多いです。もしあなたがその一人なら、今こそ認識を改めるタイミングです。

ターミナルコーディングエージェントの台頭 — Codex CLI の規模が注目に値する理由

ターミナルネイティブのエージェントは 2025 年以降、主流ワークフローの一部として急速に普及しました。CI/CD パイプラインへの組み込み、大量ファイルのバッチ処理、SSH リモート環境での実行 — これらはすべて IDE プラグインの構造的な制約です。Codex CLI の数字は、これがニッチツールではないことを示しています:npm の月間ダウンロード数は 2025 年 4 月の 8.2 万から 2026 年 3 月には 1,453 万に急増(自社発表)、週間アクティブユーザーは 300 万人超(Sam Altman の 2026 年 4 月公式発表、自社発表データ)。

インストールとセットアップ — ChatGPT アカウント、API キー、それとも両方?

最もよくある質問から片付けましょう:Codex CLI はオープンソースだが、AI 機能が無料というわけではありません。

ツール自体は Apache-2.0 オープンソースで、自由にインストール、修正、フォークできます。ただし AI 推論には OpenAI のモデルが必要なので、アカウントが必要です。朗報として、ChatGPT Plus ユーザーには追加費用なしで使える方法があります。

インストール

# npm(推奨)
npm install -g @openai/codex

# または Homebrew(macOS)
brew install --cask codex

認証方式の選択

方式 1:ChatGPT アカウント認証(Plus/Pro ユーザー推奨)

codex auth
# ブラウザで OpenAI ログインページが開き、サインイン後に自動で設定完了

この方式では API キーの管理が不要で、追加の API 料金も発生しません — 使用量は ChatGPT のサブスクリプションプランに含まれます。

方式 2:API キー認証

export OPENAI_API_KEY="sk-..."

または ~/.codex/config.toml で設定:

preferred_auth_method = "apikey"

API キーモードはトークン課金です。codex-mini-latest の料金(2026 年 4 月時点):

  • 入力:$1.50 / 1M トークン
  • 出力:$6.00 / 1M トークン
  • プロンプトキャッシュ割引:75%

無料クレジット

Plus ユーザーは $5、Pro ユーザーは $50 の無料 API クレジットが付与されます(30 日間有効、2026 年 4 月時点)。ログイン時に自動発行されます。

実際に試した結果:すでに ChatGPT Plus を契約している方なら、codex auth が最も手軽な始め方です — 30 秒で設定完了、API キーや課金を気にする必要がありません。

最初のコーディングタスク — Hello World から実践シナリオまで

インストールが完了したら、ターミナルで直接 Codex CLI にタスクを指示するだけです:

codex "CSV を解析して JSON を出力する Python スクリプトを書いて"

Codex CLI がリクエストを分析し、コードを生成し、実行するかどうか確認します。ここでの重要な概念が approval mode — Codex CLI にどれだけの自律性を与えるかを決めるものです。

3 つの Approval Mode

モード動作適用シナリオ
suggest(デフォルト)すべての操作に確認が必要初回利用、ツールの動作を学ぶ段階
auto-editファイル編集は自動、コマンド実行は確認が必要日常開発、コードは信頼するがシステム操作は制御したい場合
full-auto完全自動実行CI/CD 環境、バッチタスク

切り替え方法:

# 起動時に指定
codex --approval-mode full-auto "全テストファイルを vitest に移行"

# または config.toml でデフォルト値を設定

重要full-auto は「安全でない」という意味ではありません。このモードでは Codex CLI がカーネルレベルのサンドボックスを有効化します — macOS は Seatbelt フレームワーク、Linux は bubblewrap、Windows は PowerShell でネイティブサンドボックスを使用。公式 Sandbox ドキュメントによると、サンドボックスはデフォルトで不要なネットワークアクセスをブロックし、意図しない外部呼び出しから作業環境を保護します。

5 つの実用シナリオ

  1. スクリプト生成codex "ディスク使用率を監視して Slack 通知する bash スクリプトを書いて"
  2. バグ修正codex "このテストが失敗している、原因を見つけて修正して"
  3. テスト作成codex "src/utils/ 内のすべての関数にユニットテストを生成"
  4. コードリファクタリングcodex "すべての var 宣言を const/let に変更"
  5. ドキュメント生成codex "このプロジェクトの API ドキュメントを生成"

Rust アーキテクチャがもたらす性能優位 — 数字だけでなく体感として

Codex CLI は 2025 年末に TypeScript から Rust に書き直されました。これは「Rust トレンドに乗る」ための決定ではなく、明確な性能目標がありました。公式 GitHub Discussion #1174 によると、書き直しの主な理由は起動速度とメモリ効率です。

具体的な数値(DataCamp レビューとサードパーティベンチマークのクロス検証):

  • メモリ使用量:約 80MB(Claude Code は大規模プロジェクト処理時に数 GB に達することがある)
  • トークン処理速度:240+ トークン/秒(DataCamp テスト環境)
  • Terminal-Bench 2.0 スコア:77.3%(vs Claude Code 65.4%)(DataCamp レビュー)

ただし重要な注意点があります:Terminal-Bench はターミナルネイティブタスク(スクリプト、システム管理、DevOps)に特化したベンチマークであり、コード品質全体を表すものではありません。 ブラインドテスト(開発者がどのツールが生成したか知らない状態)では、Claude Code が 67% の比較で品質が高いと評価され、Codex CLI は 25% でした。

つまり、性能の優位性は本物ですが、シナリオ次第です:

  • 性能重視のシナリオ:低メモリ VPS、CI 環境、長時間バッチ処理 → Codex CLI に構造的な優位性
  • 品質重視のシナリオ:精密なアーキテクチャ判断が求められる複雑な開発 → Claude Code の推論能力がより適切

Codex CLI vs Claude Code — 二者択一ではなく、用途による使い分け

最も検索されている質問ですが、「どちらが優れているか」は間違った問いかけです。私たちは日常業務で両方を使っており、重要なのはタスクに応じてツールを選ぶことです。

使い分けマトリクス

シナリオ推奨ツール理由
バッチリファクタリング / スクリプト生成Codex CLIトークンコストが低く処理速度が速い、バッチタスクに適している
複雑なアーキテクチャ判断、複数ファイルの理解Claude Codeコード品質ブラインドテストで 67% の勝率、推論がより正確
CI/CD パイプライン統合Codex CLIメモリ 80MB、カーネルレベルサンドボックス、無人運用にネイティブ対応
正確なデバッグ、エラー分析Claude Code多段推論能力がより強い
ベンダーロックイン懸念Codex CLIApache-2.0 オープンソース、フォーク・セルフホスト可能
フロントエンド UI 開発Claude CodeReact/Vue 等のフレームワーク理解がより深い
大量ファイルのリネーム / フォーマット統一Codex CLIバッチ処理効率が高くコストが低い

セキュリティ機構の根本的な違い

両ツールのセキュリティ哲学は異なります:

  • Codex CLI:カーネルレベルのサンドボックス(macOS Seatbelt、Linux bubblewrap)— OS レベルでの分離
  • Claude Code:アプリケーションレイヤーのフック — アプリケーションレベルでの制御

これは、セキュリティ要件が厳しい企業環境において、Codex CLI のサンドボックス機構がより深いレベルの保護を提供することを意味します。

実践的なアドバイス

すでに Claude Code を使っているなら、乗り換える必要はありません — Codex CLI をセカンドツールとして追加しましょう。バッチタスクは Codex CLI に、精密な開発は Claude Code に。両方とも MCP をサポートしているので、ツールチェーンを共有できます。

MCP 連携の実践 — Codex CLI を既存のツールチェーンに接続する

Codex CLI は MCP(Model Context Protocol)をネイティブサポートしており、外部ツール — データベース、ファイルシステム、ドキュメント検索、他の AI サービスなど — に接続できます。

設定方法

~/.codex/config.toml に MCP サーバー設定を追加:

[mcp_servers.filesystem]
command = "npx"
args = ["-y", "@modelcontextprotocol/server-filesystem", "/path/to/allowed/dir"]

[mcp_servers.context7]
command = "npx"
args = ["-y", "@upstash/context7-mcp"]

または CLI コマンドで管理:

codex mcp add filesystem npx -y @modelcontextprotocol/server-filesystem /path/to/dir

設定オプション

各 MCP サーバーは以下の設定をサポートします:

  • command(必須):サーバー起動コマンド
  • args(任意):コマンドに渡す引数
  • startup_timeout_sec(デフォルト 10 秒):サーバー起動タイムアウト
  • tool_timeout_sec(デフォルト 60 秒):ツール実行タイムアウト
  • enabled(デフォルト true):設定を削除せずに一時的に無効化可能

プロジェクトレベルの設定

グローバルの ~/.codex/config.toml に加えて、プロジェクトルートに .codex/config.toml を作成することで、MCP 設定をプロジェクトに紐づけることができます。ただし、プロジェクトレベルの設定は trusted projects でのみ有効です。

実務上のヒント:Claude Code で MCP サーバーをすでに設定している場合、command と args を TOML 形式に移すだけで済みます。filesystem サーバーを例にすると:

Claude Code(~/.claude/settings.json):

{
  "mcpServers": {
    "filesystem": {
      "command": "npx",
      "args": ["-y", "@modelcontextprotocol/server-filesystem", "/path/to/dir"]
    }
  }
}

Codex CLI(~/.codex/config.toml):

[mcp_servers.filesystem]
command = "npx"
args = ["-y", "@modelcontextprotocol/server-filesystem", "/path/to/dir"]

command と args はまったく同じ — 構文フォーマットだけが異なります。

オープンソースエコシステムとセキュリティの考慮事項 — Apache-2.0、サンドボックス、データポリシー

Codex CLI の Apache-2.0 ライセンスが意味すること:

  • 商用利用可能:企業は追加ライセンスなしで直接デプロイ可能
  • 改変・フォーク可能:ソースコードから独自バージョンを構築可能
  • 特許保護:Apache-2.0 には明示的な特許付与条項が含まれる

コミュニティの活発さ

2026 年 4 月時点の数値:

  • GitHub スター:75K 以上
  • コントリビューター:428 人
  • リリース数:700 以上(1 日平均約 2 リリース)
  • npm 月間ダウンロード数:1,453 万(2026 年 3 月)
  • コミュニティフォーク:10.7K 以上(every-code、open-codex などの派生プロジェクトを含む)

これらの数字(GitHub と npm の公開データより)は、OpenAI が作って放置した実験ではなく、持続的なモメンタムを持つプロジェクトであることを示しています。

サンドボックスセキュリティ機構

Codex CLI の full-auto モードはカーネルレベルのサンドボックスを使用します:

  • macOS:Seatbelt フレームワーク(追加設定不要)
  • Linux / WSL2:bubblewrap(インストール必要:sudo apt install bubblewrap
  • Windows PowerShell:Windows ネイティブサンドボックス

公式 Sandbox ドキュメントによると、サンドボックスはデフォルトで不要なネットワークアクセスをブロックし、ファイルシステムのアクセスを作業ディレクトリの範囲内に制限します。

データポリシーに関する注意事項

API キーモードを使用する場合、コードは推論のために OpenAI のモデルに送信されます。OpenAI の API データポリシーでは、API 入力をモデルトレーニングに使用しないと明記しています(2026 年 4 月時点のポリシー)。ただし、機密性の高い企業コードを扱う場合は、組織のコンプライアンス要件への適合性を評価すべきです。

Codex CLI vs Aider vs Gemini CLI — オープンソースターミナルエージェントの全体像

2026 年のターミナル AI エージェントは Codex CLI だけではありません。主要プレイヤーのポジショニングは以下の通りです:

ポジショニング比較

Codex CLIAiderGemini CLIClaude Code
オープンソースライセンスApache-2.0Apache-2.0Apache-2.0クローズドソース
モデル依存OpenAI(GPT-4o、codex-mini)任意の LLMGoogle(Gemini)Anthropic(Claude)
実装言語RustPythonPythonTypeScript
サンドボックス機構カーネルレベルなし限定的アプリケーションレイヤー
無料プランChatGPT Plus に含むツール無料、モデル費用は別無料枠が大きいMax プラン $100/月〜
特徴性能、サンドボックス、大規模コミュニティモデル非依存、最も柔軟大きなコンテキストウィンドウコード品質が最高

どう選ぶ?

  • OpenAI / GPT エコシステムに依存している:Codex CLI がネイティブな選択肢
  • ローカルモデルやモデル混合を使いたい:Aider が任意の LLM をサポートする唯一のツール
  • 巨大なコードベースで長いコンテキストが必要:Gemini CLI のコンテキストウィンドウが最大
  • コード品質と複雑な推論を重視:Claude Code が依然としてリード
  • 最も厳格なサンドボックス分離が必要:Codex CLI のカーネルレベル方式が最強

これらのツールは排他的ではありません。実際の使用経験から、最も効率的なアプローチは 1 つのツールだけを使うのではなく、タスクの性質に応じてツールを切り替えることです。

Codex CLI が向いているエンジニア — あなたのチェックリスト

このチェックリストで、今すぐ Codex CLI を試すべきかどうかを判断してください:

すぐに始めるべき場合:

  • ChatGPT Plus または Pro のサブスクリプションを持っている(追加コストゼロでスタート可能)
  • バッチリファクタリングやスクリプト生成のニーズが多い
  • CI/CD パイプラインに軽量な AI エージェントが必要
  • ベンダーロックインに懸念があり、オープンソースの選択肢を求めている
  • すでにターミナルベースのワークフローを使っており、IDE に依存していない

様子を見てもよい場合:

  • 主なニーズが複雑なアーキテクチャ推論と正確なデバッグ → 現時点では Claude Code がより良い選択肢
  • 完全にローカルで外部接続なしの AI が必要 → Aider + ローカル LLM を検討
  • 主にフロントエンドを書いており、IDE 内で作業している → IDE 統合ツールの方が適している可能性

始め方

既存のツールを手放す必要はありません。実際のタスクで Codex CLI をテストしてください — ファイルのバッチリファクタリングやテスト生成など。あなたのシナリオでうまく機能すれば、補完的な選択肢としてツールボックスに追加しましょう。

# 30 秒でスタート
npm install -g @openai/codex
codex auth
codex "このプロジェクトの TODO を確認して issue リストを生成して"

ターミナルコーディングエージェントの時代はすでに到来しており、Codex CLI はこのエコシステムで最も軽量かつオープンな選択肢の一つです。試すかどうかは、あなた次第です。

FAQ

Codex CLI は無料ですか?

Codex CLI ツール自体は Apache-2.0 のオープンソースで無料ですが、AI 機能には OpenAI アカウントが必要です。ChatGPT Plus ユーザーは ChatGPT 認証方式を使えば追加の API 費用なしで利用可能。API キーモードでは codex-mini-latest の料金は入力 $1.50/1M トークン、出力 $6.00/1M トークンです。Plus/Pro ユーザーにはそれぞれ $5/$50 の無料 API クレジット(30 日間有効)が付与されます。

Codex CLI を使うには OpenAI API キーが必須ですか?

いいえ、必須ではありません。ChatGPT Plus および Pro ユーザーは codex auth コマンドで ChatGPT アカウントにサインインでき、別途 API キーを設定する必要はありません。トークン課金の柔軟性を好む場合は、config.toml で preferred_auth_method = 'apikey' に設定して API キーモードに切り替えることもできます。

Codex CLI はオフラインで使えますか?

いいえ。Codex CLI は AI 推論がクラウドで実行されるため、OpenAI のモデル API への接続が必要です。ただし、full-auto モードではサンドボックスが不要なネットワークアクセスをブロックし、コードが OpenAI 以外の外部サーバーに送信されないようにします。

Codex CLI は Windows に対応していますか?

はい。PowerShell 環境では Windows ネイティブのサンドボックスを使用し、WSL2 環境では Linux サンドボックス実装(bubblewrap の事前インストールが必要)を使用します。macOS と Linux はそのまま動作します。

この記事は役に立ちましたか?