示例 config.toml
使用此示例配置作為起點。有關每個字段的說明和其他上下文,請參見配置。將下面的片段複製到 ~/.codex/config.toml 並根據需要調整值。
toml
# Codex 示例配置 (config.toml)
#
# 此文件列出 Codex 從 config.toml 讀取的所有鍵、其預設值,
# 和簡潔的說明。這裡的值反映了編譯到 CLI 中的有效預設值。
# 根據需要調整。
#
# 注意
# - TOML 中的根鍵必須出現在表之前。
# - 預設為"未設置"的可選鍵顯示為註釋掉並帶有註釋。
# - MCP 服務器、配置文件和模型提供商是示例;刪除或編輯。
################################################################################
# 核心模型選擇
################################################################################
# Codex 使用的主要模型。預設:所有平台上的 "gpt-5.1-codex-max"。
model = "gpt-5.1-codex-max"
# /review 功能(代碼審查)使用的模型。預設:"gpt-5.1-codex-max"。
review_model = "gpt-5.1-codex-max"
# 從 [model_providers] 選擇的提供商 ID。預設:"openai"。
model_provider = "openai"
# 可選的手動模型元數據。未設置時,Codex 從模型自動檢測。
# 取消註釋以強制值。
# model_context_window = 128000 # 令牌;預設:自動用於模型
# model_auto_compact_token_limit = 0 # 禁用/覆蓋自動;預設:特定於模型族
# tool_output_token_limit = 10000 # 每個工具輸出存儲的令牌;預設:10000 用於 gpt-5.1-codex-max
################################################################################
# 推理和詳細程度(能力 Responses API 的模型)
################################################################################
# 推理努力:minimal | low | medium | high | xhigh(預設:medium;xhigh 用於 gpt-5.1-codex-max 和 gpt-5.2)
model_reasoning_effort = "medium"
# 推理摘要:auto | concise | detailed | none(預設:auto)
model_reasoning_summary = "auto"
# GPT-5 系列的文本詳細程度(Responses API):low | medium | high(預設:medium)
model_verbosity = "medium"
# 強制啟用當前模型的推理摘要(預設:false)
model_supports_reasoning_summaries = false
################################################################################
# 說明覆蓋
################################################################################
# 在 AGENTS.md 之前注入的其他用戶說明。預設:未設置。
# developer_instructions = ""
# (忽略)可選的舊版基本說明覆蓋(更喜歡 AGENTS.md)。預設:未設置。
# instructions = ""
# 歷史緊湊提示的內聯覆蓋。預設:未設置。
# compact_prompt = ""
# 使用文件路徑覆蓋內置基本說明。預設:未設置。
# experimental_instructions_file = "/absolute/or/relative/path/to/instructions.txt"
# 從文件加載緊湊提示覆蓋。預設:未設置。
# experimental_compact_prompt_file = "/absolute/or/relative/path/to/compact_prompt.txt"
################################################################################
# 批准與沙箱
################################################################################
# 何時要求命令批准:
# - untrusted:只有已知安全的只讀命令自動運行;其他提示
# - on-failure:在沙箱中自動運行;僅在失敗時提示以升級
# - on-request:模型決定何時要求(預設)
# - never:永不提示(有風險)
approval_policy = "on-request"