示例 config.toml
使用此示例配置作为起点。有关每个字段的说明和其他上下文,请参见配置。将下面的片段复制到 ~/.codex/config.toml 并根据需要调整值。
toml
# Codex 示例配置 (config.toml)
#
# 此文件列出 Codex 从 config.toml 读取的所有键、其默认值,
# 和简洁的说明。这里的值反映了编译到 CLI 中的有效默认值。
# 根据需要调整。
#
# 注意
# - TOML 中的根键必须出现在表之前。
# - 默认为"未设置"的可选键显示为注释掉并带有注释。
# - MCP 服务器、配置文件和模型提供商是示例;删除或编辑。
################################################################################
# 核心模型选择
################################################################################
# Codex 使用的主要模型。默认:所有平台上的 "gpt-5.1-codex-max"。
model = "gpt-5.1-codex-max"
# /review 功能(代码审查)使用的模型。默认:"gpt-5.1-codex-max"。
review_model = "gpt-5.1-codex-max"
# 从 [model_providers] 选择的提供商 ID。默认:"openai"。
model_provider = "openai"
# 可选的手动模型元数据。未设置时,Codex 从模型自动检测。
# 取消注释以强制值。
# model_context_window = 128000 # 令牌;默认:自动用于模型
# model_auto_compact_token_limit = 0 # 禁用/覆盖自动;默认:特定于模型族
# tool_output_token_limit = 10000 # 每个工具输出存储的令牌;默认:10000 用于 gpt-5.1-codex-max
################################################################################
# 推理和详细程度(能力 Responses API 的模型)
################################################################################
# 推理努力:minimal | low | medium | high | xhigh(默认:medium;xhigh 用于 gpt-5.1-codex-max 和 gpt-5.2)
model_reasoning_effort = "medium"
# 推理摘要:auto | concise | detailed | none(默认:auto)
model_reasoning_summary = "auto"
# GPT-5 系列的文本详细程度(Responses API):low | medium | high(默认:medium)
model_verbosity = "medium"
# 强制启用当前模型的推理摘要(默认:false)
model_supports_reasoning_summaries = false
################################################################################
# 说明覆盖
################################################################################
# 在 AGENTS.md 之前注入的其他用户说明。默认:未设置。
# developer_instructions = ""
# (忽略)可选的旧版基本说明覆盖(更喜欢 AGENTS.md)。默认:未设置。
# instructions = ""
# 历史紧凑提示的内联覆盖。默认:未设置。
# compact_prompt = ""
# 使用文件路径覆盖内置基本说明。默认:未设置。
# experimental_instructions_file = "/absolute/or/relative/path/to/instructions.txt"
# 从文件加载紧凑提示覆盖。默认:未设置。
# experimental_compact_prompt_file = "/absolute/or/relative/path/to/compact_prompt.txt"
################################################################################
# 批准与沙箱
################################################################################
# 何时要求命令批准:
# - untrusted:只有已知安全的只读命令自动运行;其他提示
# - on-failure:在沙箱中自动运行;仅在失败时提示以升级
# - on-request:模型决定何时要求(默认)
# - never:永不提示(有风险)
approval_policy = "on-request"