Skip to content

示例 config.toml

使用此示例配置作为起点。有关每个字段的说明和其他上下文,请参见配置。将下面的片段复制到 ~/.codex/config.toml 并根据需要调整值。

toml
# Codex 示例配置 (config.toml)
#
# 此文件列出 Codex 从 config.toml 读取的所有键、其默认值,
# 和简洁的说明。这里的值反映了编译到 CLI 中的有效默认值。
# 根据需要调整。
#
# 注意
# - TOML 中的根键必须出现在表之前。
# - 默认为"未设置"的可选键显示为注释掉并带有注释。
# - MCP 服务器、配置文件和模型提供商是示例;删除或编辑。

################################################################################
# 核心模型选择
################################################################################

# Codex 使用的主要模型。默认:所有平台上的 "gpt-5.1-codex-max"。
model = "gpt-5.1-codex-max"

# /review 功能(代码审查)使用的模型。默认:"gpt-5.1-codex-max"。
review_model = "gpt-5.1-codex-max"

# 从 [model_providers] 选择的提供商 ID。默认:"openai"。
model_provider = "openai"

# 可选的手动模型元数据。未设置时,Codex 从模型自动检测。
# 取消注释以强制值。
# model_context_window = 128000       # 令牌;默认:自动用于模型
# model_auto_compact_token_limit = 0  # 禁用/覆盖自动;默认:特定于模型族
# tool_output_token_limit = 10000  # 每个工具输出存储的令牌;默认:10000 用于 gpt-5.1-codex-max

################################################################################
# 推理和详细程度(能力 Responses API 的模型)
################################################################################

# 推理努力:minimal | low | medium | high | xhigh(默认:medium;xhigh 用于 gpt-5.1-codex-max 和 gpt-5.2)
model_reasoning_effort = "medium"

# 推理摘要:auto | concise | detailed | none(默认:auto)
model_reasoning_summary = "auto"

# GPT-5 系列的文本详细程度(Responses API):low | medium | high(默认:medium)
model_verbosity = "medium"

# 强制启用当前模型的推理摘要(默认:false)
model_supports_reasoning_summaries = false

################################################################################
# 说明覆盖
################################################################################

# 在 AGENTS.md 之前注入的其他用户说明。默认:未设置。
# developer_instructions = ""

# (忽略)可选的旧版基本说明覆盖(更喜欢 AGENTS.md)。默认:未设置。
# instructions = ""

# 历史紧凑提示的内联覆盖。默认:未设置。
# compact_prompt = ""

# 使用文件路径覆盖内置基本说明。默认:未设置。
# experimental_instructions_file = "/absolute/or/relative/path/to/instructions.txt"

# 从文件加载紧凑提示覆盖。默认:未设置。
# experimental_compact_prompt_file = "/absolute/or/relative/path/to/compact_prompt.txt"

################################################################################
# 批准与沙箱
################################################################################

# 何时要求命令批准:
# - untrusted:只有已知安全的只读命令自动运行;其他提示
# - on-failure:在沙箱中自动运行;仅在失败时提示以升级
# - on-request:模型决定何时要求(默认)
# - never:永不提示(有风险)
approval_policy = "on-request"