返回 Codex 文档首页 返回文档中心 返回站点文档首页

Codex App 桌面版教程

这页只讲一件事:怎么把官方 Codex App 桌面版接到你的 yunce.cloud 中转站。

官方规则核对日期:2026-03-26
这份配置同时适用于 Codex App / IDE / CLI 的本地 ~/.codex/config.toml
先记住这 2 层不要混:
1. 进入 Codex 产品本身:首次通常要先用 ChatGPT 账号或 OpenAI API key 登录
2. 真正调用模型的流量:通过你的 yunce provider,走 https://yunce.cloud/v1YUNCE_API_KEY

下载入口

开始前你要准备什么

你这里不需要 OpenAI 官方 API key 才能走中转站推理。
但官方桌面版首次进入产品时,仍可能要求你先完成官方登录。

推荐模型

默认主模型: gpt-5.4
快速/省一点: gpt-5.4-mini
代码能力优先备选: gpt-5.3-codex
兼容旧后端时再用: gpt-5-codex-mini
按 OpenAI 2026-03-26 官方文档,Codex 本地默认推荐模型是 gpt-5.4
如果你的中转站已经开放 gpt-5.4-mini,优先用它替代旧的 gpt-5-codex-mini

完整步骤

  1. 先安装并打开 Codex App
  2. 按官方界面先完成登录
    可用的是 ChatGPT 账号或 OpenAI API key
    这一步只是让你进入 Codex App,不等于后面模型一定走 OpenAI 官方直连
  3. 设置环境变量 YUNCE_API_KEY
    Windows 可看 Windows / WSL 页面
    macOS / Linux 可看 macOS / Linux 页面
  4. 把配置文件保存到 ~/.codex/config.toml
    下载地址:/docs/codex/yunce-codex-config.example.toml
  5. 完全退出 Codex App,再重新打开一次
  6. 进入后选择你的项目文件夹
  7. 确保使用 Local 模式
  8. 如果界面里能选模型,优先选 gpt-5.4
    如果想要更快更省,且你的后端已开通,再选 gpt-5.4-mini
    如果你的后端暂时没有 gpt-5.4-mini,再退回旧兼容档 gpt-5-codex-mini
  9. 如果界面里没有看到单独的 provider 配置入口,也不用慌,桌面版会继续读取本机 ~/.codex/config.toml
  10. 第一次直接输入:reply exactly ok

桌面版真正用到的配置

产品登录层:
ChatGPT account or OpenAI API key

中转站 provider:
name = "yunce.cloud"
base_url = "https://yunce.cloud/v1"
env_key = "YUNCE_API_KEY"
wire_api = "responses"

推荐主模型:
gpt-5.4

推荐轻量模型:
gpt-5.4-mini

兼容旧轻量模型:
gpt-5-codex-mini

Windows 用户额外建议

按 OpenAI 当前 Windows 文档,原生 Windows 最好的桌面体验是 Codex App 本身。
如果你要用 CLI,再走 WSL 会比原生 PowerShell CLI 更稳。
[windows]
sandbox = "elevated"
sandbox_private_desktop = true

这个配置已经写进你更新后的示例 config.toml 里了。

如果桌面版里不对怎么办