返回文档首页 快速开始 返回站点文档首页
yunce.cloud · Codex 本地接入总文档

把 Codex App / IDE / CLI 统一接到 yunce.cloud

这是一份围绕配置本身写的总文档。重点不是“只会某个入口怎么点”,而是把官方登录、YUNCE_API_KEY~/.codex/config.toml、模型选择这几层彻底理顺。理顺以后,桌面版、IDE、CLI 都用同一套逻辑。

先搞清 4 层配置

  1. 产品登录层
    截至 2026-03-26,OpenAI 官方当前文档里,Codex App / IDE / CLI 首次进入产品时通常仍要先用 ChatGPT 账号或 OpenAI API key 登录。
  2. 中转站 provider 层
    真正模型请求走的是你本机配置里的 model_provider = "yunce",指向 https://yunce.cloud/v1
  3. 令牌层
    你的实际推理令牌来自本地环境变量 YUNCE_API_KEY,不是写死在配置文件里。
  4. 模型层
    目前推荐顺序是 gpt-5.4gpt-5.4-minigpt-5.3-codex,旧的 gpt-5-codex-mini 只保留兼容。
最容易配错的地方,不是 config.toml 语法,而是把“官方登录”和“真正走你中转站的 provider”混成同一层。

1. 2026-03-26 推荐默认值

  • 主模型:gpt-5.4
  • 推荐轻量模型:gpt-5.4-mini
  • 代码能力优先备选:gpt-5.3-codex
  • 中转站地址:https://yunce.cloud/v1
  • 环境变量:YUNCE_API_KEY
  • 协议:wire_api = "responses"

3. 设置环境变量

你只需要把后台复制出来的完整 token 放进 YUNCE_API_KEY

最稳妥的规则永远是:
后台复制出来什么,就原样填什么
不要自己加,也不要自己删 sk-
Windows PowerShell
$env:YUNCE_API_KEY = "在这里填你的Token"
[System.Environment]::SetEnvironmentVariable("YUNCE_API_KEY", "在这里填你的Token", "User")
macOS / Linux / WSL
export YUNCE_API_KEY="在这里填你的Token"
echo 'export YUNCE_API_KEY="在这里填你的Token"' >> ~/.bashrc
source ~/.bashrc

4. 保存 config.toml

  • Windows:C:\Users\你的用户名\.codex\config.toml
  • macOS:~/.codex/config.toml
  • Linux / WSL:~/.codex/config.toml

把下面内容原样保存进去:

#:schema https://developers.openai.com/codex/config-schema.json

# Verified against OpenAI Codex docs on 2026-03-26.
# This file is intended for Codex App, IDE extension, and CLI.

model = "gpt-5.4"
model_provider = "yunce"

[windows]
sandbox = "elevated"
sandbox_private_desktop = true

[model_providers.yunce]
name = "yunce.cloud"
base_url = "https://yunce.cloud/v1"
env_key = "YUNCE_API_KEY"
wire_api = "responses"
request_max_retries = 4
stream_max_retries = 5
stream_idle_timeout_ms = 300000

[profiles.yunce_gpt54]
model = "gpt-5.4"
model_provider = "yunce"

[profiles.yunce_gpt54_mini]
model = "gpt-5.4-mini"
model_provider = "yunce"

[profiles.yunce_gpt53_codex]
model = "gpt-5.3-codex"
model_provider = "yunce"

# Compatibility fallback only.
# Keep this profile only if your relay still exposes gpt-5-codex-mini.
[profiles.yunce_legacy_fast]
model = "gpt-5-codex-mini"
model_provider = "yunce"
这份配置里的关键不是花哨字段,而是这几个点:
- model_provider = "yunce"
- base_url = "https://yunce.cloud/v1"
- env_key = "YUNCE_API_KEY"
- wire_api = "responses"

5. 第一次怎么跑

无论你最终走桌面版、IDE 还是 CLI,首次进入官方产品时通常仍会先要求你登录。
这一步只负责“进入产品”,不改变你后面通过中转站调用模型的事实。
桌面版
  1. 安装并打开 Codex App
  2. 先完成官方登录
  3. 设置 YUNCE_API_KEY 并保存好 ~/.codex/config.toml
  4. 完全退出 App,再重新打开
  5. 选择项目,确认是 Local 模式
  6. 优先选 gpt-5.4,需要更快更省且后端支持再选 gpt-5.4-mini
IDE
  1. 安装扩展并先完成官方登录
  2. 设置 YUNCE_API_KEY
  3. 把配置文件保存到 ~/.codex/config.toml
  4. 完全关闭 IDE,再重新打开
  5. 打开项目,进入 Codex 面板
CLI
按 OpenAI 当前 Windows 文档,Windows 上跑 CLI 最稳的方式是 WSL
如果你只是想要 Windows 上的本地体验,优先桌面版。
codex -p yunce_gpt54
reply exactly ok
codex exec -p yunce_gpt54 "reply exactly ok"

6. 最容易出错的点

  • 401 / Unauthorized:通常是 token 写错,或者 YUNCE_API_KEY 没真正生效。
  • config.toml 不生效:确认路径对,确认顶层用了 model_provider = "yunce"
  • gpt-5.4-mini 模型不存在:说明你的后端大概率还没开这个模型,先退回 gpt-5.4 或旧兼容轻量档。
  • 桌面版 / IDE 已经登录,但还是走不通:检查是否只是“进产品成功”,而 YUNCE_API_KEY 或 provider 层仍然没配对。
  • Windows 原生 CLI 不稳:按官方最新建议,换到 WSL。