yunce.cloud · Codex 文档中心
按你的设备和使用方式选择教程
这里把 Codex 接到 https://yunce.cloud/v1 的配置、模型和入口分好了。
桌面版、IDE、CLI 共用同一个 ~/.codex/config.toml。
核对日期:2026-03-26
默认主模型:gpt-5.4
推荐轻量模型:gpt-5.4-mini
真正调用中转站时使用:YUNCE_API_KEY + https://yunce.cloud/v1
推荐先看
快速开始
先把最关键的 3 层配置理顺:官方登录、中转站 provider、YUNCE_API_KEY。
- 3 分钟看懂最短接法
- 避免把官方登录和中转站 token 混在一起
- 包含最新模型建议
Codex App 桌面版
Windows / macOS 用户的优先入口。真正的桌面体验优先看这页。
- 讲清官方登录和中转站 provider 的区别
- 讲清 Local 模式
- 讲清 gpt-5.4 / gpt-5.4-mini / gpt-5.3-codex 怎么选
完整总文档
想一次看完登录、环境变量、配置文件、模型建议和常见坑,直接看这页。
按场景分类
Windows / WSL CLI
按 OpenAI 当前文档,Windows 上如果你要跑 CLI,优先走 WSL。
- 原生 Windows 最稳的是桌面版
- CLI 在 Windows 上更推荐 WSL
- 包含 WSL 安装与配置路径
macOS / Linux CLI
适合 macOS 和 Linux 用户,用终端方式接入。
- 包含 npm / brew 安装
- 包含 bash / zsh 环境变量
- 包含最新模型建议
IDE 扩展
适合 VS Code / Cursor / Windsurf 用户,重点是共用同一个 config.toml。
- 官方扩展入口
- IDE 与桌面版 / CLI 的配置关系
- Windows + WSL 额外建议
下载区
直接拿配置示例或 ASCII 兼容版 Markdown。
现在这套文档的正确理解方式是:
- 你想要桌面体验:先看 Codex App
- 你想在编辑器里直接用:看 IDE 扩展
- 你是 Windows 用户又想跑 CLI:优先看 Windows / WSL CLI
- 真正会决定你能不能连上中转站的核心,始终是 YUNCE_API_KEY + ~/.codex/config.toml + https://yunce.cloud/v1