返回站点文档首页 完整总文档 下载配置示例
yunce.cloud · Codex 文档中心

按你的设备和使用方式选择教程

这里把 Codex 接到 https://yunce.cloud/v1 的配置、模型和入口分好了。 桌面版、IDE、CLI 共用同一个 ~/.codex/config.toml

核对日期:2026-03-26
默认主模型:gpt-5.4
推荐轻量模型:gpt-5.4-mini
真正调用中转站时使用:YUNCE_API_KEY + https://yunce.cloud/v1

推荐先看

快速开始

先把最关键的 3 层配置理顺:官方登录、中转站 provider、YUNCE_API_KEY。

  • 3 分钟看懂最短接法
  • 避免把官方登录和中转站 token 混在一起
  • 包含最新模型建议

Codex App 桌面版

Windows / macOS 用户的优先入口。真正的桌面体验优先看这页。

  • 讲清官方登录和中转站 provider 的区别
  • 讲清 Local 模式
  • 讲清 gpt-5.4 / gpt-5.4-mini / gpt-5.3-codex 怎么选

完整总文档

想一次看完登录、环境变量、配置文件、模型建议和常见坑,直接看这页。

按场景分类

Windows / WSL CLI

按 OpenAI 当前文档,Windows 上如果你要跑 CLI,优先走 WSL。

  • 原生 Windows 最稳的是桌面版
  • CLI 在 Windows 上更推荐 WSL
  • 包含 WSL 安装与配置路径

macOS / Linux CLI

适合 macOS 和 Linux 用户,用终端方式接入。

  • 包含 npm / brew 安装
  • 包含 bash / zsh 环境变量
  • 包含最新模型建议

IDE 扩展

适合 VS Code / Cursor / Windsurf 用户,重点是共用同一个 config.toml

  • 官方扩展入口
  • IDE 与桌面版 / CLI 的配置关系
  • Windows + WSL 额外建议

下载区

直接拿配置示例或 ASCII 兼容版 Markdown。

现在这套文档的正确理解方式是:
- 你想要桌面体验:先看 Codex App
- 你想在编辑器里直接用:看 IDE 扩展
- 你是 Windows 用户又想跑 CLI:优先看 Windows / WSL CLI
- 真正会决定你能不能连上中转站的核心,始终是 YUNCE_API_KEY + ~/.codex/config.toml + https://yunce.cloud/v1