`cloaiCode` 是原生兼容多个模型供应商的 Claude Code 修改版。🚀
兼容 MiniMax-M2.7、GPT-5.4、Codex OAuth、GitHub Copilot、Google Gemini 等
更新于 2026 年 4 月 19 日
-
⭐ 新增 GitHub Copilot OAuth 的 GPT 系列模型缓存支持:补齐对应 OpenAI-compatible 路径上的 Responses 缓存命中能力。
-
⭐
/login登录体系重写:新增账号管理、Provider 分组、官方/自定义子菜单、分步配置与 OAuth 回填,整个登录链路从一次性录入升级为可持续管理的闭环。 -
⭐ 正式支持 GitHub Copilot OAuth:已实测
gpt-5-mini、claude-haiku-4.5、gemini-3-flash-preview,并补齐 OpenAI OAuth、Google AI Studio、Google Antigravity (OAuth) 等官方线路。 -
⭐ 官方 / OAuth 线路支持自动写入模型列表:OpenAI Official / OAuth、Google AI Studio、Google Antigravity (OAuth)、GitHub Copilot OAuth 登录完成后即可在
/model直接切换。
更多历史更新与细节说明请跳转查看:详细更新日志
cloaiCode 是原生兼容多个模型供应商的 Claude Code 修改版。相比原版,我们让第三方模型接入做到了可用、好用、易维护。
我们舍弃了对外部切换器的依赖,在原版代码的基础上直接深度扩展了原生接入能力。
典型适用场景:
- 🖥️ 在本地终端中直接调用自定义模型与 Provider。
- 🌐 通过 Anthropic 兼容网关、OpenAI 兼容网关或 Gemini 兼容网关接入模型。
- 🔐 无缝切换 API Key、OAuth 及不同 Provider 的专属鉴权模式。
- 🧱 在无桌面环境(GUI)的服务器终端中高效完成配置与调用。
- ⚙️ 统一集中管理配置、登录态与模型选择等行为至独立目录。
相比许多用户习惯通过 CC Switch 将第三方模型接入现有工具链, cloaiCode 更进一步,做到了体验更佳的原生支持!!!
我们做到了:
- ⚡ 链路更短,响应更快:省去中间切换与转接层。
- 🧭 闭环体验,直截了当:Provider 选择、鉴权与模型切换均在工具内部一站式完成。
- 🛠️ 开箱即用,降低依赖:无需额外部署切换器即可实现基础接入。
- 🖥️ 完美契合无头环境:在无屏幕终端、远程 SSH 或 Docker 环境中配置极其便利。
- 🔄 配置统一,易于排障:全局语义一致,问题定位更直观。
如果你的主力工作台是云主机、跳板机、远程开发容器或无 GUI 的 Linux / Windows Server 终端,这种“原生接入”将为你带来和原生 CLI 体验一致的爽感。
本项目提供两条关键命令来完成鉴权与模型管理:
提示:相较云端
main,当前仓库已经额外支持GitHub Copilot OAuth、Google Antigravity (OAuth)、Google AI Studio (API key)与新版/login多级菜单流程;如果你此前只看过main版文档,以下内容以当前仓库实现为准。
/login 现在不再只是“一次输入完 BaseURL 和 Key”的线性流程,而是一个可反复进入的账号管理与 Provider 配置入口。
- 已有已保存账号时:先进入
Manage accounts - 首次使用或无已保存账号时:直接进入
Select provider
如果本地已经保存过 Provider,/login 会先展示账号管理列表,每个条目都会显示:
- Provider 显示名
- Provider 类型
- 当前已保存的模型数量
在这里你可以:
- 选择某个已保存 Provider,进入其操作子菜单
- 选择
Add new account →新增一条 Provider 配置 - 选择
Done →退出/login
选中某个已保存 Provider 后,会进入操作菜单:
LogoutBack
其中 Logout 会继续进入确认删除菜单。确认后会删除这一条已保存的 Provider 配置,并自动切换到下一条可用 Provider;如果已经没有其他账号,则回到 Provider 选择入口。
新增账号时,会进入 Provider 根菜单。当前入口包括:
Claude:官方 Anthropic 登录OpenAI →:进入 OpenAI 子菜单Google Gemini:直达 Google AI Studio API key 配置Antigravity:Google Antigravity (OAuth)GitHub Copilot OAuth:官方 OAuthCustom →:手动配置兼容接口
当前只有以下分组会展开子菜单:
OpenAI →Official Responses APIOAuth
Custom →Anthropic-LikeOpenAI-LikeGoogle-Vertex-Like
Google Gemini 不再进入子菜单,而是直接打开 Google AI Studio (API key) 输入页。
说明:
Gemini CLI OAuth新建入口已删除,因为这条线路对新账号几乎必然触发封号或严重限流;已保存的 legacy 账号仅保留兼容,不再推荐新增。
选定线路后,会进入分步配置阶段,不同线路的输入步骤不同:
- Claude Official / OpenAI OAuth / Google Antigravity (OAuth)
- 直接进入浏览器 OAuth 流程
- GitHub Copilot OAuth
- 先输入可选的
GitHub Enterprise domain - 然后进入设备码 / 浏览器授权流程
- 先输入可选的
- OpenAI Official Responses API
- 输入 OpenAI API Key
- CLI 会自动拉取官方模型列表并保存
- Google Gemini / Google AI Studio (API key)
- 直接输入 API Key
- CLI 会自动拉取支持
generateContent的模型列表并保存
- OpenAI-Like
- 先选择
chat/completions或Responses API - 再输入 BaseURL、API Key、模型列表
- 先选择
- Anthropic-Like / Google-Vertex-Like
- 输入 BaseURL、API Key、模型列表
当进入 OAuth 线路后,CLI 会自动开始授权流程:
- 自动尝试打开浏览器
- 在终端展示等待登录状态
- 无法自动回调时,可手动粘贴完整回调 URL,或粘贴
code#state GitHub Copilot OAuth会额外显示 device flow 的提示信息
登录成功后,CLI 会:
- 将当前 Provider 以独立记录保存下来
- 按
Provider + authMode + variant + baseURL维度隔离登录态 - 自动回填或写入该线路对应的模型列表
- 让
/model立即可见并可切换这些模型
配置会写入项目级或用户级配置路径,例如:
.claude/settings.local.json~/.cloai/settings.json
/model 会读取 /login 已保存的 Provider 记录,并将它们作为可切换模型来源。
/model
执行后,CLI 会显示:
- 当前可用模型列表
- 当前选中的模型
- 模型所属的 Provider / 账号 / 鉴权方式
在 /model 列表中:
- 模型条目会带上账号或 Provider 名称,便于区分同名模型来自哪一路登录
- 同一个模型名可以在不同 Provider 下并存
/login自动回填的 OAuth 模型列表会直接出现在这里,无需再手工补录
- 运行
/login新增或管理 Provider - 完成 API Key / OAuth 登录
- 运行
/model选择目标模型 - 开始会话与测试
/login负责“接哪一家、用哪种鉴权、保存哪一组模型”/model负责“当前会话用哪一个具体模型”- 二者配合后,可以稳定支持多 Provider、多账号、多鉴权方式并存
本项目最核心的能力,是把不同 Provider 的 API Key、OAuth 与 compatible gateway 统一收敛到 CLI 内部,而不是依赖外围切换器。
目前已经实际验证通过的主线路如下:
适用于提供 Anthropic Messages / Claude 风格请求格式 的兼容服务、代理网关和第三方平台。
已验证模型:
| 模型名称 | 接入方式 | 推理努力 (Reasoning) | 思维链显示 |
|---|---|---|---|
minimax-m2.7-highspeed |
Anthropic-compatible gateway | √ | √ |
这一类通常可以承接的模型方向:
- 任何被网关包装成 Anthropic / Claude 兼容协议 的第三方模型
- 各类自建中转、聚合网关、代理平台中映射成 Claude 风格 API 的模型
- 典型场景是:你不一定真的在调用 Anthropic 官方模型,但你可以通过 Anthropic 兼容层 把目标模型接进
cloaiCode
适用于提供 Chat Completions / Responses / OAuth 的 OpenAI 风格接口平台。
已验证模型:
| 模型名称 | 接入方式 | 推理努力 (Reasoning) | 思维链显示 |
|---|---|---|---|
gpt-5.4 |
OpenAI-compatible gateway via Chat Completions | √ | √ |
gpt-5.4 |
OpenAI-compatible gateway via Responses | √ | √ |
gpt-5.4 |
OpenAI-compatible gateway via OAuth | √ | √ |
这一类可接入的模型方向:
gpt-5.4- 其他被你的网关暴露为 OpenAI Chat Completions 接口的模型
- 其他被你的网关暴露为 OpenAI Responses 接口的模型
- 各类通过 OpenAI 风格
baseURL + apiKey即可调用的第三方模型
适用于提供 Gemini 风格接口 或 Google AI Studio generateContent 路径的服务。
已验证模型:
| 模型名称 | 接入方式 | 推理努力 (Reasoning) | 思维链显示 |
|---|---|---|---|
gemini-3-flash-preview |
Gemini-compatible gateway | - | √ |
gemini-3.1-pro-high |
Gemini-compatible gateway | - | √ |
这一类可以重点接入的模型方向:
gemini-3-flash-previewgemini-3.1-pro-high- 其他被网关或 CLI 入口包装成 Gemini-compatible 请求路径的模型
适用于使用 GitHub / GitHub Enterprise 账号接入 Copilot Chat 对应模型额度。完成登录后,CLI 会自动启用并写入 Copilot 模型列表。
已验证模型:
| 模型名称 | 接入方式 | 备注 |
|---|---|---|
gpt-5-mini |
GitHub Copilot OAuth | 已实测 |
claude-haiku-4.5 |
GitHub Copilot OAuth | 已实测 |
gemini-3-flash-preview |
GitHub Copilot OAuth | 已实测 |
这一类线路的特点:
- 支持
github.com与可选 GitHub Enterprise 域名 - 登录完成后会自动启用并写入 Copilot 模型列表
- 在
/model中会与其他 Provider 一起展示和切换
当前各条官方 / OAuth 线路都已支持模型列表自动写入,避免登录完成后还要手工补 savedModels:
- OpenAI Official Responses API:保存 API Key 后自动拉取官方模型列表
- OpenAI OAuth:登录成功后自动写入可用模型列表
- Google AI Studio (API key):保存 API Key 后自动拉取支持
generateContent的模型列表 - Google Antigravity (OAuth) / GitHub Copilot OAuth:登录成功后自动写入对应线路的模型列表
- Legacy Gemini CLI OAuth:仅保留兼容,不再提供新增入口,因为这条线路对新账号极易触发封号或限流
cloaiCode 已经把这些关键接入链路统一收敛到同一套 CLI 交互之中:
- Anthropic 兼容网关接入第三方模型
- OpenAI 兼容网关与官方 OAuth / Responses 路径
- Gemini 兼容网关与 Google AI Studio / Google Antigravity 路径
- GitHub Copilot OAuth
为了保证多环境下的稳定性,本项目将所有用户数据统一收口至:
- 配置根目录:
~/.cloai - 用户级配置文件:
~/.cloai/settings.json - 项目级配置文件:
.claude/settings.json - 本地项目配置文件:
.claude/settings.local.json
本项目绝妙之处:
- 杜绝历史登录态的互相污染。
- 防止不同网关或 Provider 的 Endpoint 发生串联。
- 确保模型列表、鉴权方式及缓存状态彼此独立。
- 为多环境(开发/生产)提供极其便捷的独立配置与备份手段。
对于需要长期维护多套底层环境的开发者而言,这种物理隔离设计将显著降低日常排障成本(你也不想在深夜一个人挠头debug吧)。🧰
目前上下文窗口上限可以通过两种方式控制:
在命令行中输入:
/config
然后进入:
Config → Context window override / Sampling temperature
切换方式:
- 使用 ← / → 方向键 切换选项
- 或使用 空格键 循环切换当前选项
可选模式如下:
Auto- 使用程序默认判断逻辑
- Claude 官方模型继续走官方 capability / beta / experiment 逻辑
- 命中本地模型注册表的兼容模型会按注册表上限计算
- 未命中时回退为默认
200k
4k- 强制将上下文窗口视为
4,000 tokens
- 强制将上下文窗口视为
32k- 强制将上下文窗口视为
32,000 tokens
- 强制将上下文窗口视为
200k- 强制将上下文窗口视为
200,000 tokens
- 强制将上下文窗口视为
1M- 强制将上下文窗口视为
1,000,000 tokens
- 强制将上下文窗口视为
切换完成后,设置会写入:
.claude/settings.local.json
换句话说,这个 override 只会在项目目录下生效,不会干扰全局配置
也可以在同一位置配置 Sampling temperature:
default- 保持当前系统默认行为
- 不改变现有 provider 分支逻辑
off- 明确不发送
temperature
- 明确不发送
custom- 发送指定数值
temperature - 取值范围限制为
0 <= value <= 2
- 发送指定数值
这个设置同样默认写入:
.claude/settings.local.json
如果启用了 Anthropic thinking 模式,仍会继续遵守当前兼容语义:请求中不发送 temperature。
如果你更喜欢手动改文件,也可以直接编辑:
{
"modelContextWindowOverride": "auto"
}支持的取值为:
"auto" | "4k" | "32k" | "200k" | "1m"示例:
{
"modelContextWindowOverride": "1m"
}这表示:无论当前模型的默认窗口是多少,都强制按 1M 上下文窗口计算。
如果要恢复自动判断,改回:
{
"modelContextWindowOverride": "auto"
}执行:
/context
时,顶部会显示当前上下文使用量与上限。
其中:
[API]表示顶部总量来自 transcript 中最近一次有效 API usage[Est]表示当前无法取得有效 API usage,因此回退为本地估算
注意:
- 顶部总量与百分比优先使用 API usage
- 下方
Estimated usage by category仍然主要是按类别估算 - 因此顶部总量与
Messages分项不一定完全相等,这是正常现象
在开始之前,请确保本机环境满足以下前置依赖:
- Bun >=
1.3.5 - Node.js >=
24
bun installPATH 环境变量中。否则,执行 bun link 后 cloai 命令可能无法在全局生效。
export BUN_INSTALL="$HOME/.bun"
export PATH="$BUN_INSTALL/bin:$PATH"如果你在 Windows 上使用 PowerShell,可改为:
$env:BUN_INSTALL = "$HOME\.bun"
$env:PATH = "$env:BUN_INSTALL\bin;$env:PATH"如果希望对当前用户永久生效,可执行:
[System.Environment]::SetEnvironmentVariable('BUN_INSTALL', "$HOME\.bun", 'User')
[System.Environment]::SetEnvironmentVariable(
'PATH',
"$HOME\.bun\bin;" + [System.Environment]::GetEnvironmentVariable('PATH', 'User'),
'User'
)如果你使用的是 cmd,则对应写法为:
set BUN_INSTALL=%USERPROFILE%\.bun
set PATH=%BUN_INSTALL%\bin;%PATH%永久设置可使用:
setx BUN_INSTALL "%USERPROFILE%\.bun"
setx PATH "%USERPROFILE%\.bun\bin;%PATH%"说明:
export/$env:/set只对当前终端会话生效SetEnvironmentVariable(..., 'User')/setx会写入用户环境变量,需重新打开终端- Windows 的
PATH分隔符是;,不是:
可通过以下命令进行环境自检:
which bun
echo $PATH在仓库根目录依次执行:
bun install
bun link部署完成后,即可在任意终端通过全局命令启动:
cloai- 包名:
@cloai-code/cli - 全局命令:
cloai
(💡 排错指南:如果提示 command not found,通常是 ~/.bun/bin 缺失于 PATH 中;如果提示找不到 bun,请检查入口脚本底部的 #!/usr/bin/env bun 解析路径是否正确。)
将本 CLI 链接至全局:
bun link @cloai-code/cli或在目标项目的 package.json 中直接引用:
{
"dependencies": {
"@cloai-code/cli": "link:@cloai-code/cli"
}
}- 开发模式热启动:
bun run dev - 生产环境全局启动:
cloai - 查看当前版本号:
bun run version
新版 /login 不再是一次性输入配置,而是一个长期可维护的 Provider 登录台。当前登录体系可以分为以下几类:
- 适用场景:Anthropic-compatible、OpenAI-compatible、Google-Vertex-Like 等自定义兼容接口。
- 官方 API Key 线路:
OpenAI Official Responses APIGoogle AI Studio (API key)
- 特点:适合服务器、容器、远程终端等纯无头环境,稳定、易排障、易自动化。
- 新版补强:官方 API Key 线路保存成功后,会自动拉取并写入模型列表,而不是要求用户手工补
savedModels。
当前已支持以下 OAuth 线路:
Claude OfficialOpenAI OAuthGoogle Antigravity (OAuth)GitHub Copilot OAuth
特点:
- CLI 会自动尝试打开浏览器完成授权。
- 在无法自动回调时,可手动粘贴完整回调 URL,或直接粘贴
code#state。 GitHub Copilot OAuth支持可选的GitHub Enterprise domain,并使用 device flow / browser flow 完成授权。/login -> Google Gemini -> Gemini CLI OAuth新建入口已删除,因为这条线路对新账号几乎必然触发封号或严重限流;已保存的 legacy 账号仅保留兼容。
系统现在按 Provider + authMode + variant + baseURL 维度隔离登录态与模型列表,重点解决以下问题:
- 切换 Provider 后错误沿用上一家的鉴权令牌。
- 同一 Provider 下,不同登录方式的数据被互相覆盖。
- OpenAI / Gemini 官方线路与自定义兼容线路的状态串线。
- 同名模型在多 Provider 并存时难以切换和识别。
当本地已有已保存 Provider 时,/login 会先进入 Manage accounts:
- 展示每个账号的 Provider 名称、Provider 类型与模型数量。
- 支持
Add new account →继续新增账号。 - 支持
Logout→Remove account删除某条已保存记录。 - 删除后会自动切换到剩余账号;如果已经没有账号,则回到 Provider 选择入口。
这意味着新版 /login 已从“录入参数”升级为“管理账号 + 登录 + 回填模型 + 切换来源”的完整闭环。
当前 /login 的选择路径与子菜单逻辑如下,以下描述与当前仓库实现保持一致。
如果本地已有已保存账号,进入 /login 后会先看到:
- 已保存 Provider 列表
Add new account →Done →
选择某个账号后,会进入该账号的 Provider actions 子菜单。
已保存账号的操作菜单目前包含:
LogoutBack
其中 Logout 会继续进入确认删除页;确认后删除这一条 Provider 配置。
新增账号时,会进入 Provider 根菜单,当前入口为:
ClaudeOpenAI →Google GeminiAntigravityGitHub Copilot OAuthCustom →
其中:
Google Gemini会直接进入Google AI Studio (API key)输入页,不再显示 Gemini 子菜单。Antigravity对应 Google Antigravity (OAuth)。
进入 OpenAI → 后,可选:
Official Responses APIOAuth← Back
对应含义:
- Official Responses API:官方 API Key 线路,固定
api.openai.com,保存 Key 后自动拉取模型列表。 - OAuth:官方浏览器授权线路,完成登录后自动写入可用模型列表。
选择 Google Gemini 后,CLI 会直接进入 Google AI Studio (API key) 页面:
- 输入 API Key
- 自动拉取支持
generateContent的模型列表 - 保存后可直接在
/model中切换
Gemini CLI OAuth新建入口已删除,因为这条线路对新账号几乎必然触发封号或严重限流;已保存的 legacy 账号仅保留兼容,不再推荐新增。
进入 Custom → 后,可选:
Anthropic-LikeOpenAI-LikeGoogle-Vertex-Like← Back
其后续配置逻辑为:
- Anthropic-Like:输入 BaseURL、API Key、模型列表。
- OpenAI-Like:先选
chat/completions或Responses API,再输入 BaseURL、API Key、模型列表。 - Google-Vertex-Like:输入 BaseURL、API Key、模型列表。
在真正保存前,CLI 会根据线路进入不同的分步输入页面:
copilotEnterprise:仅 GitHub Copilot OAuth 使用,用于输入可选 Enterprise 域名。authMode:仅 OpenAI-Like 使用,用于选择chat/completions或Responses API。baseURLapiKeymodels
当选择 OAuth 线路后,CLI 会:
- 进入
Ready to start - 自动启动浏览器或 device flow
- 在
Waiting for login中等待登录完成 - 必要时允许手动粘贴回调信息
因此,整个 /login 已经从旧版的“选 Provider → 输参数”演进为一套多账号、多 Provider、多鉴权方式共存的正式路由系统。
本项目在底层网络层面对齐了更为完整的 OpenAI 协议规范。当前重点支持:
- 全面接管 OpenAI Chat Completions 路由。
- 全面接管 OpenAI Responses 路由。
- 精准匹配相应的模型选择器与鉴权中间件。
- 针对不同协议路径的智能请求转发与载荷适配。
将协议解析转化为 CLI 的原生能力,正是 cloaiCode 在多模型接入场景下,体验远超传统外部中转切换方案。
git clone <your-repo-url>
cd cloai-code
bun install
bun link
cloaigit pull
bun install
bun link
cloai这套标准工作流非常适合通过源码方式持续追踪上游更新的用户,也便于你随时在本地验证新模型、新 Provider 或新的底层协议支持。
在真实的服务器生产环境中,传统的“外部切换器 + 图形登录 + 多层转发”方案往往会暴露诸多短板:
- 需额外引入并长期维护脆弱的切换组件。
- 登录流程强依赖 GUI 环境或繁琐的跨端人工拷贝。
- 配置文件散落在系统各处,排障链路极长。
- 在纯 CLI 工具(如 SSH / tmux / Docker)中即时切换 Provider 体验割裂。
cloaiCode 坚持将核心操作收敛回 CLI 内部闭环,因此在以下场景中展现出压倒性的优势:
- 纯无头 Linux 远程服务器
- Windows Server Core 终端
- WSL (Windows Subsystem for Linux)
- Docker / Dev Container 开发容器
- 基于 SSH 的极客运维流
总结:系统少一层转接折腾,运行就少一分不确定性。 🧩
- 本项目为一个处于持续演进中的非官方分支,不代表任何官方立场。
- 部分核心能力已在生产级场景验证稳定,但个别冷门协议与 Provider 适配仍在敏捷迭代中。
- 如果你追求对第三方模型接入过程的“绝对掌控权”,这个项目方向将比“单纯复刻官方行为”释放出更大的定制价值。
特别感谢 doge-code 项目及其作者提供的宝贵灵感与架构参考。他们在该领域的早期探索极具前瞻价值,使得我们有幸站在巨人的肩膀上。
cloaiCode 的亮点如下
- ✅ 原生重构的多 Provider 核心。
- ✅ 原生隔离的多鉴权模式。
- ✅ 真实案例的模型使用测试
- ✅ 原生解析的多元协议路径。
- ✅ 完美适配的纯服务器与无屏幕终端(如酶与底物的结合般绝妙)。
如果你正在寻觅一个更纯粹、更灵活、更能从容应对复杂网络与部署环境的代码助手 CLI 方案,那么,欢迎使用 cloaiCode。🔥
- 重构 openai-like 兼容端点,使得在
/v1端点前带有其他端点的模型提供商也可以接入,例如https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions。 - 默认关闭 openai 模型的并行工具调用功能,因为并行工具调用会扰乱上下文缓存和模型理解。可在
/config中重新打开。
- 新增 GitHub Copilot 的 GPT 系列模型缓存支持,补齐这两条 OpenAI-compatible 路径上的缓存命中能力。
- 修复过去缓存只能命中前缀、无法持续扩展的问题;现在多轮工具调用下缓存可继续向后增长,而不再长期卡死在前面一小段前缀。
- 对于兼容的模型供应商,加入 API 请求失败后自动重试的功能。
- 在 OpenAI 模型多次进入相同工具调用的情况,设定了自动中止(可以在config中关闭)。
- 在
/config选项中添加了对 API 重试次数和重复工具调用强制中止次数的设定。
- 对照云端
main,重写/login登录文档:补齐Manage accounts、Provider actions、Select provider、Provider variant select、Configure official provider、Configure custom provider、Ready to start、Waiting for login等新版子菜单与状态流转说明。 - 正式加入
GitHub Copilot OAuth:支持github.com与可选GitHub Enterprise domain,登录完成后自动启用并写入 Copilot 模型列表;已实测gpt-5-mini、claude-haiku-4.5、gemini-3-flash-preview。 OpenAI Official Responses API、OpenAI OAuth、Google AI Studio (API key)、Google Antigravity (OAuth)、GitHub Copilot OAuth现已统一支持模型列表自动回填,登录成功后可直接在/model中选择。- 移除
/login -> Google Gemini -> Gemini CLI OAuth新建入口,改为Google Gemini直达Google AI Studio (API key);原因是该线路对新账号极易触发封号或限流,已保存 legacy 账号仅保留兼容。 /model文档同步更新为新版行为:支持读取已保存 Provider 记录,以“模型名 + 账号 / Provider 名称”的形式展示同名模型的不同来源。
- 修复非 Anthropic Provider 下
/context分类统计缺失的问题:OpenAI-compatible、Gemini-compatible 以及后续新增的非 Anthropic Provider 不再依赖 Anthropic token-count 接口,而是统一回退到本地粗略估算,因此System prompt、System tools、Skills等分类可以稳定显示。 - 修复非 Anthropic Provider 下 MCP 输出截断判断失效的问题:当无法调用 Anthropic token counting 时,会回退到本地内容大小估算,避免超大 MCP 输出漏判。
- Codex OAuth 作为 OpenAI-compatible 路径,同样适用上述粗略估算逻辑。
- 修复
/context上下文用量计算不一致的问题,统一 runtime model 下的 autocompact buffer 口径,并在 API usage 缺失或为 0 时正确回退到本地估算,避免显示异常偏小或 0 的总量。 - 新增
/context顶部来源标记,区分当前总量来自 API usage 还是本地估算,方便判断兼容模型的 usage 是否正常落盘。 - 新增全局采样温度配置:可在
/config → Sampling temperature中选择default / off / custom,并在 custom 模式下输入0..2的数值,最终统一控制是否发送temperature。 - 保持 thinking 模式下的兼容语义:即使配置了
samplingTemperature,Anthropic thinking 请求仍不会发送temperature。 - 补充
samplingTemperature的配置说明,包含/config交互方式、.claude/settings.local.json持久化位置,以及default / off / number的语义。 - 修复多轮工具调用与 Plan Mode 自动切换场景下,API 请求异常失败的问题。
- ⭐支持 Responses API 的缓存命中,成本降低 90%,并提速
- 修复上下文穿插造成的回复不连续问题
- 针对部分 OpenAI 兼容路由补充更稳的缓存键支持
- 支持多模态以及图像粘贴到对话框
注:/chat/completions 不支持缓存。请确保使用 /responses 方式请求,才能命中缓存。支持缓存的模型:
gpt-5.4,gpt-5.2,gpt-5.1-codex-max,gpt-5.1,gpt-5.1-codex,gpt-5.1-codex-mini,gpt-5.1-chat-latest,gpt-5,gpt-5-codex,gpt-4.1- 兼容
prompt_cache_key的其他模型
- Codex OAuth、Responses API、Gemini OAuth 和 Vertex API 支持
- 支持设定推理强度
- 支持思维链流式输出
