引言
本教程将手把手教你在 Claude Code Router(CCR) 中配置 Gemini 2.5 Pro、DeepSeek-V3.1、GLM-4.5、Kimi-K2 与 Qwen3-Coder(魔搭 ModelScope) 的直连 API,并实现UI 下拉/命令一键切换。按照本文,初学者可走完 “获取密钥 → CCR UI 配置 → 首次通连测试” 的最短路径。
说明:Claude Code 原生只“认” Anthropic 格式接口(/v1/messages
),而 CCR 在后端完成协议转换,适配 OpenAI 兼容或特定厂商 API。因此本文的 Provider 多采用 OpenAI 兼容的 /v1/chat/completions
或厂商专用端点;个别模型(如 Gemini)需在 CCR 中启用专用 transformer
。
如果你打算使用 Anthropic 格式 URL,请在 Transformer 中选择 Anthropic,并确保 Base URL 以 /v1/messages
结尾;若不选择该转换器,则使用 OpenAI 兼容的 /v1/chat/completions
等端点并选择 openai。
Anthropic 格式常用示例
- DeepSeek:
https://api.deepseek.com/anthropic/v1/messages
- 智谱:
https://open.bigmodel.cn/api/anthropic/v1/messages
小贴士:有些环境会自动给…/anthropic
追加/v1/messages
;为避免“重复拼接”导致的 404,在 CCR 里把 Base URL 直接写到/v1/messages
结尾最稳妥。若走 OpenAI 兼容模式,请改用各家提供的/chat/completions
等端点并在 Transformer 选择 openai。
1. 环境准备与启动
先安装 Claude Code 与 Claude Code Router:
npm install -g @anthropic-ai/claude-code
npm install -g @musistudio/claude-code-router
启动 CCR 的图形界面(UI):
ccr ui
执行后会在本地开启服务并自动打开 Web 界面(默认:http://localhost:3456)。
提示: 若不希望把密钥写入配置文件,可先临时设定环境变量(各模型示例见下文),CCR 会从环境变量读取。
进入 CCR UI 后,在 Providers 列表中为每个模型新增配置。仅需填写 “Base URL” 与 “API Key” 两项,其它保持默认即可。保存后,可通过 “新建会话 → 选择模型 → 输入测试消息” 验证连通性。
若不想在gui配置,也可以在以下路径打开config.json文件进行配置:
Windows:
%USERPROFILE%\.claude-code-router\config.json
Mac/Linux
~/.claude-code-router/config.json
2. 五大模型直连配置
2.1 Gemini 2.5 Pro
开通与取 Key
Google Al Studio → 登录 → 生成 Key(本文称 <YOUR_GEMINI_API_KEY>
)。
CCR UI
- Base URL:
https://generativelanguage.googleapis.com/v1beta/models/
- API Key:
<YOUR_GEMINI_API_KEY>
- models:
gemini-2.5-pro
、gemini-2.5-flash
- transformer:启用
gemini
(CCR 内置,将 Claude Code 的消息格式转换为 Gemini 的generateContent
调用)
config.json
片段
{
"name": "gemini",
"api_base_url": "https://generativelanguage.googleapis.com/v1beta/models/",
"api_key": "<YOUR_GEMINI_API_KEY>",
"models": ["gemini-2.5-flash", "gemini-2.5-pro"],
"transformer": { "use": ["gemini"] }
}
若连接不同,可以打开在代理软件内打开:TUN(虚拟网卡)模式
代理与网络连通(可选,含排查)
方案 A:应用层代理(推荐先试)
打开代理后,在 config.json
顶层设置 HTTP 代理,作用于所有 Provider 的外呼请求:
{
"PROXY_URL": "http://127.0.0.1:7890",
"Providers": [
{
"name": "gemini",
"api_base_url": "https://generativelanguage.googleapis.com/v1beta/models/",
"api_key": "<YOUR_GEMINI_API_KEY>",
"models": ["gemini-2.5-flash", "gemini-2.5-pro"],
"transformer": { "use": ["gemini"] }
}
]
}
PROXY_URL
为 CCR 官方支持字段;端口 7890 是 Clash/Clash Verge 常见的 HTTP 代理端口(请按本地实际端口调整)。- 修改后建议
ccr restart
,并确保代理客户端已开启 System Proxy(系统代理)。
方案 B:TUN(虚拟网卡)模式(推荐兜底)
若程序不走系统代理或出现 DNS/路由绕行,可在代理软件中开启 TUN / Tun Mode:创建虚拟网卡,将全量流量强制走代理(如 Clash Verge 的 _Tun Mode_)。
连通性测试
保存 → ccr code
→ 发送“你好”,正常流式返回即成功。
2.2 DeepSeek-V3.1
开通与取 Key
访问 Deepseek开发平台→ 新建 Key(<YOUR_DEEPSEEK_API_KEY>
)
A. Anthropic 模式(推荐写到 /v1/messages)
- Transformer:Anthropic
- Base URL:
https://api.deepseek.com/anthropic/v1/messages
- models:
deepseek-chat
(如需推理链:deepseek-reasoner
)
片段(Anthropic)
{
"name": "deepseek-anthropic",
"api_base_url": "https://api.deepseek.com/anthropic/v1/messages",
"api_key": "<YOUR_DEEPSEEK_API_KEY>",
"models": ["deepseek-chat"],
"transformer": { "use": ["Anthropic"] }
}
B. OpenAI 兼容模式
- Transformer:openai
- Base URL:
https://api.deepseek.com/chat/completions
- models:
deepseek-chat
,deepseek-reasoner
片段(OpenAI 兼容)
{
"name": "deepseek-openai",
"api_base_url": "https://api.deepseek.com/chat/completions",
"api_key": "<YOUR_DEEPSEEK_API_KEY>",
"models": ["deepseek-chat", "deepseek-reasoner"],
}
连通性测试
保存 → ccr code
→ 发送“你好”。若报 completions
/chat/completions
调用不匹配或 404,请对照所选模式检查 Base URL 与 Transformer。
2.3 GLM-4.5(智谱)
开通与取 Key
访问 智谱AI开放平台 API 密钥页面 → 新建 Key(<YOUR_ZHIPU_API_KEY>
)
A. Anthropic 模式
- Transformer:Anthropic
- Base URL:
https://open.bigmodel.cn/api/anthropic/v1/messages
- models:
glm-4.5
片段(Anthropic)
{
"name": "zhipu-anthropic",
"api_base_url": "https://open.bigmodel.cn/api/anthropic/v1/messages",
"api_key": "<YOUR_ZHIPU_API_KEY>",
"models": ["glm-4.5"],
"transformer": { "use": ["Anthropic"] }
}
B. OpenAI 兼容模式
- Transformer:openai
- Base URL:
https://open.bigmodel.cn/api/paas/v4/chat/completions
(注意 /v4) - models:
glm-4.5
片段(OpenAI 兼容)
{
"name": "zhipu-openai",
"api_base_url": "https://open.bigmodel.cn/api/paas/v4/chat/completions",
"api_key": "<YOUR_ZHIPU_API_KEY>",
"models": ["glm-4.5"],
}
连通性测试
保存 → ccr code
→ 发送“你好”。若错误提示你用了 v1/completions
,请改用 /v4/chat/completions
。
2.4 Kimi-K2(0711 preview)
开通与取 Key
访问 Moonshot AI 开放平台 → 新建 Key(<YOUR_MOONSHOT_API_KEY>
)
经过初步的测试,似乎是Anthropic格式模型是kimi-k2-turbo-preview
;openai格式模型是kimi-k2-0711-preview
A. Anthropic 模式(推荐写到 /v1/messages)
- Transformer:Anthropic
- Base URL:
https://api.moonshot.cn/anthropic/v1/messages
- models:
kimi-k2-turbo-preview
片段(Anthropic)
{
"name": "kimi-anthropic",
"api_base_url": "https://api.moonshot.cn/anthropic/v1/messages",
"api_key": "<YOUR_MOONSHOT_API_KEY>",
"models": ["kimi-k2-turbo-preview"],
"transformer": { "use": ["Anthropic"] }
}
B. OpenAI 兼容模式
- Transformer:openai
- Base URL:
https://api.moonshot.cn/v1/chat/completions
- models:
kimi-k2-0711-preview
片段(OpenAI 兼容)
{
"name": "kimi-openai",
"api_base_url": "https://api.moonshot.cn/v1/chat/completions",
"api_key": "<YOUR_MOONSHOT_API_KEY>",
"models": ["kimi-k2-0711-preview],
"transformer": { "use": ["openai"] }
}
连通性测试
保存 → ccr code
→ 发送“你好”。若报 completions
/chat/completions
调用不匹配或 404,请对照所选模式检查 Base URL 与 Transformer。
2.5 Qwen3-Coder(魔搭 ModelScope)
开通与取 Key
访问 ModelScope魔搭社区→ 新建 Key(<YOUR_DEEPSEEK_API_KEY>
)
CCR UI(OpenAI 兼容)
- Transformer:openai
- Base URL:
https://api-inference.modelscope.cn/v1/chat/completions
- API Key:
<YOUR_MODELSCOPE_OR_DASHSCOPE_API_KEY>
- models:
Qwen/Qwen3-Coder-480B-A35B-Instruct
(按实际可用模型名填写)
config.json
片段
{
"name": "modelscope",
"api_base_url": "https://api-inference.modelscope.cn/v1/chat/completions",
"api_key": "<YOUR_API_KEY>",
"models": ["Qwen/Qwen3-Coder-480B-A35B-Instruct"],
}
3. 连通性测试(统一步骤)
- 在 CCR UI 保存 Provider;
- 打开对话:
ccr code
; - 发送“你好”或简单指令;
- 正常收到流式响应即打通。
4. 常见报错速查
- 401 Unauthorized:Key 为空/失效/类型不符(如把 DashScope Key 用到非魔搭端点)。
- 403 Forbidden:账号或地域未开通对应权限/模型。
- 429 Too Many Requests:触发速率/并发限制。
- 5XX Server Error:服务端波动,稍后重试或切换可用区。
- “This is a chat model and not supported in the v1/completions endpoint”:
你把聊天模型发到v1/completions
了;应改用/v1/chat/completions
(OpenAI 兼容模式)。 - 404(Anthropic 路径):多见于
…/anthropic
又被路由层补了一次/v1/messages
;把 Base URL 直接写到/v1/messages
结尾通常可解。
6. 关于 /model
菜单与“自我认知”提示
在 Claude Code 的对话框内输入 /model
回车,默认只会出现 3 个固定选项(例如 _Default/Sonnet 4_、_Opus_、_Opus Plan Mode_)。这是内置菜单的限制。
但你仍可手动切换:直接输入
/model provider,model
例如:
/model deepseek,deepseek-chat
可以正常切到 DeepSeek。
另外,Claude Code 的系统提示词可能让非 Claude 模型在会话开头“自称 Sonnet 4”。一旦你用 /model provider,model
切换成功,模型的“自我认知”就会恢复正常。
结语
至此,你已经掌握了在 CCR 中直连五大模型的最小可用配置,以及 Anthropic / OpenAI 兼容两种接口模式的取舍要点。接下来,就在同一工作流里用:
/model provider,model
按需切换到更适合 推理 / 编程 / 长上下文 的模型吧。祝使用顺利!