引言
本教程将手把手教你在 Claude Code Router(CCR) 中配置 Gemini 2.5 Pro、DeepSeek-V3.1、GLM-4.5、Kimi-K2 与 Qwen3-Coder(魔搭 ModelScope) 的直连 API,并实现UI 下拉/命令一键切换。按照本文,初学者可走完 “获取密钥 → CCR UI 配置 → 首次通连测试” 的最短路径。
说明:Claude Code 原生只“认” Anthropic 格式接口(/v1/messages),而 CCR 在后端完成协议转换,适配 OpenAI 兼容或特定厂商 API。因此本文的 Provider 多采用 OpenAI 兼容的 /v1/chat/completions 或厂商专用端点;个别模型(如 Gemini)需在 CCR 中启用专用 transformer。
如果你打算使用 Anthropic 格式 URL,请在 Transformer 中选择 Anthropic,并确保 Base URL 以 /v1/messages 结尾;若不选择该转换器,则使用 OpenAI 兼容的 /v1/chat/completions 等端点并选择 openai。
Anthropic 格式常用示例
- DeepSeek:
https://api.deepseek.com/anthropic/v1/messages - 智谱:
https://open.bigmodel.cn/api/anthropic/v1/messages
小贴士:有些环境会自动给…/anthropic追加/v1/messages;为避免“重复拼接”导致的 404,在 CCR 里把 Base URL 直接写到/v1/messages结尾最稳妥。若走 OpenAI 兼容模式,请改用各家提供的/chat/completions等端点并在 Transformer 选择 openai。
1. 环境准备与启动
先安装 Claude Code 与 Claude Code Router:
npm install -g @anthropic-ai/claude-code
npm install -g @musistudio/claude-code-router启动 CCR 的图形界面(UI):
ccr ui执行后会在本地开启服务并自动打开 Web 界面(默认:http://localhost:3456)。
提示: 若不希望把密钥写入配置文件,可先临时设定环境变量(各模型示例见下文),CCR 会从环境变量读取。
进入 CCR UI 后,在 Providers 列表中为每个模型新增配置。仅需填写 “Base URL” 与 “API Key” 两项,其它保持默认即可。保存后,可通过 “新建会话 → 选择模型 → 输入测试消息” 验证连通性。
若不想在gui配置,也可以在以下路径打开config.json文件进行配置:
Windows:
%USERPROFILE%\.claude-code-router\config.jsonMac/Linux
~/.claude-code-router/config.json
2. 五大模型直连配置
2.1 Gemini 2.5 Pro
开通与取 Key
Google Al Studio → 登录 → 生成 Key(本文称 <YOUR_GEMINI_API_KEY>)。
CCR UI
- Base URL:
https://generativelanguage.googleapis.com/v1beta/models/ - API Key:
<YOUR_GEMINI_API_KEY> - models:
gemini-2.5-pro、gemini-2.5-flash - transformer:启用
gemini(CCR 内置,将 Claude Code 的消息格式转换为 Gemini 的generateContent调用)
config.json 片段
{
"name": "gemini",
"api_base_url": "https://generativelanguage.googleapis.com/v1beta/models/",
"api_key": "<YOUR_GEMINI_API_KEY>",
"models": ["gemini-2.5-flash", "gemini-2.5-pro"],
"transformer": { "use": ["gemini"] }
}若连接不同,可以打开在代理软件内打开:TUN(虚拟网卡)模式
代理与网络连通(可选,含排查)
方案 A:应用层代理(推荐先试)
打开代理后,在 config.json 顶层设置 HTTP 代理,作用于所有 Provider 的外呼请求:
{
"PROXY_URL": "http://127.0.0.1:7890",
"Providers": [
{
"name": "gemini",
"api_base_url": "https://generativelanguage.googleapis.com/v1beta/models/",
"api_key": "<YOUR_GEMINI_API_KEY>",
"models": ["gemini-2.5-flash", "gemini-2.5-pro"],
"transformer": { "use": ["gemini"] }
}
]
}PROXY_URL为 CCR 官方支持字段;端口 7890 是 Clash/Clash Verge 常见的 HTTP 代理端口(请按本地实际端口调整)。- 修改后建议
ccr restart,并确保代理客户端已开启 System Proxy(系统代理)。
方案 B:TUN(虚拟网卡)模式(推荐兜底)
若程序不走系统代理或出现 DNS/路由绕行,可在代理软件中开启 TUN / Tun Mode:创建虚拟网卡,将全量流量强制走代理(如 Clash Verge 的 _Tun Mode_)。
连通性测试
保存 → ccr code → 发送“你好”,正常流式返回即成功。
2.2 DeepSeek-V3.1
开通与取 Key
访问 Deepseek开发平台→ 新建 Key(<YOUR_DEEPSEEK_API_KEY>)
A. Anthropic 模式(推荐写到 /v1/messages)
- Transformer:Anthropic
- Base URL:
https://api.deepseek.com/anthropic/v1/messages - models:
deepseek-chat(如需推理链:deepseek-reasoner)
片段(Anthropic)
{
"name": "deepseek-anthropic",
"api_base_url": "https://api.deepseek.com/anthropic/v1/messages",
"api_key": "<YOUR_DEEPSEEK_API_KEY>",
"models": ["deepseek-chat"],
"transformer": { "use": ["Anthropic"] }
}B. OpenAI 兼容模式
- Transformer:openai
- Base URL:
https://api.deepseek.com/chat/completions - models:
deepseek-chat,deepseek-reasoner
片段(OpenAI 兼容)
{
"name": "deepseek-openai",
"api_base_url": "https://api.deepseek.com/chat/completions",
"api_key": "<YOUR_DEEPSEEK_API_KEY>",
"models": ["deepseek-chat", "deepseek-reasoner"],
}连通性测试
保存 → ccr code → 发送“你好”。若报 completions/chat/completions 调用不匹配或 404,请对照所选模式检查 Base URL 与 Transformer。
2.3 GLM-4.5(智谱)
开通与取 Key
访问 智谱AI开放平台 API 密钥页面 → 新建 Key(<YOUR_ZHIPU_API_KEY>)
A. Anthropic 模式
- Transformer:Anthropic
- Base URL:
https://open.bigmodel.cn/api/anthropic/v1/messages - models:
glm-4.5
片段(Anthropic)
{
"name": "zhipu-anthropic",
"api_base_url": "https://open.bigmodel.cn/api/anthropic/v1/messages",
"api_key": "<YOUR_ZHIPU_API_KEY>",
"models": ["glm-4.5"],
"transformer": { "use": ["Anthropic"] }
}B. OpenAI 兼容模式
- Transformer:openai
- Base URL:
https://open.bigmodel.cn/api/paas/v4/chat/completions(注意 /v4) - models:
glm-4.5
片段(OpenAI 兼容)
{
"name": "zhipu-openai",
"api_base_url": "https://open.bigmodel.cn/api/paas/v4/chat/completions",
"api_key": "<YOUR_ZHIPU_API_KEY>",
"models": ["glm-4.5"],
}连通性测试
保存 → ccr code → 发送“你好”。若错误提示你用了 v1/completions,请改用 /v4/chat/completions。
2.4 Kimi-K2(0711 preview)
开通与取 Key
访问 Moonshot AI 开放平台 → 新建 Key(<YOUR_MOONSHOT_API_KEY>)
经过初步的测试,似乎是Anthropic格式模型是kimi-k2-turbo-preview;openai格式模型是kimi-k2-0711-preview
A. Anthropic 模式(推荐写到 /v1/messages)
- Transformer:Anthropic
- Base URL:
https://api.moonshot.cn/anthropic/v1/messages - models:
kimi-k2-turbo-preview
片段(Anthropic)
{
"name": "kimi-anthropic",
"api_base_url": "https://api.moonshot.cn/anthropic/v1/messages",
"api_key": "<YOUR_MOONSHOT_API_KEY>",
"models": ["kimi-k2-turbo-preview"],
"transformer": { "use": ["Anthropic"] }
}B. OpenAI 兼容模式
- Transformer:openai
- Base URL:
https://api.moonshot.cn/v1/chat/completions - models:
kimi-k2-0711-preview
片段(OpenAI 兼容)
{
"name": "kimi-openai",
"api_base_url": "https://api.moonshot.cn/v1/chat/completions",
"api_key": "<YOUR_MOONSHOT_API_KEY>",
"models": ["kimi-k2-0711-preview],
"transformer": { "use": ["openai"] }
}连通性测试
保存 → ccr code → 发送“你好”。若报 completions/chat/completions 调用不匹配或 404,请对照所选模式检查 Base URL 与 Transformer。
2.5 Qwen3-Coder(魔搭 ModelScope)
开通与取 Key
访问 ModelScope魔搭社区→ 新建 Key(<YOUR_DEEPSEEK_API_KEY>)
CCR UI(OpenAI 兼容)
- Transformer:openai
- Base URL:
https://api-inference.modelscope.cn/v1/chat/completions - API Key:
<YOUR_MODELSCOPE_OR_DASHSCOPE_API_KEY> - models:
Qwen/Qwen3-Coder-480B-A35B-Instruct(按实际可用模型名填写)
config.json 片段
{
"name": "modelscope",
"api_base_url": "https://api-inference.modelscope.cn/v1/chat/completions",
"api_key": "<YOUR_API_KEY>",
"models": ["Qwen/Qwen3-Coder-480B-A35B-Instruct"],
}3. 连通性测试(统一步骤)
- 在 CCR UI 保存 Provider;
- 打开对话:
ccr code; - 发送“你好”或简单指令;
- 正常收到流式响应即打通。
4. 常见报错速查
- 401 Unauthorized:Key 为空/失效/类型不符(如把 DashScope Key 用到非魔搭端点)。
- 403 Forbidden:账号或地域未开通对应权限/模型。
- 429 Too Many Requests:触发速率/并发限制。
- 5XX Server Error:服务端波动,稍后重试或切换可用区。
- “This is a chat model and not supported in the v1/completions endpoint”:
你把聊天模型发到v1/completions了;应改用/v1/chat/completions(OpenAI 兼容模式)。 - 404(Anthropic 路径):多见于
…/anthropic又被路由层补了一次/v1/messages;把 Base URL 直接写到/v1/messages结尾通常可解。
6. 关于 /model 菜单与“自我认知”提示
在 Claude Code 的对话框内输入 /model 回车,默认只会出现 3 个固定选项(例如 _Default/Sonnet 4_、_Opus_、_Opus Plan Mode_)。这是内置菜单的限制。
但你仍可手动切换:直接输入
/model provider,model例如:
/model deepseek,deepseek-chat可以正常切到 DeepSeek。
另外,Claude Code 的系统提示词可能让非 Claude 模型在会话开头“自称 Sonnet 4”。一旦你用 /model provider,model 切换成功,模型的“自我认知”就会恢复正常。
结语
至此,你已经掌握了在 CCR 中直连五大模型的最小可用配置,以及 Anthropic / OpenAI 兼容两种接口模式的取舍要点。接下来,就在同一工作流里用:
/model provider,model按需切换到更适合 推理 / 编程 / 长上下文 的模型吧。祝使用顺利!