【Claude Code Router】一键直连五大模型

她笑中藏泪花
5天前发布 /正在检测是否收录...

引言

本教程将手把手教你在 Claude Code Router(CCR) 中配置 Gemini 2.5 ProDeepSeek-V3.1GLM-4.5Kimi-K2Qwen3-Coder(魔搭 ModelScope)直连 API,并实现UI 下拉/命令一键切换。按照本文,初学者可走完 “获取密钥 → CCR UI 配置 → 首次通连测试” 的最短路径。

说明:Claude Code 原生只“认” Anthropic 格式接口(/v1/messages),而 CCR 在后端完成协议转换,适配 OpenAI 兼容或特定厂商 API。因此本文的 Provider 多采用 OpenAI 兼容的 /v1/chat/completions 或厂商专用端点;个别模型(如 Gemini)需在 CCR 中启用专用 transformer

如果你打算使用 Anthropic 格式 URL,请在 Transformer 中选择 Anthropic,并确保 Base URL /v1/messages 结尾;若不选择该转换器,则使用 OpenAI 兼容/v1/chat/completions 等端点并选择 openai

Anthropic 格式常用示例

  • DeepSeek:https://api.deepseek.com/anthropic/v1/messages
  • 智谱:https://open.bigmodel.cn/api/anthropic/v1/messages
小贴士:有些环境会自动给 …/anthropic 追加 /v1/messages;为避免“重复拼接”导致的 404,在 CCR 里把 Base URL 直接写到 /v1/messages 结尾最稳妥。若走 OpenAI 兼容模式,请改用各家提供的 /chat/completions 等端点并在 Transformer 选择 openai

1. 环境准备与启动

先安装 Claude CodeClaude Code Router

npm install -g @anthropic-ai/claude-code
npm install -g @musistudio/claude-code-router

启动 CCR 的图形界面(UI):

ccr ui

执行后会在本地开启服务并自动打开 Web 界面(默认:http://localhost:3456)。
提示: 若不希望把密钥写入配置文件,可先临时设定环境变量(各模型示例见下文),CCR 会从环境变量读取。

进入 CCR UI 后,在 Providers 列表中为每个模型新增配置。仅需填写 “Base URL” 与 “API Key” 两项,其它保持默认即可。保存后,可通过 “新建会话 → 选择模型 → 输入测试消息” 验证连通性。

若不想在gui配置,也可以在以下路径打开config.json文件进行配置:

  1. Windows:

    %USERPROFILE%\.claude-code-router\config.json
  2. Mac/Linux

    ~/.claude-code-router/config.json

2. 五大模型直连配置

2.1 Gemini 2.5 Pro

开通与取 Key
Google Al Studio → 登录 → 生成 Key(本文称 <YOUR_GEMINI_API_KEY>)。

CCR UI

  • Base URLhttps://generativelanguage.googleapis.com/v1beta/models/
  • API Key<YOUR_GEMINI_API_KEY>
  • modelsgemini-2.5-progemini-2.5-flash
  • transformer:启用 gemini(CCR 内置,将 Claude Code 的消息格式转换为 Gemini 的 generateContent 调用)

config.json 片段

{
  "name": "gemini",
  "api_base_url": "https://generativelanguage.googleapis.com/v1beta/models/",
  "api_key": "<YOUR_GEMINI_API_KEY>",
  "models": ["gemini-2.5-flash", "gemini-2.5-pro"],
  "transformer": { "use": ["gemini"] }
}

若连接不同,可以打开在代理软件内打开:TUN(虚拟网卡)模式

代理与网络连通(可选,含排查)

方案 A:应用层代理(推荐先试)
打开代理后,在 config.json 顶层设置 HTTP 代理,作用于所有 Provider 的外呼请求:

{
  "PROXY_URL": "http://127.0.0.1:7890",
  "Providers": [
    {
      "name": "gemini",
      "api_base_url": "https://generativelanguage.googleapis.com/v1beta/models/",
      "api_key": "<YOUR_GEMINI_API_KEY>",
      "models": ["gemini-2.5-flash", "gemini-2.5-pro"],
      "transformer": { "use": ["gemini"] }
    }
  ]
}
  • PROXY_URL 为 CCR 官方支持字段;端口 7890 是 Clash/Clash Verge 常见的 HTTP 代理端口(请按本地实际端口调整)。
  • 修改后建议 ccr restart,并确保代理客户端已开启 System Proxy(系统代理)

方案 B:TUN(虚拟网卡)模式(推荐兜底)
若程序不走系统代理或出现 DNS/路由绕行,可在代理软件中开启 TUN / Tun Mode:创建虚拟网卡,将全量流量强制走代理(如 Clash Verge 的 _Tun Mode_)。

连通性测试
保存 → ccr code → 发送“你好”,正常流式返回即成功。


2.2 DeepSeek-V3.1

开通与取 Key
访问 Deepseek开发平台→ 新建 Key(<YOUR_DEEPSEEK_API_KEY>

A. Anthropic 模式(推荐写到 /v1/messages)

  • TransformerAnthropic
  • Base URLhttps://api.deepseek.com/anthropic/v1/messages
  • modelsdeepseek-chat(如需推理链:deepseek-reasoner

片段(Anthropic)

{
  "name": "deepseek-anthropic",
  "api_base_url": "https://api.deepseek.com/anthropic/v1/messages",
  "api_key": "<YOUR_DEEPSEEK_API_KEY>",
  "models": ["deepseek-chat"],
  "transformer": { "use": ["Anthropic"] }
}

B. OpenAI 兼容模式

  • Transformeropenai
  • Base URLhttps://api.deepseek.com/chat/completions
  • modelsdeepseek-chat, deepseek-reasoner

片段(OpenAI 兼容)

{
  "name": "deepseek-openai",
  "api_base_url": "https://api.deepseek.com/chat/completions",
  "api_key": "<YOUR_DEEPSEEK_API_KEY>",
  "models": ["deepseek-chat", "deepseek-reasoner"],
}

连通性测试
保存 → ccr code → 发送“你好”。若报 completions/chat/completions 调用不匹配或 404,请对照所选模式检查 Base URL 与 Transformer。


2.3 GLM-4.5(智谱)

开通与取 Key
访问 智谱AI开放平台 API 密钥页面 → 新建 Key(<YOUR_ZHIPU_API_KEY>

A. Anthropic 模式

  • TransformerAnthropic
  • Base URLhttps://open.bigmodel.cn/api/anthropic/v1/messages
  • modelsglm-4.5

片段(Anthropic)

{
  "name": "zhipu-anthropic",
  "api_base_url": "https://open.bigmodel.cn/api/anthropic/v1/messages",
  "api_key": "<YOUR_ZHIPU_API_KEY>",
  "models": ["glm-4.5"],
  "transformer": { "use": ["Anthropic"] }
}

B. OpenAI 兼容模式

  • Transformeropenai
  • Base URLhttps://open.bigmodel.cn/api/paas/v4/chat/completions(注意 /v4
  • modelsglm-4.5

片段(OpenAI 兼容)

{
  "name": "zhipu-openai",
  "api_base_url": "https://open.bigmodel.cn/api/paas/v4/chat/completions",
  "api_key": "<YOUR_ZHIPU_API_KEY>",
  "models": ["glm-4.5"],
}

连通性测试
保存 → ccr code → 发送“你好”。若错误提示你用了 v1/completions,请改用 /v4/chat/completions


2.4 Kimi-K2(0711 preview)

开通与取 Key
访问 Moonshot AI 开放平台 → 新建 Key(<YOUR_MOONSHOT_API_KEY>

经过初步的测试,似乎是Anthropic格式模型是kimi-k2-turbo-previewopenai格式模型是kimi-k2-0711-preview

A. Anthropic 模式(推荐写到 /v1/messages)

  • TransformerAnthropic
  • Base URLhttps://api.moonshot.cn/anthropic/v1/messages
  • modelskimi-k2-turbo-preview

片段(Anthropic)

{
  "name": "kimi-anthropic",
  "api_base_url": "https://api.moonshot.cn/anthropic/v1/messages",
  "api_key": "<YOUR_MOONSHOT_API_KEY>",
  "models": ["kimi-k2-turbo-preview"],
  "transformer": { "use": ["Anthropic"] }
}

B. OpenAI 兼容模式

  • Transformeropenai
  • Base URLhttps://api.moonshot.cn/v1/chat/completions
  • modelskimi-k2-0711-preview

片段(OpenAI 兼容)

{
  "name": "kimi-openai",
  "api_base_url": "https://api.moonshot.cn/v1/chat/completions",
  "api_key": "<YOUR_MOONSHOT_API_KEY>",
  "models": ["kimi-k2-0711-preview],
  "transformer": { "use": ["openai"] }
}

连通性测试
保存 → ccr code → 发送“你好”。若报 completions/chat/completions 调用不匹配或 404,请对照所选模式检查 Base URL 与 Transformer。


2.5 Qwen3-Coder(魔搭 ModelScope)

开通与取 Key
访问 ModelScope魔搭社区→ 新建 Key(<YOUR_DEEPSEEK_API_KEY>

CCR UI(OpenAI 兼容)

  • Transformeropenai
  • Base URLhttps://api-inference.modelscope.cn/v1/chat/completions
  • API Key<YOUR_MODELSCOPE_OR_DASHSCOPE_API_KEY>
  • modelsQwen/Qwen3-Coder-480B-A35B-Instruct(按实际可用模型名填写)

config.json 片段

{
  "name": "modelscope",
  "api_base_url": "https://api-inference.modelscope.cn/v1/chat/completions",
  "api_key": "<YOUR_API_KEY>",
  "models": ["Qwen/Qwen3-Coder-480B-A35B-Instruct"],
}

3. 连通性测试(统一步骤)

  1. 在 CCR UI 保存 Provider;
  2. 打开对话:ccr code
  3. 发送“你好”或简单指令;
  4. 正常收到流式响应即打通。

4. 常见报错速查

  • 401 Unauthorized:Key 为空/失效/类型不符(如把 DashScope Key 用到非魔搭端点)。
  • 403 Forbidden:账号或地域未开通对应权限/模型。
  • 429 Too Many Requests:触发速率/并发限制。
  • 5XX Server Error:服务端波动,稍后重试或切换可用区。
  • “This is a chat model and not supported in the v1/completions endpoint”
    你把聊天模型发到 v1/completions 了;应改用 /v1/chat/completions(OpenAI 兼容模式)。
  • 404(Anthropic 路径):多见于 …/anthropic 又被路由层补了一次 /v1/messages把 Base URL 直接写到 /v1/messages 结尾通常可解。

6. 关于 /model 菜单与“自我认知”提示

Claude Code 的对话框内输入 /model 回车,默认只会出现 3 个固定选项(例如 _Default/Sonnet 4_、_Opus_、_Opus Plan Mode_)。这是内置菜单的限制
但你仍可手动切换:直接输入

/model provider,model

例如:

/model deepseek,deepseek-chat

可以正常切到 DeepSeek。
另外,Claude Code 的系统提示词可能让非 Claude 模型在会话开头“自称 Sonnet 4”。一旦你用 /model provider,model 切换成功,模型的“自我认知”就会恢复正常


结语

至此,你已经掌握了在 CCR 中直连五大模型的最小可用配置,以及 Anthropic / OpenAI 兼容两种接口模式的取舍要点。接下来,就在同一工作流里用:

/model provider,model

按需切换到更适合 推理 / 编程 / 长上下文 的模型吧。祝使用顺利!

© 版权声明
THE END
喜欢就支持一下吧
点赞 0 分享 收藏
评论 抢沙发
OωO
取消