低成本爽用 Claude Code: GPT-Load + CCR 方案

52 天前
 tbphp

最近 Claude Code 可太火了,但是 Claude 成本又太高,那么我提供的这个方案可以尝试一下。

直接上核心原理:就是这个方案可以支持任何渠道类型的大模型,不仅仅是 Claude 。然后再搞一批 Key ,组成 Key 池,使用轮询接入 Claude Code 。 至于 Key 池哪儿来,比如去 xx 收一点 gemini 的 key ,因为 gemini 每个项目 key 每天都有免费额度,那么整几十个就无忧使用 gemini-2.5-pro 了。还比如硅基搞活动的时候很多人搞了大量活动 Key ,组个硅基 Key 池,畅用 deepseek ,Qwen3-Coder 和 k2 模型。 还有其他各种渠道资源,就只能靠大家自己发掘了。

下面就教你把 GPT-Load 接入 CCR ,使用自己的 Key 池爽用 Claude Code 。 (顺便推荐一下我的 GPT-Load 项目😁,有用就点个 Star 吧。)

相关的项目:

前提条件

如果想知道 GPT-Load 如何部署,请查看帖子: https://s.ex.noerr.eu.org/t/1146354 , 或者项目 README ,一键式部署。

安装

执行命令,安装 Claude Code 和 CCR 。

npm install -g @anthropic-ai/claude-code
npm install -g @musistudio/claude-code-router

配置

配置文件: ~/.claude-code-router/config.json (如果没有就创建)

配置内容示例:

{
  "Providers": [
    {
      "name": "gpt-load-openai",
      "api_base_url": "http://localhost:3001/proxy/openai/v1/chat/completions",
      "api_key": "sk-123456",
      "models": [
        "gpt-4.1-mini",
        "gpt-4.1-nano"
      ]
    },
    {
      "name": "gpt-load-gemini",
      "api_base_url": "http://localhost:3001/proxy/gemini/v1beta/models/",
      "api_key": "sk-123456",
      "models": [
        "gemini-2.5-pro",
        "gemini-2.5-flash"
      ],
      "transformer": {
        "use": [
          "gemini"
        ]
      }
    },
    {
      "name": "gpt-load-gemini-openai",
      "api_base_url": "http://localhost:3001/proxy/gemini/v1beta/openai/chat/completions",
      "api_key": "sk-123456",
      "models": [
        "gemini-2.5-pro",
        "gemini-2.5-flash"
      ]
    },
    {
      "name": "gpt-load-anthropic",
      "api_base_url": "http://localhost:3001/proxy/anthropic/v1/messages",
      "api_key": "sk-123456",
      "models": [
        "claude-sonnet-4-20250514",
        "claude-3-haiku-20240307"
      ],
      "transformer": {
        "use": [
          "Anthropic"
        ]
      }
    }
  ],
  "Router": {
    "default": "gpt-load-gemini,gemini-2.5-pro",
    "background": "gpt-load-gemini,gemini-2.5-flash",
    "think": "gpt-load-gemini,gemini-2.5-pro",
    "longContext": "gpt-load-gemini,gemini-2.5-pro",
    "longContextThreshold": 60000,
    "webSearch": "gpt-load-gemini,gemini-2.5-flash"
  }
}

说明:

总结:就是配置是参考,你可以参考这个格式,但是里面的内容要根据自己 GPT-Load 服务的具体情况调整。别直接复制进去用啊。

使用

CCR ! 启动!!!

ccr code

GPT-Load 的官方文档也有更多的其他客户端的接入方式和一些细节,有需要直接查看 GPT-Load 官方文档 - 接入指南

3742 次点击
所在节点    Claude
26 条回复
keakon
52 天前
Gemini 要弱很多,工具容易报错,做到一半经常放弃
tbphp
52 天前
@keakon 可以试一下千问 code 模型,如果有资源的话。
h272377502
52 天前
20 美元的 claude pro 够我用,平时代码量不大。还是用 sonnet 模型舒心
headwindx
52 天前
编码上 sonnet 比 gpt 还是强太多了,不能只看价格,还得看产出效率。便宜不出活,好比大学毕业生免费为你实习,但就是完成不了你的任务,你还得训练它。
tbphp
52 天前
@headwindx 是的,不过每个人都有不同的需求,多给一种选择方案。
slowgen
52 天前
比较折腾而且和模型要适配,我测了 Claude Code 结合本地的 GLM-4.5-Air 、Qwen3-235B-A22B-Instruct-2507 、Qwen3-Coder-30B-A3B-Instruct ,经常会消耗了几十 K 的 token 但是活都没开始干,不能一个 prompt 就让它“自己动”完成所有事情,连把大模型给的代码写入文件都做不好,同样的 prompt 丢到 Roo Code 就不同了,结合上面几个本地跑的模型完成度非常高,人工干预极少
tbphp
52 天前
@shuimugan
嗯,我也是 gemini 轮询 Key + roo code 。确实效果很好,而且精准。

也不能说是 claude code 做得不好,可能是模型适配度的问题吧。
tbphp
52 天前
@h272377502
claude pro 只有兑换模式,没有 api 吧。对话肯定完全够用,只是很多场景还是直接调用 api 方便一点。
issakchill
52 天前
@shuimugan 同感 gemini+roo 比 gemini cli 用起来好太多了
tbphp
52 天前
@issakchill
我也是这套方案,roo+gemini 确实好用。

如果有多 Key 的话,使用 gpt-load 搞个轮询,接入 roo-code 就可以无限使用了,不用担心 tokens 消耗。
h272377502
52 天前
@tbphp 用 clove 转一下就就是 api 了
maximdx
52 天前
月之暗面 k2 直接买其实也还好吧
asd999cxcx
51 天前
我最近遇到一个问题:ccr 发起一次对话,完成了一个任务,这个任务执行完了扣了魔搭很多次额度,这是为什么?
tbphp
51 天前
@asd999cxcx
cc 的用量大吧
hahahasnoopy
51 天前
穷人直接用 qwen-coder 好了,我在用。使用的是 modelscope 的免费次数,基本上够用了,而且个人感觉逻辑上比 gemini 要好
asd999cxcx
51 天前
@tbphp
Total cost: $0.0004 (costs may be inaccurate due to usage of unknown models)
Total duration (API): 4m 27.2s
Total duration (wall): 26m 19.9s
Total code changes: 130 lines added, 8 lines removed
Usage by model:
claude-3-5-haiku: 3 input, 3 output, 0 cache read, 0 cache write
Qwen/Qwen3-Coder-480B-A35B-Instruct: 19 input, 19 output, 0 cache read, 0 cache write
这是那次对话的统计
myderr
51 天前
感谢,用上了,非常爽,就是可以粘贴图片吗,有些场景我想直接发图片给他
tbphp
51 天前
@asd999cxcx
是因为一次对话过程中,cc 会进行多次 api 调用以处理不同的任务。并不是一次对话就只调用一次 API 哦。
tbphp
51 天前
@myderr 可以直接 ctrl + c 复制图片,然后去兑换终端里面,直接 ctrl +v 。
mac 是 cmd +c ,cmd +v
myderr
51 天前
@tbphp #19 我就是这样使用的,发现没任何反应,所以我再来问的,模型 Router 我使用的就是你的这个,所以肯定也不是模型不支持图片

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://ex.noerr.eu.org/t/1150186

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX