低成本爽用 Claude Code: GPT-Load + CCR 方案

53 天前
 tbphp

最近 Claude Code 可太火了,但是 Claude 成本又太高,那么我提供的这个方案可以尝试一下。

直接上核心原理:就是这个方案可以支持任何渠道类型的大模型,不仅仅是 Claude 。然后再搞一批 Key ,组成 Key 池,使用轮询接入 Claude Code 。 至于 Key 池哪儿来,比如去 xx 收一点 gemini 的 key ,因为 gemini 每个项目 key 每天都有免费额度,那么整几十个就无忧使用 gemini-2.5-pro 了。还比如硅基搞活动的时候很多人搞了大量活动 Key ,组个硅基 Key 池,畅用 deepseek ,Qwen3-Coder 和 k2 模型。 还有其他各种渠道资源,就只能靠大家自己发掘了。

下面就教你把 GPT-Load 接入 CCR ,使用自己的 Key 池爽用 Claude Code 。 (顺便推荐一下我的 GPT-Load 项目😁,有用就点个 Star 吧。)

相关的项目:

前提条件

如果想知道 GPT-Load 如何部署,请查看帖子: https://s.ex.noerr.eu.org/t/1146354 , 或者项目 README ,一键式部署。

安装

执行命令,安装 Claude Code 和 CCR 。

npm install -g @anthropic-ai/claude-code
npm install -g @musistudio/claude-code-router

配置

配置文件: ~/.claude-code-router/config.json (如果没有就创建)

配置内容示例:

{
  "Providers": [
    {
      "name": "gpt-load-openai",
      "api_base_url": "http://localhost:3001/proxy/openai/v1/chat/completions",
      "api_key": "sk-123456",
      "models": [
        "gpt-4.1-mini",
        "gpt-4.1-nano"
      ]
    },
    {
      "name": "gpt-load-gemini",
      "api_base_url": "http://localhost:3001/proxy/gemini/v1beta/models/",
      "api_key": "sk-123456",
      "models": [
        "gemini-2.5-pro",
        "gemini-2.5-flash"
      ],
      "transformer": {
        "use": [
          "gemini"
        ]
      }
    },
    {
      "name": "gpt-load-gemini-openai",
      "api_base_url": "http://localhost:3001/proxy/gemini/v1beta/openai/chat/completions",
      "api_key": "sk-123456",
      "models": [
        "gemini-2.5-pro",
        "gemini-2.5-flash"
      ]
    },
    {
      "name": "gpt-load-anthropic",
      "api_base_url": "http://localhost:3001/proxy/anthropic/v1/messages",
      "api_key": "sk-123456",
      "models": [
        "claude-sonnet-4-20250514",
        "claude-3-haiku-20240307"
      ],
      "transformer": {
        "use": [
          "Anthropic"
        ]
      }
    }
  ],
  "Router": {
    "default": "gpt-load-gemini,gemini-2.5-pro",
    "background": "gpt-load-gemini,gemini-2.5-flash",
    "think": "gpt-load-gemini,gemini-2.5-pro",
    "longContext": "gpt-load-gemini,gemini-2.5-pro",
    "longContextThreshold": 60000,
    "webSearch": "gpt-load-gemini,gemini-2.5-flash"
  }
}

说明:

总结:就是配置是参考,你可以参考这个格式,但是里面的内容要根据自己 GPT-Load 服务的具体情况调整。别直接复制进去用啊。

使用

CCR ! 启动!!!

ccr code

GPT-Load 的官方文档也有更多的其他客户端的接入方式和一些细节,有需要直接查看 GPT-Load 官方文档 - 接入指南

3745 次点击
所在节点    Claude
26 条回复
tbphp
52 天前
@myderr 我确实可以啊,粘贴成功,对话框里面就会显示类似`[Image #1]`的文字。
如果不能复制,那你尝试使用 @命令,把图片的路径 @进去试一下呢。
Dreamerwwr
51 天前
抓到 T 佬了
asd999cxcx
51 天前
@tbphp 原来是这样,我还以为他和 cursor 之类的一样,一次对话只算一次调用,他这个是只有 cc 这样吗还是其他 agent 用 API 调用模式都会这样?
crytis
51 天前
@hahahasnoopy modelscope 的 qwen 总是报 Invalid tool parameter ,还有啥能白嫖的
tbphp
51 天前
cursor 一次对话也是会调用多次 API ,只是他的判断为一次任务来扣除次数。
你可以理解为 cursor 是按照对话次数计算,而不是 API 请求次数。
tbphp
51 天前

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://ex.noerr.eu.org/t/1150186

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX