CC-Relay

重新定义 Claude Code 多模型体验

当前功能
🔑
多 API 密钥

每个供应商支持多密钥池,提升吞吐量

🔐
多认证方式

API 密钥和 Bearer Token 认证,灵活访问

📡
SSE 流式传输

与 Claude Code 实时流式传输完美兼容

🎛️
调试日志

详细的请求/响应日志,便于故障排查

⚙️
环境变量

在 YAML 中使用 ${VAR} 语法进行安全配置

🚀
快速配置

使用 cc-relay config cc init 一条命令完成 Claude Code 集成

快速开始

终端 — bash
$ # 安装
$ go install github.com/omarluq/cc-relay@latest
✓ 已安装 cc-relay@latest
$ # 初始化配置
$ cc-relay config init
✓ 配置文件已创建于 ~/.config/cc-relay/config.yaml
$ # 配置 Claude Code 集成
$ cc-relay config cc init
✓ Claude Code 已配置使用 cc-relay
$ # 运行服务器
$ cc-relay serve
→ 服务器已启动于 http://localhost:8787
$ # 开始使用 Claude Code
$ claude
✓ 已通过 cc-relay 连接

架构

CC-Relay 位于您的 LLM 客户端和后端供应商之间,完全兼容 Anthropic API 进行请求代理

客户端层
🤖
Claude Code 客户端
POST /v1/messages
代理引擎
🔐 认证
📝 请求日志
📡 SSE 流式
🔑 API 密钥管理
供应商层(已实现)
Anthropic
Claude 模型
Z.AI
GLM 模型
即将支持
Ollama
本地模型
AWS Bedrock
SigV4 认证
Azure Foundry
部署
Vertex AI
OAuth

使用场景

使用 CC-Relay 强化您的开发工作流

🔄

供应商灵活切换

在 Anthropic 和 Z.AI 之间切换,无需修改客户端代码

👥

开发团队

通过密钥池在多个开发者之间共享 API 配额

🔑

API 密钥管理

集中管理和轮换 API 密钥,无需更新客户端

💰

成本对比

测试 Z.AI 的 GLM 模型作为低成本替代方案

🔐

订阅透传

将 Claude Code 订阅用户路由通过您的代理

🐛

请求调试

记录和检查 API 请求,便于故障排查

贡献

CC-Relay 是开源项目!欢迎贡献

AGPL 3 许可证 - 详见 LICENSE