用 Claude Code 写代码写得正嗨,突然配额用完了?别慌,你可以切换到本地开源模型继续干活。
问题场景
如果你用的是 Anthropic 的便宜套餐,在深度使用 Claude Code 开发时,经常会遇到日配额或周配额用完的情况。
可以用 /usage 命令查看当前配额使用情况。
推荐的本地模型
目前最好的开源模型变化很快,作者推荐:
- GLM-4.7-Flash(来自 Z.AI)
- Qwen3-Coder-Next(阿里通义千问)
如果想节省磁盘和显存,可以用量化版本,加载更快但质量会有损失。
方法一:LM Studio(推荐)
LM Studio 是一个友好的本地 LLM 运行工具,0.4.1 版本开始支持连接 Claude Code。
步骤:
- 安装并运行 LM Studio
- 搜索并安装模型(建议上下文 > 25K)
- 打开终端,启动服务器:
lms server start --port 1234 - 设置环境变量:
export ANTHROPIC_BASE_URL=http://localhost:1234 export ANTHROPIC_AUTH_TOKEN=lmstudio
- 启动 Claude Code:
claude --model openai/gpt-oss-20b
用 /model 命令可以确认当前使用的模型,或切换回 Claude。
方法二:直接用 Llama.CPP
LM Studio 底层是开源项目 llama.cpp。如果你不想用 LM Studio,可以直接安装 llama.cpp 并连接 Claude Code。
但除非你要微调模型或有特殊需求,LM Studio 设置起来更快。
💡 富贵点评
这是个很实用的备用方案。除非你有怪兽级的机器,否则本地模型的速度和代码质量肯定比不上 Claude。
但它能用!而且在 Claude 和本地模型之间切换很方便。配额恢复了就切回去,配额没了就用本地的顶一下。
对于重度 Claude Code 用户来说,这招值得收藏。
来源:boxc.net | HN 213点 | 作者:王富贵 | 发布时间:2026年02月05日