虽然a社很作,但是不得不说,在我用过的cli里面,Claude code的功能性如果排第二,就没有排第一的了。既然又敌对,又限制,又降智,那我就用cli好了(有很多人使用cc来写文章),哈哈。
虽然ccr已经实现了多模型切换,但是对于我这种极简主义来说 - 简单便是最美。(目前此方法的局限:只适用于和a社接口兼容的模型)
技术原理:简单到让人惊叹
这个方案的核心思想就一句话:
让每个命令使用独立的配置文件,而不是共享一个settings.json
实现方式超级简单:
# 传统方式:所有命令共享一个配置
claude # 使用 ~/.claude/settings.json
# 新方式:每个命令独立配置
glm # 使用 ~/.claude/settings-glm.json
qwen # 使用 ~/.claude/settings-qwen.json
有几种指定setting的方案,显然方案1最通用:
方案1:直接调用 claude 命令(推荐)
claude --settings “%SETTINGS%” %*
方案2:使用 npx 调用
npx @anthropic-ai/claude-code --settings “%SETTINGS%” %*
方案3:找到实际安装路径
node “%APPDATA%\npm\node_modules@anthropic-ai\claude-code\cli.js” --settings “%SETTINGS%” %*
就是这么朴素,就是这么有效!
终极教程:只要两步,写命令行和配置文件
Windows版 - 全局命令设置
1. 创建批处理文件
在任意文件夹(如 C:\claude-scripts\
)创建脚本,–config为json的位置:
glm.bat:
@echo off
claude code --config "%USERPROFILE%\.claude\config-glm.json" %*
qwen.bat:
@echo off
claude code --config "%USERPROFILE%\.claude\config-qwen.json" %*
2. 添加到系统PATH(二选一就可以)
1.将 glm.bat
和 qwen.bat
复制到:C:\Windows\System32\
2.右键"此电脑" → 属性 → 高级系统设置 → 环境变量,在系统变量的Path中添加脚本文件夹路径,重启命令行
现在你可以在任何地方:
# 窗口1:默认Claude
claude
# 窗口2:GLM模型
glm
# 窗口3:Qwen模型
qwen
Mac/Linux版 - 全局命令设置
1. 创建脚本文件
在 /usr/local/bin/
或 ~/.local/bin/
创建:
glm:
#!/bin/bash
claude code --config "$HOME/.config/claude/config-glm.json" "$@"
qwen:
#!/bin/bash
claude code --config "$HOME/.config/claude/config-qwen.json" "$@"
2. 设置执行权限
chmod +x /usr/local/bin/glm
chmod +x /usr/local/bin/qwen
或者使用别名方式(更简单):
在 ~/.bashrc
或 ~/.zshrc
中添加:
alias glm='claude code --config ~/.config/claude/config-glm.json'
alias qwen='claude code --config ~/.config/claude/config-qwen.json'
然后执行:
source ~/.bashrc # 或 source ~/.zshrc
现在你可以在任何地方:
# 窗口1:默认Claude
claude
# 窗口2:GLM模型
glm
# 窗口3:Qwen模型
qwen
配置文件
位置:
Windows:%USERPROFILE%\.claude\config-*.json
Mac/Linux:~/.config/claude/config-*.json
自己复制原来的setting文件,修改env部分就可以了。
config-glm.json:
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "key",
"ANTHROPIC_BASE_URL": "https://open.bigmodel.cn/api/anthropic",
"ANTHROPIC_MODEL": "glm-4.5",
"ANTHROPIC_SMALL_FAST_MODEL": "glm-4.5-air",
"CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": "1",
"API_TIMEOUT_MS": "600000"
}
就是这么简单!一个命令,一个模型,想用哪个打哪个!
Life is too short to use one model at a time!