发帖
 找回密码
 立即注册
搜索
14 4 0
日常闲聊 105 14 昨天 13:17
GitHub - BeehiveInnovations/zen-mcp-server:
The power of Claude Code + [Gemini / OpenAI / Grok / OpenRouter / Ollama / Custom Model / All Of The Above] working as one.

25f099b32d9f450781a17247ec01e38e8187276b.webp
591cd03730ab0dce46beda08d7dca08e8a003fe2.webp
这个项目太强了 作者伟大!

开了个 Claude Pro 体验了确实感觉比 cursor 之流丝滑,美中不足就是 token 太短了,现在终于上下文自由了!
不用天天看见官方 CC 的那个 Context left until auto-compact 提示了
另外如果有佬有稳定便宜的 gemini 2.5 pro key 的话求分享呀



如果使用的是第三方 API 的 Gemini 2.5 Pro,还需要修改 zen-mcp-server/conf/custom_models.json,添加类似下面的配置(不然的话 zen-mcp 会默认只分配 32768 tokens):
  1. {
  2.       "model_name": "gemini-2.5-pro",
  3.       "aliases": ["custom/gemini-2.5-pro"], // aliases 不能和文件自带的 google/gemini-2.5-pro 配置中的一样
  4.       "context_window": 1048576,
  5.       "supports_extended_thinking": true,
  6.       "supports_json_mode": true,
  7.       "supports_function_calling": true,
  8.       "supports_images": true,
  9.       "max_image_size_mb": 20.0,
  10.       "supports_temperature": true,
  11.       "temperature_constraint": "range",
  12.       "is_custom": true,
  13.       "description": "Gemini 2.5 Pro via third-party API"
  14.     }
复制代码



──── 4人觉得很赞 ────

使用道具 举报

昨天 13:22
食用方法很简单的呀,手把手步骤:


接入这个后,最终在使用Gemini api工作吗,不然claude code的额度应该是不够用的
twinsbbs
昨天 13:24
这个的意思就是将 claude code 的请求转发到 gemini api 哦,所以才有 1m 上下文 这么说也不对,应该是让 cc 通过 MCP 调 gemini 模型来“获得”更长的对话上下文  详情 回复
昨天 13:24
hk640509 发表于 2025-6-23 13:23
接入这个后,最终在使用Gemini api工作吗,不然claude code的额度应该是不够用的 ...

这个的意思就是将 claude code 的请求转发到 gemini api 哦,所以才有 1m 上下文

这么说也不对,应该是让 cc 通过 MCP 调 gemini 模型来“获得”更长的对话上下文
用不起claude pro,太贵了,不是刚需的话,简直天价
twinsbbs
昨天 13:25
可以研究一下  详情 回复
昨天 13:25
guojun_-2007 发表于 2025-6-23 13:24
用不起claude pro,太贵了,不是刚需的话,简直天价

zen-mcp 这种 claude 官方 + 额外上下文的方式就好很多
我个人感觉相对于寻找更长的 context 的模型,还是尽量控制每个任务的 context 短更好,如果下个任务和上个任务没关系了,就果断关掉这个 session 开个新的
因为 LLM 都有 lost in middle 问题,你给它输入长长的输入,不代表都能记住,1M context 不代表能比 200k 同等质量记住 5 倍长的东西
而且控制变量地比较一下,同类的更长 context 的模型这个现象似乎也没啥特别大的改善
不过已经过去两年了,说不定这个现象改善了

我个人体验是 claude 4 sonnet 目前的上下文是够用了,如果一个任务真的需要远大于 200k 的输入,我也不放心一次性交给 claude code 做(比如彻底重构一个项目?)
因为这样就完全 vibe coding 了,很容易堆屎山,还是人工拆成小任务再丢给它保险一点

twinsbbs
昨天 13:28
是的!我也这样,一般我会让 gemini 去做这件事,但是别的地方比如 roocode, ai studio 的整体工作流并不舒服实际上我处理的任务也是比较独立的,但是需要的上下文会更长,我很喜欢让它去学习其他项目或者扔一些文档  详情 回复
kallen007
昨天 13:28
每个需求 /clear 就对了  详情 回复
johnwar 发表于 2025-6-23 13:26
我个人感觉相对于寻找更长的 context 的模型,还是尽量控制每个任务的 context 短更好,如果下个任务和上个 ...

gemini flash 2.5在上下文超过500k 的时候,基本不可用了,会一直重复,控制在500k一下效果很好
johnwar 发表于 2025-6-23 13:26
我个人感觉相对于寻找更长的 context 的模型,还是尽量控制每个任务的 context 短更好,如果下个任务和上个 ...

每个需求 /clear 就对了
昨天 13:28
johnwar 发表于 2025-6-23 13:26
我个人感觉相对于寻找更长的 context 的模型,还是尽量控制每个任务的 context 短更好,如果下个任务和上个 ...

是的!我也这样,一般我会让 gemini 去做这件事,但是别的地方比如 roocode, ai studio 的整体工作流并不舒服
实际上我处理的任务也是比较独立的,但是需要的上下文会更长,我很喜欢让它去学习其他项目或者扔一些文档给它,gemini 在这种情况下处理得非常好,我之前一般是在 aistudio 中用 repomix 或者 r.jina.ai/ 来垫知识,然后开始去让 gemini 规划任务
这过程中就有很多要做的步骤,下一个步骤又需要上一个步骤去完善,这种时候如果只是拆一个小会话就比较困难了
看起来支持多种Claude提供商,把其他不兼容Anthropic格式转成Anthropic格式是不是就可以用了,还是Claude
twinsbbs
昨天 13:30
LiteLLM 就可以把 OpenAI 格式转成 Anthropic 的 cc pro 已经不给我用了,要等刷新,现在完全走的 gemini api key,似乎真的爽用了! [attachimg]1196[/attachimg] [attachimg]1197[/attachimg]  详情 回复
昨天 13:30
cn521 发表于 2025-6-23 13:29
看起来支持多种Claude提供商,把其他不兼容Anthropic格式转成Anthropic格式是不是就可以用了,还是Claude
...

LiteLLM 就可以把 OpenAI 格式转成 Anthropic 的
cc pro 已经不给我用了,要等刷新,现在完全走的 gemini api key,似乎真的爽用了!
550c934f5f8bbac2b86080102c55bb6fd0d5464b.webp
ea42127f14f5e56c1ab7ce4289937bdaadaafa98.webp

twinsbbs 发表于 2025-6-23 13:30
LiteLLM 就可以把 OpenAI 格式转成 Anthropic 的
cc pro 已经不给我用了,要等刷新,现在完全走的 gemini ...

哇哦 这很可以
主要是我有openai格式的Claude ,这下也能用上code了
玩了一下,好像和想像的不太一样,我让它使用 gemini-2.5-pro 对项目进行分析,确实也调用了MCP
c8cd7b62417b9516f3855cbbe4edffb72d010eac.webp
但是奇怪的是,只有最后的总结才调用了一次 gemini-2.5-pro,中间的几次对话都只调用了 claude ,不知道是不是bug,按照设想,应该是 claude code 负责任务分配和总结,然后分析代码的过程交给 gemini-2.5-pro …
然后一次分析,这个分析,一次 8,9w tokens , 想尝试下效果几刀就没有了, 哈哈哈。。。。
eca4822a97903fa658ad1daa5b26d13979bfc021.webp

Zen mcp以及cc自己的配置。
话说我记得anthropic好像不兼容openai格式是吗?还得自己去转?

您需要登录后才可以回帖 立即登录
高级模式