twinsbbs 发表于 2025-6-23 13:17:09

Claude Code 接入 Gemini 1M 上下文爽用!

GitHub - BeehiveInnovations/zen-mcp-server:
The power of Claude Code + working as one.



这个项目太强了 作者伟大!

开了个 Claude Pro 体验了确实感觉比 cursor 之流丝滑,美中不足就是 token 太短了,现在终于上下文自由了!不用天天看见官方 CC 的那个 Context left until auto-compact 提示了 https://linux.do/images/emoji/twemoji/smiling_face_with_tear.png?v=14另外如果有佬有稳定便宜的 gemini 2.5 pro key 的话求分享呀



如果使用的是第三方 API 的 Gemini 2.5 Pro,还需要修改 zen-mcp-server/conf/custom_models.json,添加类似下面的配置(不然的话 zen-mcp 会默认只分配 32768 tokens):{
      "model_name": "gemini-2.5-pro",
      "aliases": ["custom/gemini-2.5-pro"], // aliases 不能和文件自带的 google/gemini-2.5-pro 配置中的一样
      "context_window": 1048576,
      "supports_extended_thinking": true,
      "supports_json_mode": true,
      "supports_function_calling": true,
      "supports_images": true,
      "max_image_size_mb": 20.0,
      "supports_temperature": true,
      "temperature_constraint": "range",
      "is_custom": true,
      "description": "Gemini 2.5 Pro via third-party API"
    }


twinsbbs 发表于 2025-6-23 13:22:52

食用方法很简单的呀,手把手步骤:

[*]npm install -g @anthropic-ai/claude-code (如果你还没装 cc)
[*]安装 zen-mcp-server: GitHub - BeehiveInnovations/zen-mcp-server: The power of Claude Code + working as one.
[*]终端或者用任何编辑器打开 .env 文件
[*]配置你的 api key: zen-mcp-server/docs/configuration.md at main · BeehiveInnovations/zen-mcp-server · GitHub
[*]再运行一次 ./run-server.sh
[*]cd 到你任何想要聊的项目里面运行 claude
[*]开爽开爽!


hk640509 发表于 2025-6-23 13:23:54

接入这个后,最终在使用Gemini api工作吗,不然claude code的额度应该是不够用的

twinsbbs 发表于 2025-6-23 13:24:12

hk640509 发表于 2025-6-23 13:23
接入这个后,最终在使用Gemini api工作吗,不然claude code的额度应该是不够用的 ...

这个的意思就是将 claude code 的请求转发到 gemini api 哦,所以才有 1m 上下文

这么说也不对,应该是让 cc 通过 MCP 调 gemini 模型来“获得”更长的对话上下文

guojun_-2007 发表于 2025-6-23 13:24:48

用不起claude pro,太贵了,不是刚需的话,简直天价

twinsbbs 发表于 2025-6-23 13:25:44

guojun_-2007 发表于 2025-6-23 13:24
用不起claude pro,太贵了,不是刚需的话,简直天价
可以研究一下 GitHub - musistudio/claude-code-router: Use Claude Code as the foundation for coding infrastructure, allowing you to decide how to interact with the model while enjoying updates from Anthropic. 但是实际上体验可能会差很多,我试过发现不会调工具就放弃了zen-mcp 这种 claude 官方 + 额外上下文的方式就好很多

johnwar 发表于 2025-6-23 13:26:22

我个人感觉相对于寻找更长的 context 的模型,还是尽量控制每个任务的 context 短更好,如果下个任务和上个任务没关系了,就果断关掉这个 session 开个新的因为 LLM 都有 lost in middle 问题,你给它输入长长的输入,不代表都能记住,1M context 不代表能比 200k 同等质量记住 5 倍长的东西而且控制变量地比较一下,同类的更长 context 的模型这个现象似乎也没啥特别大的改善可以参考: Lost in the Middle: How Language Models Use Long Contexts不过已经过去两年了,说不定这个现象改善了
我个人体验是 claude 4 sonnet 目前的上下文是够用了,如果一个任务真的需要远大于 200k 的输入,我也不放心一次性交给 claude code 做(比如彻底重构一个项目?)因为这样就完全 vibe coding 了,很容易堆屎山,还是人工拆成小任务再丢给它保险一点

longxx888 发表于 2025-6-23 13:28:07

johnwar 发表于 2025-6-23 13:26
我个人感觉相对于寻找更长的 context 的模型,还是尽量控制每个任务的 context 短更好,如果下个任务和上个 ...

gemini flash 2.5在上下文超过500k 的时候,基本不可用了,会一直重复,控制在500k一下效果很好

kallen007 发表于 2025-6-23 13:28:19

johnwar 发表于 2025-6-23 13:26
我个人感觉相对于寻找更长的 context 的模型,还是尽量控制每个任务的 context 短更好,如果下个任务和上个 ...

每个需求 /clear 就对了

twinsbbs 发表于 2025-6-23 13:28:37

johnwar 发表于 2025-6-23 13:26
我个人感觉相对于寻找更长的 context 的模型,还是尽量控制每个任务的 context 短更好,如果下个任务和上个 ...

是的!我也这样,一般我会让 gemini 去做这件事,但是别的地方比如 roocode, ai studio 的整体工作流并不舒服实际上我处理的任务也是比较独立的,但是需要的上下文会更长,我很喜欢让它去学习其他项目或者扔一些文档给它,gemini 在这种情况下处理得非常好,我之前一般是在 aistudio 中用 repomix 或者 r.jina.ai/ 来垫知识,然后开始去让 gemini 规划任务这过程中就有很多要做的步骤,下一个步骤又需要上一个步骤去完善,这种时候如果只是拆一个小会话就比较困难了 https://linux.do/images/emoji/twemoji/smiling_face_with_tear.png?v=14

cn521 发表于 2025-6-23 13:29:26

看起来支持多种Claude提供商,把其他不兼容Anthropic格式转成Anthropic格式是不是就可以用了,还是Claude

twinsbbs 发表于 2025-6-23 13:30:52

cn521 发表于 2025-6-23 13:29
看起来支持多种Claude提供商,把其他不兼容Anthropic格式转成Anthropic格式是不是就可以用了,还是Claude
...

LiteLLM 就可以把 OpenAI 格式转成 Anthropic 的
cc pro 已经不给我用了,要等刷新,现在完全走的 gemini api key,似乎真的爽用了!



李强 发表于 2025-6-23 13:31:34

twinsbbs 发表于 2025-6-23 13:30
LiteLLM 就可以把 OpenAI 格式转成 Anthropic 的
cc pro 已经不给我用了,要等刷新,现在完全走的 gemini ...

哇哦 https://linux.do/images/emoji/twemoji/star_struck.png?v=14 这很可以
主要是我有openai格式的Claude https://linux.do/images/emoji/twemoji/joy.png?v=14,这下也能用上code了

ymabianzi 发表于 2025-6-23 13:32:41

玩了一下,好像和想像的不太一样,我让它使用 gemini-2.5-pro 对项目进行分析,确实也调用了MCP

但是奇怪的是,只有最后的总结才调用了一次 gemini-2.5-pro,中间的几次对话都只调用了 claude ,不知道是不是bug,按照设想,应该是 claude code 负责任务分配和总结,然后分析代码的过程交给 gemini-2.5-pro …然后一次分析,这个分析,一次 8,9w tokens , 想尝试下效果几刀就没有了, 哈哈哈。。。。

dxl0812 发表于 2025-6-23 13:33:05

Zen mcp以及cc自己的配置。
话说我记得anthropic好像不兼容openai格式是吗?还得自己去转?

页: [1]
查看完整版本: Claude Code 接入 Gemini 1M 上下文爽用!