听梦 发表于 2025-6-19 15:36:57

觉得 MCP 太消耗 token? 不妨试试这款插件,让你使用网页版本大模型也可以使用 MCP!

前言mcp 虽然让大模型有了访问外部工具的能力,从而大幅度拓展了大模型应用的能力边界,但是有的小伙伴会说:mcp 消耗的 token 太多啦!就算便宜如 deepseek,大规模任务在高峰时段调用一天,估计一杯蜜雪冰城就要没了。那么有没有什么方法可以不用花钱也能使用 mcp 呢?有的兄弟有的。
神奇的浏览器插件:MCP-SuperAssistant今天要给大家隆重推荐的项目是 MCP-SuperAssistant,一款神奇的浏览器插件,它允许你在使用 deepseek, chatgpt 等等大模型的网页版本时也可以使用本地的 mcp。
github 仓库链接:
GitHub - srbhptl39/MCP-SuperAssistant: Brings MCP to ChatGPT, DeepSeek, Perplexity, Grok, Gemini, Google AI Studio, OpenRouter, DeepSeek, Kagi, T3 Chat and more...
我们都知道网页版本的大模型消耗 token 都是不花钱的,所以有了这个插件,我们就可以不花钱使用 mcp 了!

准备工作
[*]chrome 浏览器
[*]一个可以工作的 mcp
[*]nodejs 环境
安装基本的环境首先大家需要保证自己的电脑上存在 nodejs 的环境,如果没有的话,可以去 Download Node.js上下载对应操作系统的 nodejs。安装完成 nodejs 后,我们需要先下载 MCP-SuperAssistant 这个 chrome 浏览器的插件,先点击 MCP SuperAssistant,Add to Chrome 就可以下载。



配置 MCPMCP SuperAssistant 通过插件和本地的代理来实现让浏览器也能访问 MCP,所以我们还需要配置一下本地的 MCP,让 MCP-SuperAssistant 知道我们本地需要连接哪些 MCP,每一个 MCP 如何进行连接。首先我们需要有一个自己的 MCP,你可以选择从网上直接下载现成的 MCP 服务器,也可以针对自己的业务进行开发,这里安利一下我开发的用于进行 MCP 开发 vscode 插件 OpenMCP:
[*]https://linux.do/images/emoji/twemoji/rocket.png?v=14OpenMCP 中文文档
[*]https://linux.do/images/emoji/twemoji/link.png?v=14Github 仓库

利用 OpenMCP,你可以直接在代码编辑器中就完成 MCP 的开发和验证与迭代,非常方便。假设你已经获得了一个能用的 MCP 服务器,那么随便找一个目录,然后创建 mcpconfig.json,在 mcpconfig.json 中配置你的 MCP 服务器:{
"mcpServers": {
    "desktop-commander": {
      "command": "npx",
      "args": [
      "-y",
      "@wonderwhy-er/desktop-commander"
      ]
    },
    "neo4j-mcp": {
      "url": "http://localhost:8083/sse"
    }
}
}然后在命令行中启动我们的 superassistant 的代理服务器从而让浏览器可以访问到我们的 MCP:
npx @srbhptl39/mcp-superassistant-proxy@latest --config ./mcpconfig.json此时,如果出现了下面这个样子的输出,说明运行成功。
现在,我们进入 https://chat.deepseek.com/ ,新建一个对话(如果是已经开启 deepseek 网页的朋友记得刷新一下页面,来让插件得以激活)。此时,你应该可以看到输入框的右下角出现了一个小图标「MCP」,这代表插件激活成功。

点击 「MCP」,将下面的这四个选项全部开启:

然后右侧会出现一个控制面板,检查一下面板内部是否存在你启动的 MCP 服务器对应的所有工具。如果存在,说明配置成功。

让大模型网页版本也可以使用 MCP如果你通过了上面的步骤,那么说明你已经成功配置了 MCP-SuperAssistant,接下来,我们就可以让大模型网页版本也可以使用 MCP 了。这里有一个非常重要的点,一定要记好了:每一次新的对话,一定要先通过下面的操作来让大模型明白,它要如何使用 MCP,点击「MCP」「Attach」来粘贴起头的引导文本,这一步非常关键,没有这一步大模型是不会去进行工具调用的。

OK,接下来,我们就可以轻松愉快地让大模型进行 MCP 使用了。比如我的 MCP 是访问我的数据库的 MCP,我可以直接问大模型:
请告诉我最新的 10 条评论然后大模型就会自己思考,然后调用工具,获得结果,继续思考,调用工具,获得结果 …经过若干步骤的迭代后,大模型输出了如下的结果:





cdlzguo 发表于 2025-6-19 15:44:17

好强,收藏学习

five 发表于 2025-6-19 15:44:29

支持ai.dev吗

five 发表于 2025-6-19 15:44:51

这就得狠狠学习了

johnwar 发表于 2025-6-19 15:45:01

好工具啊,用起来

ztl1981 发表于 2025-6-19 15:45:21

OpenMCP是真好用 https://linux.do/images/emoji/twemoji/partying_face.png?v=14

艾哥 发表于 2025-6-19 15:46:29

我用gemini,好像没法一次对话call多个?每次call都要approve有点麻烦

twinsbbs 发表于 2025-6-19 15:46:53

这是什么原理?插件拦截请求加了mcp提供的函数调用参数么?能实现并好用,真的好厉害

听梦 发表于 2025-6-19 15:47:19

twinsbbs 发表于 2025-6-19 15:46
这是什么原理?插件拦截请求加了mcp提供的函数调用参数么?能实现并好用,真的好厉害 ...

chrome 浏览器插件可以通过在插件配置文件中添加白名单的方式让插件工作时允许访问白名单中的本地服务,这样,你只需要本地开启一个 web 服务来转发 mcp 的 sse 或者 streamable http,插件端负责进行webui的页面操作(通过 DOM 操作实现,所以每一个不同的网站的 DOM 操作层代码都要重写一套,毕竟每一个网站的 chatbox 的前端实现都有一定的差异)

songxiao530 发表于 2025-6-19 15:47:47

不过话说他MAC上真的非常难连,不是连不上,就是连了没几句话又断。

ymabianzi 发表于 2025-6-19 15:48:26

佬 Gemini 好像不会执行,只能手动执行然后插入到对话框,deepseek 好像就没这个问题
页: [1]
查看完整版本: 觉得 MCP 太消耗 token? 不妨试试这款插件,让你使用网页版本大模型也可以使用 MCP!