疯狂de少年 发表于 2025-7-24 10:41:57

Qwen3-Coder的食用方法

<h1>前言</h1>
<p>官方的博客也介绍了接入的方法,不过这个博客是海外的,因此其中的 URL 是不适用我们国内用户的,但是大家可以参考一下其中提及的一些工具,比如魔改后的 Qwen Code(从 Gemini CLI 魔改而来):</p>
<p>【Qwen3-Coder: 在世界中自主编程</p>
<p>https://qwenlm.github.io/zh/blog/qwen3-coder/】</p>
<hr />
<p>接下来将介绍一些常用的接入方法。</p>
<h1>魔搭方式接入</h1>
<blockquote>
<p><strong>注意事项:如果你没有什么其他的需求的话,强烈推荐你从魔搭开始,而不是使用百炼。后者虽有免费的 1M额度,但是已经有不少朋友被反薅了,魔搭则是按次的,每日免费 2k额度,开通了直接就可以调用不需要部署。用量在右上方头像那里,鼠标悬浮在头像上面,就会弹出菜单,然后最下面就会显示用量情况</strong>&gt;</p>
</blockquote>
<blockquote>
<p><strong>使用前检查你的密钥</strong>:魔搭的api key复制有bug,在某些情况下(具体没测试出来)会在key的开头增加:ms- 导致整个key就错了,如果这时候查看一下发现复制的和实际显示根本不是一个key,复制的多了东西。所以,各位如果怎么配魔搭的api发现都报401,可以看看自己的key是不是复制对了。</p>
</blockquote>
<h2>通过 NewAPI 中转</h2>
<p>为什么推荐用 NewAPI 中转?从我个人角度出发,是因为能够让我统一管理我的各种模型,而且可以随时方便进行组合式模型接入(比如配合 CCR 项目实现一个 URL 和秘钥,定义大小任务模型等)</p>
<p>在新建渠道的时候,类型选择 OpenAI,然后魔搭平台的请求 URL 为:</p>
<blockquote>
<p><strong>https://api-inference.modelscope.cn</strong></p>
</blockquote>
<p>密钥的获取方式如下:</p>
<blockquote>
<p>首先要有个阿里云账号,然后去这里登录注册一下,绑定自己的阿里云账号(给出的链接就是 Qwen-Coder 模型地址):</p>
<p>魔搭社区:https://modelscope.cn/models/Qwen/Qwen3-Coder-480B-A35B-Instruct/summary</p>
<p>然后页面右侧的 <code>查看代码范例</code>中复制自己的 <code>api_key</code>即可。</p>
<p>注意的是,魔搭平台的免费模型有一定的使用限制,不过对于个人使用还是足够的了</p>
</blockquote>
<p><img src="https://images.bigseek.com//forum/202507/24/104208g2evjnsen4tkzseb.jpeg" alt="e85ab6b9e15c2872e4ec7e92a6845bc988b90b2a.jpeg" title="e85ab6b9e15c2872e4ec7e92a6845bc988b90b2a.jpeg" /></p>
<p>再一次提示</p>
<blockquote>
<p><strong>使用前检查你的密钥</strong>:魔搭的api key复制有bug,在某些情况下(具体没测试出来)会在key的开头增加:ms- 导致整个key就错了,如果这时候查看一下发现复制的和实际显示根本不是一个key,复制的多了东西。所以,各位如果怎么配魔搭的api发现都报401,可以看看自己的key是不是复制对了。</p>
</blockquote>
<p>模型的名称填写为:</p>
<p>Qwen/Qwen3-Coder-480B-A35B-Instruct</p>
<p>并且通过 NewAPI 聚合还可以实现参数覆盖的功能。官方建议如下:</p>
<p><img src="https://images.bigseek.com//forum/202507/24/104310q7jzqzebiznfl7tc.jpeg" alt="ca704eb53224410ef1588d5a4c9679b22ed1e68f.jpeg" title="ca704eb53224410ef1588d5a4c9679b22ed1e68f.jpeg" /></p>
<p>那么我们可以在添加渠道的时候,通过参数覆盖添加实现:</p>
<p><img src="https://images.bigseek.com//forum/202507/24/104317pq9zg4qsqapazgvk.webp" alt="9de9925427f74fdbf963af0245072aa9ece763cd.webp" title="9de9925427f74fdbf963af0245072aa9ece763cd.webp" /><br />
不过,我个人不太清楚覆盖参数的语法是否正确,我没有进行验证,如觉得有问题,恳请指正,JSON 内容如下:</p>
<pre><code>{
    &quot;temperature&quot;: 0.7,
    &quot;top_p&quot;: 0.8,
    &quot;top_k&quot;: 20,
    &quot;repetition_penalty&quot;: 1.05
}
</code></pre>
<p>这样,我们便在自己的 NewAPI 中添加了属于自己的模型,如何使用便不在此赘述了</p>
<h2>间接接入 Claude Code</h2>
<p>需要再次强调的是,魔搭的接口是 OpenAI 的格式的,这意味着是无法直接接入到 Claude Code 中去的,需要使用 Claude Code Router 项目来进行转换。</p>
<p>项目地址如下:https://github.com/musistudio/claude-code-router/blob/main/README_zh.md</p>
<p>在根据项目文档,安装好 Claude Code 和 Claude Code Router 之后,我们需要在自己的家目录下创建一个配置文件 <code>~/.claude-code-router/config.json</code>。这个配置文件是全局生效的。</p>
<p>一个直接连接魔搭社区的配置文件参考模板如下:</p>
<pre><code>{
&quot;Providers&quot;: [
    {
      &quot;name&quot;: &quot;modelscope&quot;,
      &quot;api_base_url&quot;: &quot;https://api-inference.modelscope.cn/v1/chat/completions&quot;,
      &quot;api_key&quot;: &quot;xxxx&quot;,
      &quot;models&quot;: [&quot;Qwen/Qwen3-Coder-480B-A35B-Instruct&quot;],
      &quot;transformer&quot;: {
      &quot;use&quot;: [
          [
            &quot;maxtoken&quot;,
            {
            &quot;max_tokens&quot;: 65536
            }
          ]
      ]
      }
    }
],
&quot;Router&quot;: {
    &quot;default&quot;: &quot;modelscope,Qwen/Qwen3-Coder-480B-A35B-Instruct&quot;
},
&quot;HOST&quot;: &quot;127.0.0.1&quot;,
&quot;LOG&quot;: true
}
</code></pre>
<p>只需要修改其中的密钥为你之前获取到的,便可以在你的项目根目录通过 <code>ccr code</code> 命令启动进行对话了。</p>
<p>如果你采用了和我一样的 NewAPI 聚合法,可以调整的选择更多一些,能够自由定义大小模型。我自己的最简配置如下:</p>
<pre><code>{
&quot;LOG&quot;: true,
&quot;Providers&quot;: [
    {
      &quot;name&quot;: &quot;newapi&quot;,
      &quot;api_base_url&quot;: &quot;https://xxx.xyz/v1/chat/completions&quot;,
      &quot;api_key&quot;: &quot;sk-xxx&quot;,
      &quot;models&quot;: [&quot;Qwen3-Coder-Instruct-MD&quot;, &quot;GPT-4.1&quot;, &quot;GPT-4o&quot;, &quot;DeepSeek-R1-HuoShan&quot;]
    }
],
&quot;Router&quot;: {
    &quot;default&quot;: &quot;newapi,Qwen3-Coder-Instruct-MD&quot;,
    &quot;background&quot;: &quot;newapi,GPT-4o&quot;,
    &quot;think&quot;: &quot;newapi,DeepSeek-R1-HuoShan&quot;,
    &quot;longContext&quot;: &quot;newapi,Qwen3-Coder-Instruct-MD&quot;,
    &quot;webSearch&quot;: &quot;newapi,Qwen3-Coder-Instruct-MD&quot;
}
}
</code></pre>
<p>将其中的 xxx 内容换成你的 NewAPI 服务器的域名地址,密钥也修改为你创建的密钥即可。也不要忘记修改模型,在 models中填写好你的调用的模型的实际名字(我做了模型重定向,因此我的模型名称自定义程度很高),并且将最后的 Router 中的各种模型修改好(细节见Claude Code Router 项目文档,在此处便不多赘述了)即可。</p>
<h2>直接接入 Roocode、Cline、Kilocode 等插件</h2>
<p>因为魔搭的 URL 是 OpenAI 兼容的,这意味着我们可以很方便地直接将其及接入到我们的插件中去,而仅仅只需要做一点点修改。</p>
<ol>
<li>供应商选择 OpenAI 兼容(也就是 OpenAI Compatible)</li>
<li>Base URL 填写:https://api-inference.modelscope.cn/v1</li>
<li>API KEY 填写你从魔搭社区创建的密钥(不是 NewAPI 密钥哦!)</li>
<li>Model 填写:Qwen/Qwen3-Coder-480B-A35B-Instruct</li>
<li>不支持图片输入</li>
<li>下面的 Context Windows Sizes 写 262000 即可</li>
<li>模型温度(temperature)选择 0.7</li>
</ol>
<p>图示<br />
<img src="https://images.bigseek.com//forum/202507/24/104528h3xx6q97v9ioz9ex.jpeg" alt="4bf04ef2bf264c91110b1f3dba0c98260b56219f.jpeg" title="4bf04ef2bf264c91110b1f3dba0c98260b56219f.jpeg" /><br />
<img src="https://images.bigseek.com//forum/202507/24/104533xggufzgt1jjmucmz.jpeg" alt="82768e719ada6d1989b9d9e7738091efcccfc01b.jpeg" title="82768e719ada6d1989b9d9e7738091efcccfc01b.jpeg" /></p>
<p>这样,便可以开始使用了。</p>
<h2>通过 Qwen Code 直接接入</h2>
<p>这个方法也是从官方博客看到的。官方说到:</p>
<blockquote>
<p>Qwen Code 支持 OpenAI SDK 调用 LLM,你可以导出以下环境变量,或者简单地将其放在 <code>.envfile</code> 中。</p>
<pre><code>export OPENAI_API_KEY=&quot;your_api_key_here&quot;
export OPENAI_BASE_URL=&quot;https://dashscope.aliyuncs.com/compatible-mode/v1&quot;
export OPENAI_MODEL=&quot;qwen3-coder-plus&quot;
</code></pre>
</blockquote>
<p>因此可以认为,Qwen Code 原生支持 OpenAI 格式接口接入,所以只要将其中的 URL 修改为魔搭或者你的 NewAPI 的 URL,写到 /v1 即可。密钥也修改为对应平台的密钥,模型名称同理,<code>.env</code> (官方博客笔误为 <code>.envfile</code>,需注意)配置文件默认放在家目录下,然后便可以开始使用了。</p>
<p>什么是 Qwen Code 呢?官方介绍说:</p>
<blockquote>
<p>Qwen Code 是一个 CLI 工具,修改自 Gemini CLI,针对 Qwen3‑Coder系列的模型增强了解析器和工具支持。</p>
<p>确保已安装 Node.js 20 及以上版本,可以通过以下命令安装:</p>
<pre><code class="language-bash">curl -qL https://www.npmjs.com/install.sh | sh
</code></pre>
<p>然后通过 npm 管理器安装 Qwen Code:</p>
<pre><code class="language-css">npm i -g @qwen-code/qwen-code
</code></pre>
<p>另一种方式是从源码安装:</p>
<pre><code class="language-bash">git clone https://github.com/QwenLM/qwen-code.git
cd qwen-code &amp;&amp; npm install &amp;&amp; npm install -g
</code></pre>
</blockquote>
<p>最后, 可以通过简单地输入 <code>qwen</code> 来享受 Qwen-Code 和 Qwen 带来的编程体验。</p>
<h1>百炼方式接入</h1>
<blockquote>
<p><strong>再次强调:如果你没有什么其他的需求的话,强烈推荐你从魔搭开始,而不是使用百炼。后者虽有免费的 1M额度,但是站内已经有不少朋友被反薅了,魔搭则是按次的,每日免费 2k额度,开通了直接就可以调用不需要部署。用量在右上方头像那里,鼠标悬浮在头像上面,就会弹出菜单,然后最下面就会显示用量情况</strong></p>
</blockquote>
<h2>百炼直接接入 Claude Code</h2>
<p>从官方博客可以知道,百炼是支持直接接入到 Claude Code 中使用的,官方提供了dashscope上的接口转换。我们使用的请求地址为:</p>
<p>https://dashscope.aliyuncs.com/api/v2/apps/claude-code-proxy</p>
<p>如果上面的地址还是用不了,那么可能是因为没有开通服务,详情可以移步至官方文档:</p>
<p>通义千问API参考 - 大模型服务平台百炼 - 阿里云:https://www.alibabacloud.com/help/zh/model-studio/use-qwen-by-calling-api</p>
<p>将 API KEY 也换成百炼获取的 KEY(上面文档开通获取):</p>
<pre><code>export ANTHROPIC_BASE_URL=https://dashscope.aliyuncs.com/api/v2/apps/claude-code-proxy
export ANTHROPIC_AUTH_TOKEN=your-dashscope-apikey
</code></pre>
<p>然后直接使用 Claude Code 即可</p>
<h2>百炼直接接入插件</h2>
<p>和之前的魔搭同理,只要填入正确的 URL、模型名称等即可,其中模型名称应为:<code>qwen3-coder-plus</code></p>
<h2>百炼的其他用途</h2>
<p>有了 URL 和 KEY,接入方式和先前的魔搭大同小异,因此不多赘述,只要看好自己的钱包即可</p>
<h1>最后</h1>
<p>通过 Claude-code-router 的方式接入的,速度真的很不错,响应速度也快,工具调用也是丝滑,目前没有出现工具调用失败的情况,而且可以和 IDEA 或者VSCode 的 Claude Code 插件搭配使用,修改的时候可以直接定位到修改文件(效果也是不错的,听我同学说,基本都是一次改对什么的)</p>
<p>还是值得大家尝试的。趁现在还没有什么人知道,爽用起来吧</p>
<h1>补充</h1>
<p>然后再补充一个在 Windows 下给 Claude Code 添加 Context7 的 MCP 的命令(需要你的 CMD 能够识别到 node 环境,我没有给出 powershell 的了……因为我自己是 MacOS):</p>
<pre><code class="language-shell">claude mcp add context7 -- cmd /c &quot;npx -y @upstash/context7-mcp@latest&quot;
</code></pre>
<p>命令执行完毕之后,启动 Claude(或者用 ccr code 启动),然后使用 /mcp 命令就可以看到加载出来的 MCP 了</p>
<p>其他的 MCP 添加方式大同小异,大家可以自行摸索一下</p>

tzjj 发表于 2025-7-24 11:12:13

赶紧试试啦,效果好像还不错的样子

ghgh456 发表于 2025-7-24 11:12:35

但是魔搭一段时间后会停机,有什么办法吗

Llg 发表于 2025-7-24 11:12:46

ghgh456 发表于 2025-7-24 11:12
但是魔搭一段时间后会停机,有什么办法吗

弄个浏览器定时自动刷新

kallen007 发表于 2025-7-24 11:13:01

nice,已经品上了,感谢推荐分享

寻找机会 发表于 2025-7-24 11:13:23

我开始也半天不成功,原来是没有绑定阿里云账号,遇到同样问题的可以检查下

songxiao530 发表于 2025-7-24 11:13:38

被百炼反薅了 5 块

bulbul 发表于 2025-7-24 11:17:46

<p>是需要先部署模型么,官方的脚本都跑不通</p>
<p><img src="data/attachment/forum/202507/24/111745j5qnoco8qnsnxsn9.webp" alt="145b2b23a2229e748ebc5334036849f6442e4572.webp" title="145b2b23a2229e748ebc5334036849f6442e4572.webp" /></p>

疯狂de少年 发表于 2025-7-24 11:20:04

bulbul 发表于 2025-7-24 11:17
是需要先部署模型么,官方的脚本都跑不通

不需要部署,开箱即用,代码规范是:from openai import OpenAI

client = OpenAI(
    base_url='https://api-inference.modelscope.cn/v1/',
    api_key='ms-36219a95-9acf-419a-8bcf-5c8a13526636', # ModelScope Token
)

response = client.chat.completions.create(
    model='Qwen/Qwen3-Coder-480B-A35B-Instruct', # ModelScope Model-Id
    messages=[
      {
            'role': 'system',
            'content': 'You are a helpful assistant.'
      },
      {
            'role': 'user',
            'content': '你好'
      }
    ],
    stream=True
)

for chunk in response:
    print(chunk.choices.delta.content, end='', flush=True)


页: [1]
查看完整版本: Qwen3-Coder的食用方法