songxiao530 发表于 2025-6-30 16:33:46

腾讯混元首款开源混合推理MoE模型发布,性能优异,激活参数仅13B

<p><img src="https://images.bigseek.com//forum/202506/30/163332tabg0iknfznmf99a.jpeg" alt="30b4ff14429cf1cf742869b0b1e545f32357aa3a.jpeg" title="30b4ff14429cf1cf742869b0b1e545f32357aa3a.jpeg" /></p>
<p>经过多轮测试,水平是 o1 的水平。</p>
<p>优点:开源,免费,对中文支持比 o1-preview 好,参数量(80B)比 o1 (200B)小且MoE架构,所以吐Token速度快,上下文长,有 256K,比DeepSeek-R1长。</p>
<p>缺点:OpenAI已经迭代到 o4-mini 了,2025年6月份的 Hunyuan-A13B 才和 2024年9月份的 o1-preview 同水平。(不过免费,还要什么自行车,上下文都比 o1 长,对写代码好)</p>
<p>https://hunyuan.tencent.com/?model=hunyuan-a13b</p>

songxiao530 发表于 2025-6-30 16:40:36

实测,网页端可以输入大上下文,上下文长度没有阉割。

weekeight 发表于 2025-6-30 16:40:44

期待加入元宝和ima上。

chouwa 发表于 2025-6-30 16:40:57

这么强啊?长上下文的o1,水平可不弱哦

笨T笨 发表于 2025-6-30 16:41:12

能有o1水平吗?这么强?

ake555 发表于 2025-6-30 16:41:46

o1可不弱,能平替吗

xingke 发表于 2025-6-30 16:42:18

使用中文以及JSON 格式输出中国城市和主要景点的对应关系,城市为key,景点为列表。输出10个城市,第一个城市一个景点,第二个城市两个景点,以此类推。
页: [1]
查看完整版本: 腾讯混元首款开源混合推理MoE模型发布,性能优异,激活参数仅13B