腾讯混元首款开源混合推理MoE模型发布,性能优异,激活参数仅13B
<p><img src="https://images.bigseek.com//forum/202506/30/163332tabg0iknfznmf99a.jpeg" alt="30b4ff14429cf1cf742869b0b1e545f32357aa3a.jpeg" title="30b4ff14429cf1cf742869b0b1e545f32357aa3a.jpeg" /></p><p>经过多轮测试,水平是 o1 的水平。</p>
<p>优点:开源,免费,对中文支持比 o1-preview 好,参数量(80B)比 o1 (200B)小且MoE架构,所以吐Token速度快,上下文长,有 256K,比DeepSeek-R1长。</p>
<p>缺点:OpenAI已经迭代到 o4-mini 了,2025年6月份的 Hunyuan-A13B 才和 2024年9月份的 o1-preview 同水平。(不过免费,还要什么自行车,上下文都比 o1 长,对写代码好)</p>
<p>https://hunyuan.tencent.com/?model=hunyuan-a13b</p>
实测,网页端可以输入大上下文,上下文长度没有阉割。 期待加入元宝和ima上。 这么强啊?长上下文的o1,水平可不弱哦 能有o1水平吗?这么强? o1可不弱,能平替吗 使用中文以及JSON 格式输出中国城市和主要景点的对应关系,城市为key,景点为列表。输出10个城市,第一个城市一个景点,第二个城市两个景点,以此类推。
页:
[1]