发帖
 找回密码
 立即注册
搜索
4 0 0
前沿技术 346 4 昨天 15:01
OpenAI刚刚悄然投下了一颗重磅开源炸弹:两款完全开源权重的模型,gpt  oss  20b和gpt  oss  120b,而且它们可不只是学术成果发布。这些模型能运行、能推理,还在评估测试中表现出色。以下是详细情况:模型阵容:gpt  oss  120b → 性能与GPT  4 mini(o4  mini)相当gpt  oss  20b → 性能匹配或超过GPT  3.5 mini(o3  mini)开箱即用的工具使用、思维链(CoT)和智能体功能 支持函数调用、网络搜索、Python工具使用以及结构化输出 内置思维链推理和多步规划能力 是本地智能体的绝佳选择,预训练中就融入了实际工具使用能力3. 训练数据gpt  oss  120b 用H100显卡训练了210万小时gpt  oss  20b 用H100显卡训练了约21万小时使用了Flash Attention、混合专家(Mixture  of  Experts)和经过专家优化的Triton内核进行训练尽管模型规模巨大,但得益于混合专家架构:每个token只有51亿(1200亿模型)和36亿(200亿模型)个活跃参数。4. 评估基准(来自OpenAI和伯曼)gpt  oss  120b在以下方面匹配或超过o4  mini:Codeforces(编程竞赛平台)MMLU(大规模多任务语言理解)HealthBench(健康领域基准测试)TauBench(工具使用基准测试)AIME 2024/2025(美国数学邀请赛)gpt  oss  20b在大多数评估中与o3  mini相当或更优,尤其在数学和健康领域。6. 最惊人的部分?Groq的定价简直太划算了1200亿参数模型:输入0.15美元 / 输出0.75美元  200亿参数模型:输入0.10美元 / 输出0.50美元这价格大约是Claude 3的百分之一。可能是暂时的,但现在在Groq上就是这个价。7. 可在苹果硅芯片上本地运行gpt  oss  20b可在16GB统一内存上运行可直接与Ollama配合使用在M4 Pro上运行速度约为每秒33个token。你今天就可以下载这个模型,然后在MacBook或中低端GPU上进行尝试。8. 随时可部署量化版本已在Hugging Face上发布可与PyTorch、苹果Metal配合使用Rust和Python都有参考推理和工具示例告诉我,你们打算用这个模型做什么?有什么特别的实验计划吗?让我们看看能利用它做出些什么。
──── 0人觉得很赞 ────

使用道具 举报

我没做任何特别的操作(让其他应用程序保持运行,好几周都没重启电脑等等),在我配备32GB内存的16英寸M1 Pro电脑上,速度达到了每秒21.7个标记。显然,它不如在线的GPT 4o快,但完全可以使用。思考了大约15秒后,我得到了一个非常长且详细的答案,总共耗时约1分钟。  
做些基本的事情大约需要10分钟。
我不明白这一切是什么意思。
是的,这很棒,但运行较大的模型你需要一台配置不错的设备。大多数系统可以用较小的模型,然后要有耐心,它仍需要进行训练。  
我猜它得再小一点(比如0.6b版本?)才能在iPhone 7上运行吧?以我自己的经验来说,在一部比较新的iPhone上使用llm.swift加载Qwen 0.6b大约需要300MB的运行内存 。  
您需要登录后才可以回帖 立即登录
高级模式