发帖
 找回密码
 立即注册
搜索
20 0 0
前沿技术 641 20 2025-8-8 09:34:30
大家好!OpenAI 五年来首次发布了他们的开源模型,现在,你可以在家运行自己的类 GPT4o 级别和 o4mini 模型啦!

有两个模型,一个参数较少的 200 亿参数模型,还有一个 1200 亿参数的模型,性能可与 o4mini 相媲美。在各种任务中,包括推理、编码、数学、健康相关以及智能体任务,这两个模型的表现均优于 GPT4o。

为了能在本地(笔记本电脑、苹果电脑、台式机等设备)运行这些模型,我们 Unsloth 团队对这些模型进行了转换,还修复了一些漏洞,以提高模型输出质量。我们的 GitHub 仓库:https://github.com/unslothai/unsloth

最佳配置:


200 亿参数模型在全精度模式下,每秒能处理超过 10 个词元,运行需要 14GB 随机存取存储器(RAM)或统一内存。如果只有 8GB RAM,也可以使用 llama.cpp 的卸载功能来运行该模型,但速度会慢一些。


1200 亿参数模型在全精度模式下,每秒能处理超过 40 个词元,运行大约需要 64GB RAM 或统一内存。


运行这些模型并没有最低配置要求,即使你的电脑只有 6GB 的中央处理器(CPU)内存,模型也能运行,只不过推理速度会很慢。

因此,运行模型并不一定需要图形处理器(GPU),特别是 200 亿参数模型,但如果有 GPU,推理速度会大幅提升(大约每秒 80 个词元)。要是使用像 H100 这样的 GPU,每秒能处理 140 个词元,这可比 ChatGPT 应用程序快多了。

你可以通过 llama.cpp、LM Studio 或 Open WebUI 运行我们修复过漏洞的模型上传版本,以获得最佳性能。如果 1200 亿参数模型运行速度太慢,可以试试较小的 200 亿参数版本,它速度超快,性能与 o3mini 不相上下。


运行模型的 GGUF 文件链接:gptoss20BGGUF 和 gptoss120BGGUF


我们的详细指南(强烈推荐大家阅读,内容非常全面):https://docs.unsloth.ai/basics/gptoss


再次感谢大家阅读!顺便说一下,我会回复每个人的留言,所以有任何问题都尽管问!
──── 0人觉得很赞 ────

使用道具 举报

2025-8-8 10:02:21
是的,有人用他们的苹果笔记本电脑Pro做到了这一点,但你需要使用一个尺寸稍小一点的版本,这样它才能适配你64GB的设备 。  
2025-8-8 13:40:42
去他妈的,我有40和20B(这里40和20B指代不明,可能需要更多背景信息才能准确理解),给出同样的提示,20B那些愚蠢的建议 。  
据我所知,他们会在下一代iPhone上提高最大运行内存。这是合理的,因为这些手机得频繁运行人工智能程序。  
我要指责原帖发布者(OP)。他开篇说“……你可以在家运行自己的GPT  4o 级别以及类似o4  mini的模型!”这纯粹是一派胡言。我不会再理会这种说法了。
2025-8-8 14:50:29
别和那个人搭话;他们用“4o”来回复你呢,笑死我了
2025-8-9 15:27:30
这一点根本就不太确定。https://explodingtopics.com/blog/gptparameters
2025-8-9 16:32:41
如果一个人有6到10GB的显存,使用GPU(我猜要进行内存交换)是否值得,还是就只用系统内存呢?  
2025-8-10 16:44:45
我有自己的实验室,这里面的设备能让这个圈子里几乎任何人现有的玩意儿都相形见绌。我做了足够多的测试,还从最底层参与打造了我自己的私人人工智能系统。你们这些人根本不知道自己在瞎扯些什么,就盯着一把塑料铲子,好像那是什么推土机似的。  
新的iPhone手机可能会在9月之后运行这个。  
2025-8-11 04:04:40
这离当前最优水平还差得远呢,它真的已经是基准测试的极限了。  
如果qwen更好的话,那就很有意思了,那肯定就继续用它啦 :)不过这里“qwen”推测可能是拼写有误,常见类似的词比如“Quinn(奎因)” 。  如果结合具体语境它有特定所指,以实际为准。  
2025-8-11 08:31:38
可以卸载到低速内存。
2025-8-11 08:59:40
你是读了这个之后才决定发出来的,还是盲目就发了?GPT 4o根本不知道自己在说什么。就拿第一个说法来说,称它们是基础模型而非经过对话调整的模型,这就不正确。  
2025-8-13 17:18:51
事实!
2025-8-14 08:08:57
4o约为200B
2025-8-14 15:02:45
挺好的呀!😊
2025-8-14 21:52:01
对了,现在还支持在65GB显存上进行btw微调,而且你可以在Google Colab上免费操作:  
https://x.com/UnslothAI/status/1953896997867729075
2025-8-16 05:28:05
你用的是什么工具啊?
2025-8-18 12:45:26
它甚至还把它们跟 Yi/Mixtral 做了对比,然后得出结论说,目前没有哪个开源模型能跟它打。  
说实话,这结论还挺搞笑的。
2025-9-13 12:00:04
这模型运行挺方便
您需要登录后才可以回帖 立即登录
高级模式