发帖
 找回密码
 立即注册
搜索
7 0 0
日常闲聊 716 7 7 小时前
我刚用这个模型写了好几个小时的代码。其中包括两个全新的150行脚本,还有另外三个脚本也做了比较大的更新。这五个代码第一次编译就都通过了。自从用过Sonnet 3.5之后,还没见过这么好用的模型,真是让人 impressed 啊。
──── 0人觉得很赞 ────

使用道具 举报

我就是在通义实验室的免费公共网站上用了下 Qwen3Coder。本来我想买 API 来着,但网上关于这个模型的信息实在太少了,我也没什么想调整或改动的地方,所以就没去麻烦。前两天我上传了五个又长又复杂的脚本,它的响应速度简直快得惊人,两秒钟就把全部内容都处理完了。不过说实话,我对 DeepSeek 还是有点偏爱,毕竟它在免费开源这块带了个好头,但就目前来看,我还是觉得它没法跟 Qwen 的表现相提并论。
我有一台旧的至强(Xeon)工作站,内存是256GB。跑480B Q3KL模型大概要占240GB内存,输出速度大概2tpsm。每一分等待都值得,结果真的很棒。
Mac 的内存是和 GPU 共享的,所以它的表现虽然没有我的 5090 快,但比中端显卡还是要好一些。我还是挺喜欢我的 3090 的。Mac 上的内存用起来更像是显存,mlx 文件也确实能提升在 Mac 上跑模型的效率。在做推理方面,Threadripper / HEDT 的内存表现比我的 9950x3d 更好。不过 Threadripper 有点奇怪,有些任务 CPU 跑得飞快,有些却又慢不少。普通 PC 一般整体都快或者整体都慢,所以在某些情况下 Threadripper 的体验就显得有点诡异。理论上,我可以在 Threadripper 上装 4 块不错的显卡,再加一块好点的显卡用来跑小模型,同时还能有足够的内存来运行和 LLM 搭配使用的各种微服务。不过如果是只用来跑大模型的推理,Mac 还是挺值的一次性投入,至少我是这么认为的。如果让我再来一次,我可能会用常规 PC 配置,比如 9950x3d,我已经有 13900 的平台用来跑微服务和应用程序开发了。大模型这块,我还是会专门用 Mac 来处理。现在卖掉 Threadripper 的话还是亏的,虽然我买的时候花了不少钱,但现在二手只能卖到一半左右的价格。所以我打算慢慢升级它,这也是 x86 平台的好处,灵活。最后说一下,GPTOS120B 这个模型在系统内存上跑得还不错。所以在我的 Threadripper 上,我可以一边在内存里跑 OSS 模型,一边在 GPU 上跑较小的 30B 模型,不需要为了某个特定模型专门做取舍,这点我真的很喜欢。虽然从开源角度来说我其实挺“反苹果”的,但 Mac Studio 确实填补了一个目前市面上没人去碰的细分市场,我觉得它现在就挺适合这个定位。
你平时温度都怎么设置的?有什么官方推荐的标准吗?
好的问题 —— Temp(温度)参数默认是开启的。
我平时主要用哪些平台或工具来跟AI模型打交道呢?
我把它用在了自己的项目上,代码有2000多行。最开始我用的是Gemini CLI,但用Gemini Pro的时候特别费时间,效率不高。昨天我开始尝试Qwen 3 CLI,仅仅用了不到一周的时间准备,结果只花了2个小时就把之前要很久才能完成的任务搞定了。现在我在项目中用了好几个脚本,真的能感受到Qwen 3 CLI带来的效率飞跃,太惊喜了!
您需要登录后才可以回帖 立即登录
高级模式