发帖
 找回密码
 立即注册
搜索
10 0 0
日常闲聊 773 10 2025-8-18 09:51:52
我刚用这个模型写了好几个小时的代码。其中包括两个全新的150行脚本,还有另外三个脚本也做了比较大的更新。这五个代码第一次编译就都通过了。自从用过Sonnet 3.5之后,还没见过这么好用的模型,真是让人 impressed 啊。
──── 0人觉得很赞 ────

使用道具 举报

2025-8-18 10:02:29
我就是在通义实验室的免费公共网站上用了下 Qwen3Coder。本来我想买 API 来着,但网上关于这个模型的信息实在太少了,我也没什么想调整或改动的地方,所以就没去麻烦。前两天我上传了五个又长又复杂的脚本,它的响应速度简直快得惊人,两秒钟就把全部内容都处理完了。不过说实话,我对 DeepSeek 还是有点偏爱,毕竟它在免费开源这块带了个好头,但就目前来看,我还是觉得它没法跟 Qwen 的表现相提并论。
2025-8-18 10:12:32
我有一台旧的至强(Xeon)工作站,内存是256GB。跑480B Q3KL模型大概要占240GB内存,输出速度大概2tpsm。每一分等待都值得,结果真的很棒。
2025-8-18 10:13:37
Mac 的内存是和 GPU 共享的,所以它的表现虽然没有我的 5090 快,但比中端显卡还是要好一些。我还是挺喜欢我的 3090 的。Mac 上的内存用起来更像是显存,mlx 文件也确实能提升在 Mac 上跑模型的效率。在做推理方面,Threadripper / HEDT 的内存表现比我的 9950x3d 更好。不过 Threadripper 有点奇怪,有些任务 CPU 跑得飞快,有些却又慢不少。普通 PC 一般整体都快或者整体都慢,所以在某些情况下 Threadripper 的体验就显得有点诡异。理论上,我可以在 Threadripper 上装 4 块不错的显卡,再加一块好点的显卡用来跑小模型,同时还能有足够的内存来运行和 LLM 搭配使用的各种微服务。不过如果是只用来跑大模型的推理,Mac 还是挺值的一次性投入,至少我是这么认为的。如果让我再来一次,我可能会用常规 PC 配置,比如 9950x3d,我已经有 13900 的平台用来跑微服务和应用程序开发了。大模型这块,我还是会专门用 Mac 来处理。现在卖掉 Threadripper 的话还是亏的,虽然我买的时候花了不少钱,但现在二手只能卖到一半左右的价格。所以我打算慢慢升级它,这也是 x86 平台的好处,灵活。最后说一下,GPTOS120B 这个模型在系统内存上跑得还不错。所以在我的 Threadripper 上,我可以一边在内存里跑 OSS 模型,一边在 GPU 上跑较小的 30B 模型,不需要为了某个特定模型专门做取舍,这点我真的很喜欢。虽然从开源角度来说我其实挺“反苹果”的,但 Mac Studio 确实填补了一个目前市面上没人去碰的细分市场,我觉得它现在就挺适合这个定位。
2025-8-18 10:38:44
你平时温度都怎么设置的?有什么官方推荐的标准吗?
2025-8-18 10:52:44
好的问题 —— Temp(温度)参数默认是开启的。
2025-8-18 11:09:44
我平时主要用哪些平台或工具来跟AI模型打交道呢?
2025-8-18 12:52:34
我把它用在了自己的项目上,代码有2000多行。最开始我用的是Gemini CLI,但用Gemini Pro的时候特别费时间,效率不高。昨天我开始尝试Qwen 3 CLI,仅仅用了不到一周的时间准备,结果只花了2个小时就把之前要很久才能完成的任务搞定了。现在我在项目中用了好几个脚本,真的能感受到Qwen 3 CLI带来的效率飞跃,太惊喜了!
2025-8-19 10:20:23
很高兴听到这个消息!我现在在一台Threadripper电脑上跑235B的4bit模型,用的是系统内存,速度还不错,质量也够用,勉强能当我的计划器。不过拿来日常使用就有点难受了,所以后来我入手了一台Mac Studio,目前用来跑LLM推理服务体验还不错。但我想让Mac Studio能跑得了480B的Q3模型,这就需要给它加点内存了。虽然我那台Threadripper可以加内存继续跑,但速度上还是Mac Studio更理想一些,特别是如果它真像你说的那样表现稳定的话。谢谢你的建议!我打算试试看,看看实际效果咋样。
2025-8-20 03:32:32
我真不太明白为什么你觉得Qwen3让你失望了,虽然我得说实话我自己也确实不太用它。要是碰上一般性的问题、查查信息或者处理些简单任务,我一般会用Kimi K2或者DeepSeek V3。但要是说到写代码这块,Qwen3Coder的表现真的比Claude和十四行诗3.5出来以后的那些模型都要强不少。
2025-8-20 14:00:51
当然可以!以下是口语化、更符合中国人阅读习惯的版本:谢谢你啊!如果还有其他内容需要改写,随时告诉我!
您需要登录后才可以回帖 立即登录
高级模式