发帖
 找回密码
 立即注册
搜索
8 0 0
技术交流 439 8 2025-8-17 09:24:04
这消息是在吹牛,还是我真该现在就开始攒钱入手这个?
──── 0人觉得很赞 ────

使用道具 举报

2025-8-18 07:55:07
2027年的时候,我们的竞争对手可能是一款配备了半TB统一内存、专为AI优化的M6 Mac,或者是搭载了192GB显存的NVIDIA RTX Pro 7000系列显卡。现在这台设备的发货价格还不到5万美元,不然这活儿真没啥意义。
2025-8-18 08:36:02
你听说那个基于 RISCV 的 GPU 了吗?这是什么操作?难道是英特尔的 Larrabee 复活了?
2025-8-18 09:15:21
所以对于非功能处理单元(也就是不是GPU的那些单元),这是我目前了解到的情况:不支持的线程讨论: https://github.com/comfyanonymous/ComfyUI/discussions/4987  
https://github.com/comfyanonymous/ComfyUI/issues/6483  注册表支持情况: https://registry.comfy.org/nodes/ comfyuiopenvino (最新更新时间是2025年7月10日)另外,这里有一些关于 OpenVINO 的信息: 维基百科介绍:https://en.wikipedia.org/wiki/OpenVINO  
官方文档:https://docs.openvino.ai/2025/index.html  
一篇 Medium 上的文章(讲 OpenVINO 如何部署更小更快的 LLM):  
  https://medium.com/openvino工具包/whyandhowtouseopenvinotoolkittodeployfastersmallerllms00ac90f408ed  说实话,我不太确定用 OpenVINO 到底能带来多少好处,但我觉得它可能在某些边缘设备或者特殊场景下跑得更快一点。不过目前我也不太确定具体效果咋样,先记录一下吧。
2025-8-18 10:10:18
我就是想让它也能用某种方式跑起来那些中国模型,比如通义千问、wan(可能指wanli系列?),现在大多数东西已经够用了。
2025-8-18 11:33:46
如果它像在图像上那样用标准的SODIMM内存条,那DDR5理论上每通道最大带宽也就70GB/s。这玩意儿对AI来说,连Nvidia的xx60系列显卡都比不过,甚至会慢得跟CPU的内存差不多。
2025-8-19 10:46:03
就是那个让液体变成气体的小能手,咱们俗称它“汽化器”。
2025-8-19 17:23:22
直到它悄无声息地把安全检查删掉,替换成// 你的原始代码在这里或者一些同样离谱的东西。我见过不少人直接把LLM生成的代码拿去用,结果全是垃圾。他们根本不是开发者,很多时候连自己写的代码错哪都不知道。这就像是让一个完全不懂盖楼的人去建一座桥。不管工具多厉害,不管生成的界面看起来多炫酷。如果负责人自己没能力判断该检查哪些地方,来确保结构安全、符合规范,那这事儿就只能靠运气了——纯属碰彩蛋。
2025-8-26 13:02:29
你是不是想问“CUDA支持?”啊?CUDA是英伟达搞的一套并行计算平台,能让咱们用显卡跑计算任务,特别适合深度学习、AI这些吃硬件资源的活儿。要是你想知道某个软件或者框架支不支持CUDA,得看它有没有对接CUDA的库,比如PyTorch、TensorFlow这些主流AI框架都支持,而且还能自动调用GPU加速。你要是具体想知道某个工具或者项目支不支持CUDA,可以再详细说说,我帮你看看~
您需要登录后才可以回帖 立即登录
高级模式