发帖
 找回密码
 立即注册
搜索
24 0 0
前沿技术 642 24 2025-8-4 13:59:39
可用更新VAE 解码的显存使用减少约 10%5B I2V 模型有重大改进14B 模型新增模板工作流程开始使用下载 ComfyUI,或在 Git/Portable/Desktop 上更新到最新版本在我们的文档页面查找 Wan2.2 14B 的新模板工作流程  
──── 0人觉得很赞 ────

使用道具 举报

你是怎么做到速度翻倍的?在工作流程和模型更新后,对我来说速度还是一样的。  
K/M/K_S 是怎么回事?
2025-8-4 14:35:08
你刚才说的没有一点是对的。Safetensors 或 GGUF 只是模型文件的格式。对于这两种格式,卸载(数据)的情况完全一样。多 GPU 节点并不会把你的显存合并到一起。它们能让你把工作流程的某些部分放到另一块 GPU 上运行(比如 CLIP、VAE 等)。这和卸载(数据)毫无关系。你也不能把所有内存都用于卸载(数据)。只有一半的内存可以用于 GPU 卸载(数据)。  
2025-8-4 14:52:10
这是 50 亿参数模型的链接:https://huggingface.co/QuantStack/Wan2.2TI2V5BGGUF/tree/main
还有一个是 270 亿参数模型的链接:https://huggingface.co/QuantStack/Wan2.2T2VA14BGGUF/tree/main
2025-8-4 14:54:03
这可能是个愚蠢的问题,但是……你如何选择生成 720p 还是 480p 的内容呢?(我原本希望在我的 16GB 存储卡上,用 5B 或者可能是 GGUF 尝试一下 720p,看看是否可行。)我原以为 Wan 2.1 扩散模型对于 720p 和 480p 有不同的文件版本,但在这里它们似乎是同一个文件。在某个节点中有可选择的设置吗?这仅仅取决于潜在空间大小吗?谢谢。
谢谢你的建议!
2025-8-4 15:34:06
gguf文件的链接呢?
2025-8-6 10:34:42
别听那个人说的任何话。
2025-8-6 12:04:22
有意思!今天早上更新ComfyUI后,在我的4090显卡上,每步处理时间缩短了一半。不过现在,使用Kijai的Wan 2.1 Lightx2v LoRas时,我发现每步的处理时间变成了原来的两倍。  
2025-8-6 12:43:28
哪个节点可以卸载安全张量(safetensor)文件?我一个都没找到。实际上,如果能知道有这样一个节点就好了,因为很多次我都想用(安全张量文件),但就是找不到相关节点。我不是说这不可能,只是我没找到。我找到的唯一卸载节点是交换节点(swapnode),它能卸载模型的一部分并进行交换操作。另一方面,对于GGUF格式,有个很棒的多GPU节点,它能增加虚拟显存。更新:与FP8相比,我使用GGUF 8位量化得到的结果更好。使用FP8时,眼睛看起来效果很差 。  
2025-8-6 12:53:22
感谢更新,工作流程中不同的节点、采样器或调度器有哪些变化?
2025-8-6 15:22:25
你能分享一下Wan 2.2的GGUF模型链接吗?我看到有21个模型呢 :|
2025-8-6 15:35:34
多GPU节点不需要gguf格式。有两个版本,一个是gguf版本,另一个是使用safetensor的普通版本。而且kijais的工作流程会卸载他的safetensor文件,所以我相当确定这种情况并不罕见。  
我实在搞不明白,为什么超出这些配置就会让我遇到内存不足错误(OOM)。我是说,我有12GB的显存,我还以为5B模型在这配置下能运行得更好呢 :(  
2025-8-7 09:26:15
谢谢,现在它能正常运行了🙌
2025-8-8 07:55:43
至少在Wan 2.1版本中是这样的。我可以用我12GB显存的显卡加载一个文件大小为17GB的Wan 2.1 i2v fp8 e5m2模型,而且它运行起来比我在同一显卡上加载一个文件大小为10GB的Q4KM GGUF模型还要快。这有点让我摸不着头脑,毕竟后者的文件大小能适配显存,而前者按道理是不行的。  
2025-8-12 16:37:48
KJ包装器使用了torch和块交换技术。我在我的12GB显存上运用这种方法来加载17GB的模型文件,而且它们运行得很好。
2025-8-14 09:44:06
是的,刚发现fp16文件有10GB。我现在就试试GGUF格式。  
2025-8-14 13:00:02
这更新有点厉害哈
2025-8-16 07:31:05
我觉得它对我的处理时间影响挺大的。后来我又做了几次测试,发现你说得完全对,其实它并没有影响。现在我有点迷糊了,可能得重新评估一下是不是哪里出错了。谢谢啦~ 😊
2025-8-17 00:19:15
因为wan团队忘了在他们的PPT里说明,他们说的24fps其实并不是专指5B版本的
2025-8-18 21:01:31
哈哈,可能我有点笨,但谁能告诉我哪个才是最新的工作流版本啊?我从网站上下了一个,结果看起来跟ComfyUI里面自带的那些旧工作流一模一样,完全没区别啊……
2025-8-19 18:15:00
这应该只会改变播放的速度,不会影响处理的时间。
2025-8-25 18:00:04
更新又有新福利啦
您需要登录后才可以回帖 立即登录
高级模式