发帖
 找回密码
 立即注册
搜索
0 0 0
日常闲聊 439 0 2025-8-17 09:31:54
所以我这次捣鼓了一下子节点,以前可能也做过类似的事。不过这次发现,子节点下的子节点如果用相同的引用,就能在所有主节点里通用起来,这样一来,比起我自己之前做的那种乱七八糟的ComfyUI流程,这次的连续视频生成要更优化一些。
模型地址在这里(可以去看看):
https://civitai.com/models/1866565/wan22continousgenerationsubgraphs
FP8模型在T2I2V流程里直接把我原来的ComfyUI搞崩了,所以我现在用了GGUF格式的UNet、CLIP,加上lightx2v,整个流程用了3个阶段,还加了ker sagemath的attention采样,最后用了torch compile来加速。
如果你想试试看,记得先更新你的ComfyUI前端。
欢迎大家提建议,这样我可以避开一些不必要的优化(真的烦死前端那些老bug了 :P)
──── 0人觉得很赞 ────

使用道具 举报

是的,万就像一只不停咀嚼我公羊的家伙,怎么也不肯松口……
2025-8-18 07:56:48
你需要下载 GGUF WAN 模型,如果你要用 LoRA 的话,推荐使用 LightX2V LoRA,它能将所需步数从原来的 20 步减少到甚至只要 4 步。你可以通过 ComfyUI 管理器安装缺失的节点,只需要装 videosuite、GGUF 和 essentials 这几个节点就可以了。如果你没有特殊需求的话,可以删掉 PatchSage 注意力节点和 Torch 编译节点。
2025-8-18 09:14:10
我已经从LTXV上得到了非常不错而且细节很锐利的结果,整体体验相当流畅,控制性也很好。但主要问题是,LTXV好像特别“讨厌”不被控制。你需要非常仔细地写提示词,还要准备参考图,起始帧、结束帧,甚至中间帧,还有 initial_video、引导视频等等……另外,我这边还在摸索,因为网上根本找不到完整的流程参考,我只能自己一点点试出来。而且为了适配LTXV的隐藏功能,我还得自己写了不少自定义节点。
2025-8-18 09:14:11
你有多少显存/内存啊?所有东西都用GGUF模型吗?
2025-8-18 09:35:58
LTXV对潜在空间的大小特别敏感,它简直就是个显存大户,不过速度快是真的。我不会在121帧上做任何操作,它处理采样延迟的方式是指数级的;确实吃显存,要么跑起来,要么直接OOM。它也支持FP8,但几乎没看出啥差别。甚至LTXV的真正力量就在它的FP8模型上。别指望LTXV能比默认设置下表现更好,它需要大量引导。别指望它像WAN那样随便用用就行,不然你会失望的。如果你不给它参考图、引导图、潜在图,或者用LoRA去改模型本身来施加特定引导,那结果可能就是灾难。LTXV非常依赖参考素材,起始帧、结束帧、中间帧都很常见,比如在97帧以内也没问题。但别同时加太多东西,比如精明(可能是指细节)、姿态,甚至一个风格视频啥的,它处理不过来,结果会很拉胯。但如果你给足引导,它就能做出高度风格化、运动可控的内容。只要你能驾驭它,我觉得LTXV几乎啥都能干。不过说实话,默认的LTXV工作流程挺让人头疼的。它不是WAN,试图模仿WAN是它的一个误区。LTXV比WAN难用,出的结果质量也不如WAN,但它胜在速度快、可控性强,潜力巨大。你可以对它微调很多,而且比VACE更快、更灵活。我觉得LTXV更适合跟GIMP、Blender这类工具搭配使用,而不是像WAN那样单打独斗。我仍然会用WAN,有些场景它确实更合适。但总体来说,我现在用LTXV更多。
2025-8-18 10:15:24
我觉得这可能是个新功能,所以你之前没听说过也正常。
2025-8-18 11:00:44
感谢分享,这个方法对5B模型也适用吗?
2025-8-18 13:08:26
我没怎么接触过云解决方案,不过我可以这么说,想把所有东西都配置正确是需要一些时间的,特别是在不断试错的过程中。有时候就算规格书不太完善,先跑个小的本地模型练练手也是有帮助的。
2025-8-18 13:39:52
当然可以!不过你这句话有点不太清楚是想问什么。你是想问: 我能不能和系统分享一个30秒的视频剪辑?
还是想知道和系统分享30秒剪辑需要多长时间?
或者是问系统能处理多长时间的剪辑?你可以再解释得清楚一点,我来帮你解答哈~
2025-8-18 18:20:25
我试着用WAN 2.2通过ComfyUI和runpod来生成图像,但出来的都是一些噪点和奇怪的色块,看起来就像乱码一样。我现在感觉卡住了,不知道问题出在哪。
2025-8-18 19:16:50
可能不太明显,因为是白兔的缘故吧。
2025-8-18 19:39:28
干得不错!我还没试过用子图,但我注意到一个可以改进的地方:在每个I2V节点上加上种子控制。这样的话,你可以把链的后半段固定住,静音也行,然后根据需要去调整5秒的小片段(比如改提示词或者换种子),不用每次都重新渲染整个视频。当然,前提是子图的缓存机制能配合使用。
2025-8-18 21:20:29
这绝对是重磅消息啊!子节点方法简直是视频工作流里的颠覆性存在。以前一直在跟那些乱七八糟的传统流程较劲,这个看起来清爽太多了。FP8+GGUF这套组合拳在内存效率方面简直绝了,就是我们处理更长序列所需要的。这个周末我肯定得上手试试。相比传统流程,生成速度怎么样?不同分辨率下也能这么溜吗?
2025-8-18 21:51:27
这玩意儿所有的优化和GGUF当然都能在我这台12GB显存、32GB内存的系统上跑起来。
2025-8-24 18:30:03
听起来好厉害呀
您需要登录后才可以回帖 立即登录
高级模式