liujun999999 发表于 2025-8-17 09:30:35

Wan2.2拆分步骤

我已经烦透了每次都要手动改步骤还得从头开始,于是我就让ChatGPT帮我搞了一个自定义节点。其实就是改了个图,视觉上看起来像是把步骤调了位置,实际上就是把u的值转成半个int,然后除以2,再塞到步骤的开头和结尾那里去。
https://images.bigseek.com/forum/202507/22/1755394236.jpeg

二当 发表于 2025-8-18 07:40:05

我也用 LoRAs,一般来说整个过程会有8个步骤。我想问的是你在两个采样器之间是怎么分配步骤的。默认是平均分成4步和4步,但听起来你是说你会用5/3或者6/2这样的比例对吧?

灰山子 发表于 2025-8-18 07:43:27

然后你应该试试 ComfyUI 里的“数学表达式”节点,特别是它的自定义脚本功能,这玩意儿可比简单的数学运算强大多了!
真该死,我们在 ComfyUI 里有太多插件都在试图干同样的事情……

为爱 发表于 2025-8-18 08:09:49

你是想问,现在要不要继续在一个模型里折腾?我这边还在学习色度相关的知识,可能还得把我的Wan 2.2再更新一下才行。

hyc1200 发表于 2025-8-18 09:34:39

嘿,我在用你的5B高档预设,整体效果很棒,不过我发现它有个小问题——眼睛经常会变暗。如果人物有漂亮的蓝色或者灰色眼睛的话,就有点可惜了。(Wan的情况已经够糟的了,他眼睛几乎都快成黑色了)你那边有没有什么调整的办法吗?谢谢啦~

骁宇 发表于 2025-8-18 10:13:25

兄弟们,你们在聊啥转变啊?还有,那个SNR是个什么东西?我一直用的都是Wan 2.2 GGUF,完全没听说过这个啊。

D某人 发表于 2025-8-18 10:37:46

这事儿吧,搞个自定义节点有点儿过度设计了。让我想起那个npm的左垫事件。咱们真的有必要为这点儿小事专门搞个插件吗?

get5560 发表于 2025-8-18 11:44:51

当然可以,以下是更口语化、更符合中文阅读习惯的版本(保留了换行):嘿,这是在暗指我吗?😉 我几天前发了个视频,后来还在 CivitAI 上分享了一个叫“无限长 Wan 视频”的工作流程。(老实说,这方法确实能用,但效果没我最初想的那么好,而且只适用于某些特定场景。不过我真没卖啥,当时真的以为自己“破译了密码”😂)编辑一下:有人问“你的方案是不是用了不同的自定义节点?别人也做过啊”。
我想说的是,那些“其他”自定义节点确实更强大,而且是大家都知道的一个插件的一部分。
这个插件对于所有认真用 ComfyUI 的人来说,已经是标配了,还能通过插件管理器一键安装。
很可能 OP 已经装了这个插件,如果没有,那真的建议装一个。
我才不想去干复制粘贴上的代码、然后手动去改 ComfyUI 文件夹里的 Python 文件这种事呢。

高雨虎 发表于 2025-8-18 12:42:32

我也一直在琢磨,怎么用Wan 2.2的拆分模型玩出点新花样。比如,我想到一个点子:能不能把运动部分和细节部分用不同的模型来处理?比如,HN部分用FP16,LN部分用FP8,或者反过来,甚至一个用Q8、一个用FP8也说不定。我还好奇,是不是可以一开始用FP8或者GGUF来跑大部分的计算,然后最后再用FP16收个尾?如果不需要五五开的比例,是不是效率能更高一点?说实话,我也不确定这些方法之间是不是兼容的。但如果真能把大模型的细节表现和小模型的推理速度分开来用,那可真是太有意思了。我还注意到,现在有人用5b的模型做升级,我就在想,是不是也能让它在视频生成中“出一份力”?比如通过部分采样来加快生成速度?不过5b模型用的是不同的VAE,这会不会意味着它们之间压根就不兼容,我也不太确定。当然啦,我不是这方面的专家,甚至都不能算个“科班出身”,这些想法更多是我脑子闲着没事瞎琢磨出来的——毕竟我只能干等着视频渲染完,脑子总得找点事做不是 😂

pasu 发表于 2025-8-18 13:46:52

我完全理解你的意思,我刚才那句是半开玩笑啦。现在很多人习惯把自己的内容发到 Patreon、YouTube 或 Civitai 这类平台上,好像每次出个所谓“黑科技”新玩意儿,其实就是在卖“蛇油”——就是那种听起来神乎其神,实际没啥用的东西。就像有些人发一堆超长的 Wan 视频教程,看起来很厉害,其实可能就是在凑时长。还有啊,你吐槽别人做了个新的自定义节点,结果你自己解决方式是换个别的自定义节点来用,这其实也差不多嘛 😂

dccb2005 发表于 2025-8-18 20:07:05

哎,你说啥节点啊?咱得先整明白是啥节点,是区块链里的那种节点,还是计算机网络里的节点,或者是别的啥玩意儿的节点?(要是你不懂我说啥,那我再给你掰扯掰扯)

南京电信 发表于 2025-8-18 21:53:28

Wan 2.2 引入了两种需要用到这种拆分的模型,而 2.1 版本只用了一种。

dxking 发表于 2025-8-18 21:54:27

我一般不太会去碰一个包,除非它有几百个星标。祝你好运吧,我猜……

hshf007 发表于 2025-8-19 12:10:12

是的,甘高档然后是5B。你可以用14B的低噪音模型,不过它很慢,真的非常慢。图5B在高分辨率下生成速度很快,但解码就特别慢。大概要1分钟采样,解码却要8分钟。

酷新鹰儿 发表于 2025-8-19 15:33:11

我做了第一个节点,但只输出了开始步骤的一半结果,我还得再用一个节点跑另一半步骤,如果u能从A里拖出来的话,那应该就能正常跑了。https://images.bigseek.com/forum/202507/22/1755588791.jpeg

tjjiori 发表于 2025-8-19 18:35:57

我一般是做8到10步,其中60到70%的步数用高噪声。如果你用的是LightX的Loras,那这个比例也是一样的。公式不变,噪声越高,出来的动作就越流畅、越细腻,连贯性也更好。

kevinnest 发表于 2025-8-20 10:12:30

你还可以用一些数学节点,比如基础的数学运算啥的
页: [1]
查看完整版本: Wan2.2拆分步骤