发帖
 找回密码
 立即注册
搜索
0 0 0
前沿技术 659 0 2025-7-23 13:54:30
在我这台配备16GB VRAM的A600上,生成3张图像大概得花40秒。

我工作流程里用的最快的wan2.1模型链接是这个:https:// huggingface.co/QuantStack/Wan2.1_T2V_14B_LightX2V_StepCfgDistill_VACEGGUF/

主Wan 2.1 vae的链接:https:// huggingface.co/ComfyOrg/Wan_2.1_ComfyUI_repackaged/tree/main/split_files/

vae我用的剪辑模型链接:https:// huggingface.co/Kijai/WanVideo_comfy/blob/main/umt5xxlencfp8_e4m3fn.safetensors

我用的姿势相关链接:https://civitai.com/models/22214/openpsscollection (当然也会用自己的姿势)

──── 0人觉得很赞 ────

使用道具 举报

2025-7-23 14:15:26

谢谢你的分享,因为你,我要回到舒适的地方
2025-7-23 14:16:21

不错!
2025-7-23 14:50:51
非常好!谢谢 ~
2025-7-23 14:55:23

令人印象深刻
2025-7-23 15:35:52

这可以做后视图的字符?
2025-7-23 15:36:23

哈哈,如果它来自civitai,这是强大的驯服。
2025-7-23 15:37:06

可能会被输入图像不显示腿混淆。
2025-7-23 16:22:53
感谢您的工作流程!任何猜测可能出了什么问题?已使用工作流中的所有预设设置。此外,如果我可以更改任何设置,使结果更好?使用Q3KS量化模型
2025-7-23 16:34:10

增加步骤数。我的工作流程只使用4个步骤,因为我优先考虑速度,但如果你给它更多的步骤,你会看到更好的结果。增加WanVaceVideo节点的强度。1.10和1.25之间的值非常适合使角色更准确地跟随姿势。在 “pose to video” 组中,将图像大小调整方法从 “fill/crop” 更改为 “pad”。这将防止你的姿势被裁剪。让我知道它是否有帮助
2025-7-23 17:20:53

我非常抱歉,但最后一张幻灯片太愚蠢了,让我想起了阿道夫·希特勒和海因里希·霍夫曼的姿势。
2025-7-24 05:26:35

Same.当我切换到不同的剪辑 (umt) 我停止得到该错误,但现在我有一个新的错误。一个很长的错误。与cuda有关的东西
2025-7-24 09:19:09
好吧,现在,不知怎么的问题变得更严重了,哈哈。现在它提示我在Comfy UI上没有安装Triton。问题是,我是在Stability Matrix上安装了它,而不是在独立/便携安装包中安装的。我打算尝试全新安装Comfy UI便携版,然后用我能找到的任何解决办法进行更新。
2025-7-24 10:00:26
这可不是一个能直接解决的简单问题。它需要掌握将骨骼长度映射到二维投影姿态的变换方法。我认为有两种合适的解决办法。要么训练一个神经网络(推荐这种方法)来直接推断这种映射关系,要么先将姿态转换到三维空间,进行某种优化求解后再转换回二维投影来完成变换 。  
2025-7-24 10:52:48
哎呀……(“Cheese and rice”在口语中常作为一种温和的感叹语,表达懊恼、无奈等情绪,这里意译为“哎呀”比较符合中文习惯 )奶酪和米饭…… (如果严格按字面就是这样翻译,但结合语言习惯意译更合适,所以附上两种参考)  
2025-7-24 14:38:24
哇,伙计!
进行更新以使其不再采用LoRA解决方案,这样做有意义吗?  
2025-7-24 16:57:57
太棒啦!我刚刚就在做完全一样的事情呢😄
2025-7-24 17:21:49
谢谢你
2025-7-25 16:26:26
请继续!我对ComfyUI的掌握还不够熟练,做不了那样的事。对于任何想要一个骨骼长度匹配的线框的人,我的建议是:使用ControlNet的图像到图像功能,以参考角色创建线框。例如,如果你有一个想要应用到你的角色上的坐姿,首先使用普通的图像到图像ControlNet,将其应用到你的角色上,去噪强度设高一些,比如0.76 。然后从那个结果中提取姿势。这一步将有助于把原始的骨骼长度转换得更接近你角色的比例。在那之后,你就可以在我的工作流程中使用这个提取出来的姿势了。
知道这里出了什么问题吗?
2025-7-26 10:21:49
哼……我觉得这效果还算不错吧?我想还得做些调整(我之前用的是完整的VACE 14B GGUF,而不是精简版之类的  )  
2025-7-27 09:30:02
数据挺全,了解了
2025-7-28 02:01:54
我按照推荐使用了同样的模型,但遇到了大家都面临的这个错误:“运行时错误:mat1和mat2的形状无法相乘(77x768和4096x5120)”。
我还试过这个剪辑模型“umt5xxlencbf16.safetensors”。但还是同样的错误。
我也试过另一个Wan模型“Wan2.1VACE14BQ8_0.gguf”。但依然是同样的错误。
终于,大泡沫手指有了用武之地。
2025-8-4 14:32:09
我用dwpose 而不是ops方法(除非我理解有误),并且在寻求同样的解决方案——就我的情况而言,是要对成人和儿童骨骼长度不同的视频进行视频到视频的建模(我正在制作一个早教视频)。我已经搞定了头部大小的问题,但身体骨骼大小的变化以及一致性问题,在我完成项目中更紧迫的事情时,仍然是我稍后要处理的事项 。  
另外,你链接到了错误的剪辑模型:正确的是 umt5_xxl_fp8_e4m3fn_scaled.safetensors。在使用 KSampler 的 Triton 模块时也遇到了问题。在 YouTube 上找到了解决方案:
4) 进入 ComfyUI 的 Python 嵌入文件夹中的命令提示符,然后运行:python.exe m pip install U tritonwindows
5) 同样在该位置运行:python.exe m pip install sageattention
6) 重启 ComfyUI,应该就能正常运行了。  
2025-8-6 12:39:23
理想的情况是有一个工具,能够创建线框姿态,且骨骼长度与参考角色相匹配。如果没人做的话,我来做。  
2025-8-6 12:49:24
现在没有控制台错误了,但我肯定还遗漏了别的东西。现在工作流程完成了,但结果并不如预期——它给姿势图片重新上了色,而不是改变输入图像的姿势。有什么见解吗?
2025-8-6 13:36:13
你今天赢了ComfyUI。
2025-8-11 14:00:02
这链接真是不少呀
我之前在另一个工作流程中遇到过这种情况。这是剪辑编码器错误导致的。上面有人提到链接的编码器是错的。正确的那个名字好像带umt什么的。  
2025-8-13 22:30:02
数据分享挺详细
您需要登录后才可以回帖 立即登录
高级模式