发帖
 找回密码
 立即注册
搜索
0 0 0
日常闲聊 613 0 3 天前
──── 0人觉得很赞 ────

使用道具 举报

说真的,这个就是我在WSL2里用的那个。我记得好像是在Windows上搞不定它。
这其实是个挺好的经验。有时候,就是得让它跑够时间(没开lightx的情况下)。我也更喜欢用一些原生的方法,比如直接操作节点,实在不行就用点复制粘贴的小技巧,简单粗暴解决问题。总的来说,哪怕不是百分百一致,只要各部分加起来能行得通,效果也不会差。我觉得不远的将来,我们就能用AI把一分钟的视频从头到尾做出来,包括vid2vid的细化、平滑和增强。我觉得一个可能的方向是:做个简单的后处理,比如低去噪、轻微偏移、低cfg,用4步左右的t2v,配合通用的prompt风格,这样过渡会更自然,色彩也更统一。只需要用视频编码后的潜在输入就行了。谢谢大家!
我用的是RTX显卡,所以关于其他配置我不好多说,但我也在用Wan 2.2的时候折腾了不少。我是这么干的:先跑一批视频,只跑高噪声那几步,然后把潜在空间(latent)保存下来。接着清空显存和内存,再加载之前保存的latent去跑低噪声步骤。这个方法确实有效。我也试过加一个参数 `disablesmartmemory cachenone`,不过用起来挺麻烦的。至于模型方面,我一般用Q3跑高噪声步骤,Q8跑低噪声步骤,因为有时候动作太猛的话,Q3效果更稳。还有一个全能型模型,只需要加载一次就能搞定全部步骤。效果感觉在Wan 2.1和2.2之间,静态图的质量还不错。对于一些简单的场景,我也会直接用这个模型。
咱们说的这个内存(或者显存)到底有多小啊?
您需要登录后才可以回帖 立即登录
高级模式