发帖
 找回密码
 立即注册
搜索
0 0 0
日常闲聊 263 0 昨天 22:32
假的哈~  
全图链接在这儿:https://imgur.com/a/KBJJlLP  
说实话,我一直对ComfyUI有点怵,上手太难了。但上周我终于下定决心,得好好搞明白点,不能老当门外汉。虽然现在还是觉得这界面反人类,用户体验拉胯,不过当你慢慢摸清门道之后,那种“我自己拼出来”的成就感和机灵劲儿,是真的会上头。
我的初衷是想搞一堆“复古未来风”的斯德哥尔摩街景,结果发现——Wan 2.2 这模型可能压根就没见过瑞典长啥样😂 最后出来的画面,更像是东欧某个前社会主义国家混了个美式都市的缝合怪。虽然不是我最初想要的感觉,但意外地还挺有味道,尤其是海边那块儿出图特别带感。
我还想试试看靠后期升级能把画质推到多高。
说说整个流程吧:
文生图(T2I):用的是 Wan 2.2,分辨率从1920x1080一路升到3840x2176,用了 Ultimate SD Upscale 来放大。过程中加了几个提速用的 LoRA,比如 FusionX 和 Lightx2v,有时候还会根据画面风格塞点别的 LoRA 调调味道。采样器用 res_2s,调度器选 bong_tangent,只跑8步,效率和质量勉强平衡。
搞了一堆渲染图,挑中一个顺眼的之后,就拿它去“深加工”——先过一遍 4xultrasharp 放大器,再走两次 Ultimate SD Upscale,切块设成1024,细节拉满。
图生视频(I2V):同样是 Wan 2.2,输入尺寸是1280x720,加上 lightx2v_4step 的速度 LoRA,只跑4步,图快不图精。
视频处理阶段:先丢进 Topaz Video AI,用 Starlight Mini 模型提一档清晰度到高清,然后再用 Thea 模型干到4K。帧率不够?那就上 Chonos 插件插到25fps,丝滑一点。
最后润色:AE里调颜色、加点胶片颗粒,让画面更有“电影感”。
我踩过的坑 & 学到的东西:
1. 关于 T2I + Speed LoRA 的黑暗场景翻车现场  
   我试了好多次,就是做不出那种“只有一个光源亮着,其他地方一片漆黑”的氛围图。比如一根路灯照亮左边一点点,右边全黑的那种戏剧性光影。不管怎么写提示词都没用。我知道大概率是我不会用,但也怀疑是不是 speed LoRA 把光影信息给“优化”没了……
2. I2V 阶段:快了反而更慢  
   这次为了省时间用了 speed LoRA,牺牲了点质量和可控性。本来图个快,结果因为镜头动得不理想,反复重试了三十多次才在一个场景里做出一个简单的推轨镜头(dolly in),简直崩溃。最讽刺的是:本想提速,结果因为要不断重来,总耗时反而更长……以后真做项目肯定得把 speed LoRA 给砍了。
3. 输出格式玄学问题  
   我死活导不出干净的 mp4 或 mov,总是带着一堆压缩伪影,看着特别难受。后来干脆曲线救国:先导成 webp 视频,再用 Media Encoder 转一遍。多了一步操作,麻烦是麻烦了点,但画质反而更好了。估计又是我哪设置错了,纯属用户水平问题,但我暂时懒得深究。
4. 硬件给力,速度飞起  
   幸好我手里有张 RTX 5090(做梦版),所以各项渲染速度都还行:
    T2I 不放大:约30秒
    T2I 做终极SD放大:大概2分钟
    I2V 渲染:180~200秒左右
    Topaz Starlight Mini 锐化:6分半
    Topaz 插帧+4K提升:约1分钟
工作流分享(都是抄别人改的哈哈)
T2I 流程:https://drive.google.com/file/d/10TPICeSwLhBSVrNKFcjzRbnzIryj66if/view?usp=sharing  
I2V 流程:https://drive.google.com/file/d/1h136ke8bmAGxIKtx6Oji_aWmLOBCxFhb/view?usp=sharing  
奖励提问:为啥别的模型出图那么糊?
我换了好几个模型测试,像 Chroma、Qwen、Flux Krea,结果出来的图全都一股“马赛克味儿”,要么噪点多,要么像被压缩过一样模糊不清。而 Wan 2.2 出图就是又干净又锐利,差距明显。
我也试了不用 speed LoRA,也不上 nunchaku 这类加速玩意儿,老老实实跑标准流程,可还是不行。真的是百思不得其解……肯定是我在参数或者流程上哪里没整明白,但到底错在哪啊老哥们?求指点!
总的来说,除了偶尔冒出些离谱bug(比如天上飘个人、墙里长条腿之类的诡异场面),整体效果我还是挺满意的。继续折腾呗,AI创作嘛,修修补补才是常态~
──── 0人觉得很赞 ────

使用道具 举报

爱了爱了!
谢谢你的好评!这些模型能实现的效果确实挺让人震撼的。还记得我第一次在Comfy里跑通流程时,那种感觉真的太爽了!之前试了好多别人分享的工作流,不是报错就是缺这缺那的节点,折腾得够呛。现在想想,我最大的问题就是没先从最基础的、官方推荐的模板开始。后来我改用官方模板打底,一下子就清楚自己到底在干啥了,理解起来轻松多了。你说得太对了!特别是那些头顶视角的人物,看起来全都飘着走,动作怪怪的,速度也不自然。其实再多调一调,肯定能出更好的效果,但当时就想着“行了吧”,毕竟只是个测试而已,就没再深究。
谢谢你啊!确实,我一想学点啥,就容易上头,特别投入。而且因为经历了一些个人的伤痛,我也特别需要靠学习来转移注意力,让自己忙起来,少想那些难过的事。
挺不错的啊。顺便也试试你能不能直接生成4K的图……不过可能会有内存吃不消的问题。我发现我自己用RTX 4090的话,至少能用WebUI 2.2从1080p做img2img放大到4K,大概占了70%的显存。但视频嘛,估计更费资源,怕是要吃掉更多显存。
不客气哈!😊
RTX 5090这配置挺猛的啊,干活儿够劲。配了64G内存,还算到位。回头得看看用的啥处理器,毕竟整套机器看着年头不短了,有点老古董的意思。
这真是个绝妙的op啊。
这是我用Flux Krea做的一波测试:https://imgur.com/a/V8gBeSU我觉得元数据应该还在的,你可以直接拉到ComfyUI里看看,我的提示词和设置对不对?
您需要登录后才可以回帖 立即登录
高级模式