发帖
 找回密码
 立即注册
搜索
0 0 0
前沿技术 732 0 2025-7-23 11:12:37
你好啊。可能对你们当中一部分人来说,这不算什么新鲜事,但Wan 2.1能生成特别好看的电影图像。我挺好奇要是只生成一帧画面,Wan会怎么运作,所以就把它当成txt2img模型用了用。说实话,结果真把我惊到了。这里附上的所有图片都是在全高清(1920 x1080像素)的分辨率下,用我的RTX 4080显卡(16GB显存)生成的,生成每张图片大概得花42秒。我用的是GGUF型号的Q5_K_S,不过也试过Q3_K_S,质量也挺不错。工作流里有可下载模型的链接。

我做的后期处理就只是加了点胶片颗粒。这给图片增添了恰到好处的氛围,要是没有这一步,效果就没那么好了。最后还有个事儿:前5张图片,我用的采样器是euler,搭配beta调度——这些图片色彩特别鲜艳。最后3张我用的调度是ddim_uniform,能看出来风格不太一样,但我挺喜欢这种样子的,虽说没那么惹眼。 大家好好欣赏吧。  
──── 0人觉得很赞 ────

使用道具 举报

2025-7-23 11:14:16

我试过i2i,但它没有改变,嗯,你用什么提示?
2025-7-23 11:16:19
非常喜欢这个模型
2025-7-23 11:17:35
WanVideoNAG是做什么的?它对t2i有好处吗?在我的测试中,由于某种原因它乱码
2025-7-23 13:28:45

不客气兄弟,快乐生成! :D
2025-7-23 13:31:14

完美!🙂
2025-7-23 13:31:41

技术是如此不同,你可以使用相同的提示进行比较,但使用相同的种子是毫无意义的,这将是同样有效的任何随机种子。
2025-7-23 16:27:53

是的,但是你知道,它是用来生成视频的,所以 ..我也没想到 :)
2025-7-23 17:17:54

为什么我们要花这么长时间才弄明白?人们很早就提到了这一点,但是社区是怎么花这么长时间才真正意识到我们对新事物的渴求程度的呢?
提示: 作者被禁止或删除 内容自动屏蔽
2025-7-24 09:01:14

这是一个疯狂的好生成速度在1080p的方式比通量/色度快,它看起来更好,相当令人震惊。
2025-7-24 09:46:59
我刚刚花了差不多两个小时和ComfyUI以及Torch较劲,想让原帖中的工作流程跑起来,结果根本不行,笑死我了。这该死的ComfyUI真把我气坏了。完全就是和“开箱即用”背道而驰 。  
2025-7-24 09:53:57
你用了哪些设置?步数、采样迭代次数(Shift 在这里可能有误,推测可能是 Sampling Steps 相关概念 )、CFG 比例等。我得到的结果惨不忍睹,哈哈。  
4060ti 16GB——107秒,9.58点。工作流程源自用户u/yanokusnir
2025-7-24 10:50:40
说实话,与Flux PRO相比,我使用Wan得到的结果连贯得多。无论是人体结构、食物,还是电影画面风格方面都是如此。Flux老是生成一些 “奇葩” 食物,这真的快把我逼疯了。尤其是在加入包含很多切开的水果和蔬菜这类复杂提示词的时候。另外,我正在寻找一些控制网络,因为这可能是替代Flux Kontext的一个选择。  
2025-7-24 10:53:42
我的第一反应确实是,这是一个视频模型,它能让我们对双手的运作方式有更深入的了解。不过我还没有试用过其他竞品,所以如果你说其他产品在这方面也有问题的话……我就不清楚了!
2025-7-24 10:54:36
非常酷但这一点需要问一下。嗯……那些不适宜公开的(成人向)内容情况如何?
2025-7-24 18:09:35
那真是出奇地好!你能不能尝试做一个有罗马军团士兵的(作品)?到目前为止,我试过的所有模型在表现罗马人方面都相当平淡无奇。  
2025-7-25 12:35:58
我刚刚运行了相同的提示词,但这次分辨率设为了1280x720像素,以下是结果:https://imgur.com/a/nwbYNrE另外,我还添加了在那里使用的所有提示词。
2025-7-25 15:58:06
它也能做寿司。真美味。
2025-7-25 22:12:08
你能分享一下端到端(i2i,这里推测i2i可能是endtoend的一种不规范缩写)工作流程吗?  
2025-7-26 08:24:18
考虑到 WAN 是为视频打造的,作为图像生成模型,它的表现相当出色。比起看起来很假的 Flux 基础模型,它的效果要好得多,甚至能与一些最出色的 Flux 微调模型相媲美。我很乐意将它用作图像生成模型。对于 14B 模型,有没有好用的瓦片/边缘检测/深度控制网络?感谢慷慨分享工作流程!
2025-7-26 15:50:59
瓦斯(Vace)。就假定是瓦斯(Vace)。除非问题涉及图像,在那种情况下用磁体参考(magref)或者模体(phantom)。但瓦斯(Vace)能做到。  
2025-7-27 01:43:23
是的,当它生成的时候,我简直不敢相信自己所看到的。:D 再发一个。
2025-7-27 09:45:06
res_2m和ddim_uniform
2025-7-30 01:12:36
我认为部分原因在于,作为一个视频模型,它并非仅仅基于 “最佳图像” 进行训练。它还会基于存在瑕疵、运动模糊、复杂动作等情况的图像进行训练。  
2025-7-30 05:35:41
这就是为什么你要为PyTorch相关的东西创建一个单独的Anaconda环境。当我随意折腾的时候,我通常甚至会使用不同的ComfyUI。  
2025-7-31 12:41:56
你瞧,这个圈子正火起来呢,大量新人不断涌入,可他们还不完全了解情况。那些已经掌握窍门的人大多都把诀窍藏着掖着。当然啦,也许有人曾经发过相关内容,但没有靠谱的实例,其他人也就直接划过去了。没错,人们喜欢炫耀最终成果,可实际的操作流程呢?他们把它当成绝密信息一样守着,就因为这能让他们觉得自己特别了不起。  :)
2025-8-4 13:00:03
效果看起来挺不错
2025-8-6 10:14:20
在万(Wan)发布后不久,就有一些帖子很早提及了此事。  
2025-8-6 12:41:30
我之前达到过25MP,不过在那个时候真的是在挑战极限了,图像会变得模糊,就像13亿参数模型在那个分辨率下的效果一样。但只要精心规划,10MP及以下的分辨率效果都还不错。需要说明的是,我还没有用那些能加快处理速度的新型LoRA模型试过。使用teacache,在3090显卡上以10MP的分辨率生成图像,大概每生成一次需要40到75分钟。要是在25MP的分辨率下,那就得花上好几个小时了 。  
2025-8-7 09:44:33
兄弟,祝你好运!做完了跟我说说情况哈。  :)
2025-8-10 21:54:38
感谢分享,我昨天还在努力让这个运行起来呢。  
2025-8-10 22:54:41
我喜欢它。
2025-8-12 14:43:18
已经有大约3万个视频的微调内容,以便让它理解这一点 。  
2025-8-14 09:00:04
4080生成挺厉害呀
您需要登录后才可以回帖 立即登录
高级模式