发帖
 找回密码
 立即注册
搜索
3 0 0
前沿技术 675 3 2025-7-30 10:07:38
嘿,大家,这里有不同的文生图采样器和模型之间的对比,你们怎么看?看起来新模型在处理场景中的复杂内容方面表现要好得多,它增添了细节。但另一方面,当我的提示词要求画面要有杂志风格,并带有特定色调时,我感觉我们在新模型里失去了那种 “风格”,这种风格在文生图2.1欧拉贝塔模式的结果里表现得更明显。你们对此有什么看法?  
──── 0人觉得很赞 ────

使用道具 举报

2025-7-30 10:07:57
伙计,我也有同样的经历,心情很复杂!有时候细节让我惊艳不已,可有时候,在获取合适的风格或者让LoRA角色保持一致性方面,又让我很失望。我觉得这还是个新事物,仍处于试验阶段。我们(整个圈子)得不断摸索,才能找到正确的方法 。  
2025-7-30 10:16:16
那你这里是在参照一张图片,还是只是在说“朱莉娅·罗伯茨在沙发上” ?  
2025-7-30 10:41:16
万2.2 发布了一些很棒的图片,但我不认为(目前)它在各方面都比使用 2.1 更好。我用在 2.1 里制作的 LoRAs 得到的效果参差不齐…… 有没有其他人也有类似的经历?  
2025-7-30 11:43:17
嗯,这说得通。我主要是用图片转视频的功能来让我喜欢的照片动起来,所以每次我都得把开头大概6帧的内容删掉。我做测试的时候从来没想过把参数设到16以下。  
2025-7-31 13:13:03
给你!
https://postimg.cc/gallery/18dTjDx
2025-7-31 15:01:04
只是因为其他人报告说他们的一些低秩自适应层(LoRAs)能正常工作 :P它们确实也能工作——算是吧。不过和2.1版本相比,效果并不能让我满意。我对此并不感到意外,但我们总得试一试,对吧?
2025-7-31 16:19:59
低噪音仅仅意味着?  
2025-7-31 16:22:59
我使用了一个基于她训练的LoRa模型!
2025-8-4 14:59:07
仅供参考,如果你还没有安装Sageattention,请安装一下,并且针对Wan使用lightx2v的LoRA(低秩自适应)模型。否则速度可能会慢得让人难受。至于flux,我建议使用nunchaku。
2025-8-5 15:58:25
以我的经验来说,如果你想要生成逼真的图像,Wan绝对是最佳选择。它对真实感和人体结构的把握非常出色,而且不会出现 “千篇一律脸” 的问题。如果你追求的是艺术渲染效果,那么我觉得Flux、StableDiffusion(SD)、Pony会更合适。不过,只要运用恰当的微调以及各种LoRA,从这些模型中的任何一个都能生成任何类型的图像。  
2025-8-6 09:32:14
耶……“Sageattention”已经在待办事项清单上有一阵子了。如果你是个新手,安装它简直就是一场他妈的噩梦。我之前安装“Comfy alone”的时候,搭配50系列显卡简直麻烦死了。我试了大概8次各种方法,最后也不知道怎么就成功了。我到现在都还不知道自己运行的是哪个版本的Python或者“Comfy”,也不知道是不是在虚拟环境里运行的,甚至都不太清楚虚拟环境到底是什么……不过记下来了。
是哪一个,用的是什么方法?因为结果非常好。
2025-8-6 13:05:30
你是想用Wan制作图像吗?我都不知道Wan能产出这么清晰的效果。我2.1版本的视频里没有一帧有这么干净。还是说这是某段视频里的一帧?能不能分享下你的操作流程呀?等这周末我回家了打算研究研究。  
2025-8-6 15:45:07
我觉得分辨率太低了,看不出有什么差别。请上传到某个图片托管网站,或者分开上传图片。  
各有千秋难抉择咯
2025-8-7 10:00:02
新老各有优缺点呗
2025-8-8 13:30:36
是的,我觉得它们运转不太正常。期待能有关于幕后情况的解释。实际上我有点惊讶,广域网团队自己居然没有深入调查,也没有就此事给社区一个说法,毕竟他们了解自己的架构。  
2025-8-9 17:15:21
工作流程是将帧数设置为1
2025-8-9 22:43:51
因为这是万(Wan)2.x 型号,而且他们说架构没有改变。期望在于编号标准。如果LoRA(低功耗广域网络技术)不起作用,要知道LoRA在每一个万(Wan)无线设备(wf)的使用占比达90%,而且每个人都在用。要是它不能与万(Wan)2.x配合使用,他们或许本应该说明一下。要是推出万2.2 ,却不能与在万2.1上能正常工作的设备兼容,而又不对此作出说明,这公关方面可真是一场灾难。但我的理解是,它们(LoRA)大多在低噪声模式下起作用,在高噪声模式下效果没那么好。话虽如此,这是开源的领域,大多数问题都是用户在实际使用中解决的,而不是由作者在早期的“操作指南”中提及。所以,鉴于我们目前的情况,你说得有几分道理。不做任何预设,并且庆幸它是免费的,这是个不错的出发点 。  
2025-8-16 04:13:05
这是图片还是视频啊?
2025-8-16 15:49:09
把帧数设成1,这样就变成了一张静态图。  
帧数设成1还有一个好处,就是能省显存(VRAM),  
这样你就可以在不爆显存(OOM)的情况下,用更高的分辨率出图。  而且因为没有运动,也就不会出现因为运动带来的那些奇怪的伪影。  
总的来说,你就能得到一张干净、高清的大图。
2025-8-16 20:31:20
6月之后,我开始注意到一个现象:大家对“新出来的大玩意儿”都抱有很高的期待,总觉得它会像12月24号以来的每一次发布一样,带来那种震撼和惊艳的感觉,比如那个浑源t2v出来的时候。最近一个例子就是Fusion X。但我也发现,我自己现在其实对这些新东西已经没那么激动了。就算是用Fusion X,我也更倾向于把所有的Loras一个个单独加载进去,而不是全部堆上去。最近几次我甚至直接把它们都去掉了,只留下一个Lightx Lora来加快出图速度。我发誓,效果看起来不仅没差,反而更好了,至少颜色没那么漂了。这说明什么?我觉得,这一切可能已经到顶了。至少目前是这样。但是大家还是沉迷在那种“糖冲”(sugar rush)的快感里,一直在追新版本,期待下一个爆炸性的突破。这也是为什么我一直坚持用RTX 3060的原因之一,就是为了控制自己老想追新版本的冲动。我的3060刚买来第一周啥都跑不动,我只能坐在旁边看着别人秀成果,心里又FOMO(怕错过)又焦躁,只能安慰自己说:“没事,慢慢来。”但就像我说的,我觉得现在这情况,有点像“皇帝的新衣”那个故事。我的意思是,你不妨退一步想:如果你完全不懂AI,是个外行,你去看这些对比图,估计会觉得它们他妈的都差不多。哈哈。我观点说完了。不过这其实也是个好消息,说明我们可能已经接近瓶颈了,接下来就看怎么优化了。现在最需要的是把这些东西简化,让它们更容易用,也能在更便宜的设备上跑起来。
您需要登录后才可以回帖 立即登录
高级模式