发帖
 找回密码
 立即注册
搜索
4 0 0
日常闲聊 805 4 6 小时前
大家好啊!
  
终于等到 Wan2.2 动画模型了,真的挺激动的!虽然还有一些小细节需要优化,但整体来说已经非常强了——基本上你用驱动视频的时候,都不用太操心角色动作对不上这种问题了。我上手试了一波,直接被效果惊艳到!
这才刚发布第一天,后续肯定还会有一堆新技巧和调优方法冒出来,质量估计还会继续往上冲!今天我先放出我这边测试用的工作流和模型下载地址,大家可以试试看,也欢迎在评论区聊聊你的使用感受~
⚠️注意:下面这些链接点开会自动开始下载,如果你不太放心,建议直接去 HuggingFace 的源页面查看。
🔧 工作流说明(基于 Kijai 的原版工作流做了些改进):  
加了可选的去噪步骤、超分放大(upscaling)和帧插值(interpolation),让视频更顺滑清晰。  
👉 下载链接
📦 模型存放路径建议:ComfyUI/models/扩散_模型
🎬 Wan22Animate 主模型下载:  
40系显卡及以上:  
https://huggingface.co/Kijai/WanVideo_comfy_fp8_scaled/resolve/main/Wan22Animate/Wan2_2Animate14B_fp8_e4m3fn_scaled_KJ.safetensors  
30系及以下显卡:  
https://huggingface.co/Kijai/WanVideo_comfy_fp8_scaled/resolve/main/Wan22Animate/Wan2_2Animate14B_fp8_e5m2_scaled_KJ.safetensors  
🎯 提升生成质量用的辅助模型(T2V):  
40系及以上:  
https://huggingface.co/Kijai/WanVideo_comfy_fp8_scaled/resolve/main/T2V/Wan2_2T2VA14BLOW_fp8_e4m3fn_scaled_KJ.safetensors  
30系及以下:  
https://huggingface.co/Kijai/WanVideo_comfy_fp8_scaled/resolve/main/T2V/Wan2_2T2VA14BLOW_fp8_e5m2_scaled_KJ.safetensors  
🎨 Flux Krea 模型(用于风格化输出):  
https://huggingface.co/comfyorg/FLUX.1Kreadev_ComfyUI/resolve/main/split_files/扩散模型/flux1kreadev_fp8_scaled.safetensors  
项目主页:https://huggingface.co/blackforestlabs/FLUX.1Kreadev  
完整模型文件:https://huggingface.co/blackforestlabs/FLUX.1kreadev/resolve/main/flux1kreadev.safetensors  
📚 文本编码器(text_encoders)路径:ComfyUI/models/text_encoders  
CLIPL 文本编码器:  
https://huggingface.co/comfyanonymous/flux_text_encoders/blob/main/clip_l.safetensors  
UMT5XXL 编码器(支持中文等多语言):  
https://huggingface.co/ComfyOrg/Wan_2.1_ComfyUI_repackaged/resolve/main/split_files/text_encoders/umt5_xxl_fp16.safetensors  
T5XXL 编码器:  
https://huggingface.co/comfyanonymous/flux_text_encoders/resolve/main/t5xxl_fp16.safetensors  
🖼️ 视觉编码器(CLIP Vision)路径:ComfyUI/models/clip_vision  
CLIP Vision H 模型:  
https://huggingface.co/ComfyOrg/Wan_2.1_ComfyUI_repackaged/resolve/main/split_files/clip_vision/clip_vision_h.safetensors  
💾 VAE 解码模型路径:ComfyUI/models/vae  
Wan2.1 专用 VAE:  
https://huggingface.co/Kijai/WanVideo_comfy/blob/main/Wan2_1_VAE_bf16.safetensors  
Lumina Image 2.0 通用 VAE:  
https://huggingface.co/ComfyOrg/Lumina_Image_2.0_Repackaged/resolve/main/split_files/vae/ae.safetensors  
🔗 LoRA 模型路径:ComfyUI/models/loras  
Lightx2v 图生视频微调模型:  
https://huggingface.co/Kijai/WanVideo_comfy/resolve/main/Lightx2v/lightx2v_I2V_14B_480p_cfg_step_distill_rank128_bf16.safetensors  
WanAnimate 补光用 LoRA:  
https://huggingface.co/Kijai/WanVideo_comfy/resolve/main/WanAnimate_relight_lora_fp16.safetensors  
💡 小贴士:记得根据自己的显卡型号选择合适的版本(e4m3fn 适合高端卡,e5m2 更兼容老卡)。装好后配合 ComfyUI 使用效果最佳!
有啥问题或者调出好作品了,欢迎来交流哈~
──── 0人觉得很赞 ────

使用道具 举报

想在一个地方把所有信息都找全还挺难的,毕竟这些东西在网上到处都是。我建议你先找几个自己喜欢的创作者,看看他们做的图像生成视频。等你熟悉了这些操作流程之后,再慢慢转向视频生成。随着经验积累,上手就会越来越轻松啦!
去瞅瞅 pixaromaroy 的 YouTube 教程合集,里面讲的全是跟“舒适区”相关的内容,挺全的。https://www.youtube.com/playlist?list=PLpohOSaL8P9kLZP8tQ1K1QWdZEgwiBM0
我只想让他们参考一下角色本身,别搞那些开车视频了,那种东西简直就是毒瘤,真的受够了。
这活儿干成了 ^^^ 感谢!
嘿,我是技术小白!能不能给我指个路,让我搞明白这些术语都是啥意思?比如VAE、LORAS、FLUX KREA之类的。它们到底是干啥用的?为啥我们需要这些东西?这些东西是从哪儿搞来的,还是说可以自己做的?谢谢大佬!
还没搞定那个两点标注呢,谢啦。(话说,边界框到底是啥啊?)另外,有没有别的办法能换个发型啊?现在搞出来戴面具的人全看起来像她戴了假发似的
我老是遇到内存溢出(OOM)的问题,就算用的是RTX 5080配32GB显存,分辨率才512x512也扛不住。有啥建议吗?我已经试过各种办法来省显存了,但还是不行。
看着真酷,我入手了。
不同的GPU架构,说白了就是显卡的“内功心法”不一样。就像手机有高通、联发科、苹果自研芯片一样,GPU也有不同的设计思路和底层结构。比如NVIDIA有自家的CUDA核心架构,从早期的费米、开普勒,到后来的帕斯卡、图灵,再到现在的安培、赫柏(Hopper),每一代都在算力、能效、AI加速上做升级。AMD这边也不甘示弱,用的是GCN架构后来演进到RDNA系列,主打游戏性能和能效比,RDNA3这一代在显卡里也挺猛的。还有像Intel刚入局独立显卡这块,搞了个Xe架构,分不同级别——有的专攻集成显卡,有的冲高性能独显。总之,不同架构决定了GPU跑游戏、做AI训练、搞视频渲染时的表现差异。选卡的时候不光看显存和频率,架构新旧也很关键!
您需要登录后才可以回帖 立即登录
高级模式