发帖
 找回密码
 立即注册
搜索
17 0 0
前沿技术 769 17 2025-8-7 10:03:45
这是怎么做出来的?或许是用Wan2.1的Vid2Vid搭配ControlNet(深度/姿态),还加了一些用于物理效果的LoRA?
   
      
你怎么看?它的时长和画质让我惊叹不已。
   
      
──── 0人觉得很赞 ────

使用道具 举报

很可能是用VACE完成的,类似这样:https://civitai.com/models/1631077?modelVersionId=1846132胸部动态是用bounce lora完成的。  
2025-8-8 07:53:54

        
        
         
      
      
      
      
        
         
            
         
        
      
2025-8-8 07:56:33
他是怎么制作出一个超过5秒的视频的?
2025-8-8 08:03:15
胸部;乳房
2025-8-8 14:56:28
谁说两到三周的?可不是我。
2025-8-9 15:33:01
也许会很有趣,它有视频参考。
2025-8-9 15:42:41
2  3周的动画制作和渲染?如果这就是你所能做到的全部,那可真是浪费时间。
2025-8-9 15:45:42
不,广域网2.1无法实现如此精确的移动。这完全是VACE的原因。  
2025-8-10 03:06:00
是啊,我当时就想,这质量太棒了……两种超棒的特质……
2025-8-10 23:44:39
我也想知道
2025-8-11 10:26:40
不,这与此无关。gguf模型只是一个压缩的FP16模型。如果你使用Q8,质量损失会非常小。
2025-8-12 09:47:47
双显卡现在能用了吗?还是说这并不像我想的那么简单?比起(某些画面中)胸部晃动的效果,我更在意整体动作的流畅度。不模拟(物体)晃动的物理效果能节省多少显存呢?
2025-8-12 11:55:50
你大概可以在20分钟内用万2.1 VACE完成这项工作。  
2025-8-14 08:05:52
我用的是gguf模型,所以这可能与此有关。在进行图像到视频(I2V)转换时,大多数情况下,当生成超过5秒的视频时,它就会循环回到第一帧。  
2025-8-14 15:50:05
当然可以,咱们用更口语化的方式聊聊这个话题。你问的 Q8 和 GGUF,其实它们不是一回事,虽然都跟模型压缩有关,但侧重点不一样。先说 Q8,它其实是量化的一种方式。简单来说,就是把模型里的权重数值用更小的精度来表示,比如从 float32 降到 int8,这样模型体积就小了,推理速度也能提升,对设备也更友好。Q8 就是 8bit 量化的一个例子。而 GGUF 是一种模型文件格式,它是由 GGML 库发展而来的。GGUF 主要是为了解决在本地运行大模型时的效率问题,支持多种量化方式,包括 Q8、Q4、Q5 等等。你可以理解为,GGUF 是一个“容器”,它里面可以装不同量化级别的模型,比如你看到的 q8_0.gguf 文件,其实就是用了 Q8 量化的模型放在 GGUF 格式的文件里。总结一下: Q8 是一种量化方法(8bit 量化)
GGUF 是一种模型格式,支持多种量化方式,Q8 只是其中一种可能用到的压缩手段是不是有点明白了?如果你感兴趣,我还可以继续深入讲讲它们在实际使用中的区别 😄
2025-8-15 12:00:59
说真的,这就是最好的时代。
2025-9-2 10:00:02
这组合挺厉害哈
咱也不懂这高科技
您需要登录后才可以回帖 立即登录
高级模式