发帖
 找回密码
 立即注册
搜索
3 0 0
前沿技术 206 3 5 小时前
可用更新VAE 解码的显存使用减少约 10%5B I2V 模型有重大改进14B 模型新增模板工作流程开始使用下载 ComfyUI,或在 Git/Portable/Desktop 上更新到最新版本在我们的文档页面查找 Wan2.2 14B 的新模板工作流程  
──── 0人觉得很赞 ────

使用道具 举报

你是怎么做到速度翻倍的?在工作流程和模型更新后,对我来说速度还是一样的。  
K/M/K_S 是怎么回事?
你刚才说的没有一点是对的。Safetensors 或 GGUF 只是模型文件的格式。对于这两种格式,卸载(数据)的情况完全一样。多 GPU 节点并不会把你的显存合并到一起。它们能让你把工作流程的某些部分放到另一块 GPU 上运行(比如 CLIP、VAE 等)。这和卸载(数据)毫无关系。你也不能把所有内存都用于卸载(数据)。只有一半的内存可以用于 GPU 卸载(数据)。  
这是 50 亿参数模型的链接:https://huggingface.co/QuantStack/Wan2.2TI2V5BGGUF/tree/main
还有一个是 270 亿参数模型的链接:https://huggingface.co/QuantStack/Wan2.2T2VA14BGGUF/tree/main
这可能是个愚蠢的问题,但是……你如何选择生成 720p 还是 480p 的内容呢?(我原本希望在我的 16GB 存储卡上,用 5B 或者可能是 GGUF 尝试一下 720p,看看是否可行。)我原以为 Wan 2.1 扩散模型对于 720p 和 480p 有不同的文件版本,但在这里它们似乎是同一个文件。在某个节点中有可选择的设置吗?这仅仅取决于潜在空间大小吗?谢谢。
谢谢你的建议!
gguf文件的链接呢?
您需要登录后才可以回帖 立即登录
高级模式