所以我这次捣鼓了一下子节点,以前可能也做过类似的事。不过这次发现,子节点下的子节点如果用相同的引用,就能在所有主节点里通用起来,这样一来,比起我自己之前做的那种乱七八糟的ComfyUI流程,这次的连续视频生成要更优化一些。
模型地址在这里(可以去看看):
https://civitai.com/models/1866565/wan22continousgenerationsubgraphs
FP8模型在T2I2V流程里直接把我原来的ComfyUI搞崩了,所以我现在用了GGUF格式的UNet、CLIP,加上lightx2v,整个流程用了3个阶段,还加了ker sagemath的attention采样,最后用了torch compile来加速。
如果你想试试看,记得先更新你的ComfyUI前端。
欢迎大家提建议,这样我可以避开一些不必要的优化(真的烦死前端那些老bug了 :P) |