发帖
 找回密码
 立即注册
搜索
0 0 0
日常闲聊 843 0 5 小时前
总之,楼主8G显存小破笔记本实在装不下整个IndexTTS2的所有模型,于是就让Cursor就加了点玩意能让不怎么用到的玩意先卸载到内存
awaa-col/IndexTTS: …
项目地址(awaa-col到底是为什么取的啊)
最低要求为6G显存(吧?),推理速度(4070L下差不多3秒左右一段音频)
阿西吧,我讲的好混乱说是,总之就是运行的时候 uv run webui.py --cpu-offload
──── 0人觉得很赞 ────

使用道具 举报

是不是和ComfyUI的某些工作流类似,能及时释放显存占用,但会增加加载时间
高中居然这么厉害!!
(嗯……如果IndexTTS是由多个模型构成,在每一次完整的推理过程里,当当前模型进行推理的时候,把其他模型卸载到内存当中。(要是这样做的话,确实能够缓解显存不足的问题呢))
是卸载layer喵
总之,楼主这台8G显存的小破笔记本,实在装不下整个IndexTTS2的所有模型。

于是就让Cursor加了些东西,能把不太常用的部分先卸载到内存。

awaacol/IndexTTS: …
项目地址(awaacol这名字到底为啥这么取啊)
最低要求6G显存(大概吧),推理速度(在4070L下,一段音频差不多3秒左右)

哎呀,我讲得好混乱。总之就是运行的时候用uv run webui.py cpuoffload
用IndexTTS2来做阅读的文本转语音(TTS)有没有发展前景?
(“CPU卸载”应该只能“减少模型的加载时间”,应该并不能“减少推理时的显存占用”呀(不知道这样对不对呢))
您需要登录后才可以回帖 立即登录
高级模式