发帖
 找回密码
 立即注册
搜索
4 0 0
日常闲聊 710 4 5 小时前
这是我之前那个Qwen驾驶舱工作流程的升级版,加了不少新功能,也做了一些优化。和第一版一样,理念还是那个理念 —— 把ComfyUI那些复杂的部分都去掉,留下一个干净、易读、完全模块化的工作流程。</br>
所有加载器我都挪到后端去了,包括Lora加载器,你只需要把后端折叠起来就能看到它们。你可以在下面这个链接访问Qwen工作流程。我也把它适配成了SDXL版本,点这里就能找到。</br>
当前流程包括:</br>
  文字生成图片</br>
  图片生成图片</br>
  Qwen编辑模式</br>
  修复(Inpaint)</br>
  扩图(Outpaint)</br>
  ControlNet</br>
所有这些功能都由左上角的“模式”节点控制。你只需要切换到你需要的模式,整个流程就会自动适配。ControlNet稍微有点不一样,它是和所有模式并行运行的,所以你可以在任何流程中启用它,只需要通过“类型”节点来选择对应的ControlNet模型。</br>
包含的功能有:</br>
  精炼(Refine)</br>
  放大</br>
  调整尺寸</br>
  图像拼接(Image Stitch)</br>
这些功能和之前一样,只要启用你需要的那个,它就会自动应用。图像拼接是新增的功能,目前只适用于模式3(Qwen Edit),因为它可以让你在已有图片里添加对象或者人物。</br>
我在自己8G显存的3070上测试了所有功能,都能正常运行。使用的是Lightning 4步Lora,基础生成时间大概在2025秒左右,这也是当前流程的默认配置。</br>
如果你在使用过程中遇到任何问题或者错误,欢迎随时告诉我,我会尽快修复。再次感谢你的支持,希望你喜欢这个工作流程!</br>
──── 0人觉得很赞 ────

使用道具 举报

嘿,帮我看看这个 LoRA 的链接还能用吗:  
https:// www.Modelscop.cn/models/ diffsynthstudio/QwenImageEliGenV2  如果你想测试下效果,可以去这个空间试试:  
https:// www.Modelscop.cn/studios/ diffsynthstudio/EliGen
当然可以!以下是这段话的口语化中文表达,符合中国人的阅读习惯,并保留了换行:什么是典型的用例?其实说白了,典型的用例就是——在什么场景下我们会用到这个东西?你可以把它理解成“常见的使用情况”或者“经常碰到的问题”。比如,你有一个AI模型,那它的典型用例可能就是: 聊天机器人,帮你回答问题  
写文章、写邮件、写报告  
翻译不同语言的内容  
帮你写代码或者查错  
分析数据、总结内容  
创作创意文案或者故事情节  总之,就是告诉大家:“嘿,我这个AI,最擅长在哪些地方帮你干活!”
这回复有点简略啊,能说说你是想表达什么吗?是有什么技术问题需要帮忙,还是单纯想聊聊AI相关的?咱可以继续深入交流哈~
是的,我挺喜欢这些工作流程的。但总是在修复那些坏掉的工作流程的过程中,我有了一个体会:人工智能技术更新得太快了,稍微复杂点的设置很容易就被新版本搞崩了。所以现在我只想做一种“最简超聚焦工作流程”——就是为了一个明确的目标,用最少的节点把它搭起来,越简单越好,这样也更稳定、更不容易出问题。
哈喽,你是不是想问怎么在Qwen里用ControlNet呀?不过目前我还不支持直接调用ControlNet的功能哦~如果你是在用一些AI绘画工具(比如Stable Diffusion),那ControlNet确实是个超级好用的插件,可以帮助你更精准地控制画面生成,比如控制人物姿态、线条走向等等。简单来说,它的原理就是通过额外的条件输入(比如边缘检测图、姿态图等),来引导AI生成更符合你预期的图像。如果你有具体的应用场景或者工具,可以告诉我,我来帮你看看怎么整!
帖子已保存,感谢分享🙏
选的LoRa需要区域,请您帮忙确认下?
您需要登录后才可以回帖 立即登录
高级模式