阿里开源 OmniAvatar:音频驱动数字人模型
https://omni-avatar.github.io/
OmniAvatar 是阿里开源的一款基于 Wan 2.1 的音频驱动数字人模型。用户只需上传图片、音频和脚本,即可生成嘴型精准匹配、带有自然动作和表情的口播视频。
不过要注意的是,这个模型至少需要 36G 显存才能运行。
官方推荐单次生成 30 秒左右的视频片段,这样能达到最佳效果。从目前已有的开源数字人模型来看,OmniAvatar 的表现算是相当出色了。
开源对话式图像编辑器 EasyEdit
https://www.easyedit.io/
EasyEdit 是一款基于 Flux KContext 模型的开源图像编辑器,通过自然对话即可智能修改图片。
佬们可以直接在网页端免登录使用 Flux KContext Dev 基础模型,而 Pro 高级模型则需要提供 APIKey 能用。
NVIDIA 发布 DAM 模型:为图像局部生成详细描述
NVIDIA 推出的 Describe Anything Model (DAM) 是一款多模态大语言模型,它能够为图像或视频中的特定区域生成详细描述,支持通过点击、框选、涂鸦或遮罩等多种交互方式指定目标区域。
目前官方提供了在线体验 demo(虽然有点卡卡的),实际效果还可以。
https://huggingface.co/spaces/nvidia/describe-anything-model-demo