warkinger 发表于 2025-7-3 09:18:52

250703 AI日报:阿里开源 OmniAvatar;NVIDIA 发布 DAM 模型

<h3>阿里开源 OmniAvatar:音频驱动数字人模型</h3>
<iframe src="https://player.bilibili.com/player.html?isOutside=true&amp;aid=114786540983903&amp;bvid=BV1Fn3YzME2E&amp;cid=30819483777&amp;p=1&amp;danmaku=0" scrolling="no" border="0" frameborder="no" framespacing="0" allowfullscreen="true"></iframe>
<p>https://omni-avatar.github.io/</p>
<p>OmniAvatar 是阿里开源的一款基于 Wan 2.1 的音频驱动数字人模型。用户只需上传图片、音频和脚本,即可生成嘴型精准匹配、带有自然动作和表情的口播视频。</p>
<p>不过要注意的是,这个模型至少需要 36G 显存才能运行。</p>
<p>官方推荐单次生成 30 秒左右的视频片段,这样能达到最佳效果。从目前已有的开源数字人模型来看,OmniAvatar 的表现算是相当出色了。</p>
<h3>开源对话式图像编辑器 EasyEdit</h3>
<iframe src="https://player.bilibili.com/player.html?isOutside=true&amp;aid=114786540983926&amp;bvid=BV1Fn3YzMEmc&amp;cid=30819484073&amp;p=1" scrolling="no" border="0" frameborder="no" framespacing="0" allowfullscreen="true"></iframe>
<p>https://www.easyedit.io/</p>
<p>EasyEdit 是一款基于 Flux KContext 模型的开源图像编辑器,通过自然对话即可智能修改图片。</p>
<p>佬们可以直接在网页端免登录使用 Flux KContext Dev 基础模型,而 Pro 高级模型则需要提供 APIKey 能用。</p>
<h3>NVIDIA 发布 DAM 模型:为图像局部生成详细描述</h3>
<iframe src="https://player.bilibili.com/player.html?isOutside=true&amp;aid=114786540980888&amp;bvid=BV1fn3YzTEVR&amp;cid=30819484438&amp;p=1" scrolling="no" border="0" frameborder="no" framespacing="0" allowfullscreen="true"></iframe>
<p>NVIDIA 推出的 Describe Anything Model (DAM) 是一款多模态大语言模型,它能够为图像或视频中的特定区域生成详细描述,支持通过点击、框选、涂鸦或遮罩等多种交互方式指定目标区域。</p>
<p>目前官方提供了在线体验 demo(虽然有点卡卡的),实际效果还可以。</p>
<p>https://huggingface.co/spaces/nvidia/describe-anything-model-demo</p>

xingke 发表于 2025-7-3 09:31:28

为啥这些ai说话方式都这么夸张?

five 发表于 2025-7-3 09:31:58

英子这个感觉一般啊 没有很惊艳的感觉

hao898 发表于 2025-7-3 09:33:36

xingke 发表于 2025-7-3 09:31
为啥这些ai说话方式都这么夸张?

凸显技术力,实际使用不还是看用户怎么给词吗

davie67 发表于 2025-7-15 14:00:03

这么多新奇模型呀

huchuanhao 发表于 2025-8-16 17:00:02

这些开源模型挺强
页: [1]
查看完整版本: 250703 AI日报:阿里开源 OmniAvatar;NVIDIA 发布 DAM 模型