登录发现更多内容
首页
板块
ai工具
导读
发帖
用户名
Email
自动登录
找回密码
密码
登录
立即注册
登录
立即登录
立即注册
微信登陆
首页
版块
BBS
导读
勋章
任务
发帖
搜索
搜索
热搜:
活动
交友
discuz
本版
文章
帖子
用户
收藏
道具
勋章
任务
门户
导读
排行榜
设置
我的收藏
退出
2
0
0
首页
日常闲聊
›
华为出了个96GB显存的GPU卡,叫Atlas 300I Duo 这卡性 ...
返回列表
华为出了个96GB显存的GPU卡,叫Atlas 300I Duo 这卡性能挺猛,主要用在人工智能和高性能计算这些领域里 不管是跑深度学习模型还是做复杂的数据处理,这块卡都能扛 说白了,这就是华为自家搞的加速卡,适合数据中心、边缘计算这些场景用 想了解它干啥用的、性能咋样,可以继续问我~
[ 复制链接 ]
gr2302484
UID:395
萌新
发布新帖
日常闲聊
825
2
6 天前
BigSeek
96GB
GPU
华为
点赞
0
收藏
0
────
0
人觉得很赞
────
相关帖子
Magicwan 2.2 T2I —— 就是那个文本生成图像的模型,现在变成了单文件版本的WF模型。
我问了ChatGPT该怎么处理那个180亿美元的强力球大奖…… 它竟然给我整出一个蓝图,说要让人摆脱“为五斗米折腰”的生活,还顺手设计了一套文化转型的方案。
科技公司的CEO们在白宫轮流夸赞特朗普:“感谢你成为这么一位支持商业、鼓励创新的总统,这种改变真是让人眼前一亮,”奥特曼说道。
Salesforce的CEO确认要裁员4000人,他说:“因为我需要更少的人工智能。”
用ChatGPT提示生成这张图片的完全副本,什么都不要改,连续试了74次。
图制作者用的是Qwen图像编辑GGUF 4步法Lora 图制作者Lora
哎呀,终于等到这一刻了...
有没有人试过这个啊?
VibeVoice 凉了?你在想啥呢?
paypal白嫖完pplx之后,记得取消自动续费
回复
使用道具
举报
11 回复
wuchao
回复
使用道具
举报
6 天前
我经常说,如果一个东西在市场上买不到,那它就等于不存在(比如英伟达发的那些论文里的技术)。再好的技术,如果显存带不动,跑起来也是龟速。所以我觉得吧,只要哪个模型或者技术能真正以稳定的驱动形式在国外市场铺开,那就说明它已经成熟到足够我们这些用不起服务器硬件、也没在英伟达上砸钱的普通人使用了。
回复
点赞
评论
使用道具
举报
7.10
回复
使用道具
举报
6 天前
哎哟,你这是在说LPDDR4内存啊?!这玩意儿现在都成老古董啦!不过话说回来,当年它可真是手机圈的香饽饽呢!要是放在现在,那性能可就不够看了。你是不是在研究啥老设备啊?还是想给啥玩意儿升级配置?来来来,给我说说具体情况呗!
回复
点赞
评论
使用道具
举报
lianyuan1986
回复
使用道具
举报
6 天前
他们好像更想搞个大市场,而不是光靠培训那点收入……是吧?卖B200/B300的利润其实更高,你只需要搞定一家公司,这家公司就能一次性买几千套。
不像做消费级产品,得去说服上万个客户、经销商、售后等等。
回复
点赞
评论
使用道具
举报
为爱
回复
使用道具
举报
6 天前
这玩意儿被宣传成一款推理芯片。看样子,他们想在推理市场这块蛋糕上,比训练市场分到更大的一块……
回复
点赞
评论
使用道具
举报
蓝心
回复
使用道具
举报
6 天前
96GB 单插槽,150W 功耗,这组合挺有意思的啊
回复
点赞
评论
使用道具
举报
暖月
回复
使用道具
举报
6 天前
150瓦,不是电弧炉。它更像是一个大型模型的“送货车”,虽然看起来是慢慢悠悠、稳稳当当的那种。但不知为啥,它被过度优化了,可能也没那么慢。我很期待看看它到底有什么本事。那个开发工具包看起来像是个挺有意思的玩具,用来学习架构应该不错。
回复
点赞
评论
使用道具
举报
JCRen.net
回复
使用道具
举报
5 天前
还要记住,他们的重点会放在通义千问(Qwen)这类国产大模型上。他们会把所有的驱动支持、优化工作,比如像 SGLang 这样的推理框架,都集中投入进去。这算是英特尔跟 Arc 合作迈出的第一步。不过我估计,他们最终可能只会把这个优化做得更好,但也就是一个系列的模型而已,不会有太多扩展。有点像你看到的 PS、Xbox、Switch 这些游戏主机,它们能用消费级 GPU 跑得很溜,是因为他们一直在针对特定的工作负载去优化芯片组。
回复
点赞
评论
使用道具
举报
L_LiBIy
回复
使用道具
举报
5 天前
啊,对,对不起,我刚刚在想麦克斯的事。我会保留我原来的回复,并坦然接受这份“荣誉”🤣
回复
点赞
评论
使用道具
举报
qidi
回复
使用道具
举报
5 天前
我不清楚这新AI显卡底部用的是啥硅材料,不过看这架势应该是DDR4吧?感觉挺靠谱的。其实像这种低端显卡做AI推理,也不需要那种超高带宽的VRAM,华为应该也是考虑到这一点。我还挺好奇,Optane内存会不会在AI推理这块市场重新火起来?记得以前它的控制器和互联接口是限制因素。但如果设计得当,用Optane做个高效的推理卡也不是不可能。关键是它属于持久内存,你要是有个1TB或者500GB的大模型,关机状态下也能秒开,这优势还是挺明显的。
回复
点赞
评论
使用道具
举报
佑普|律师
回复
使用道具
举报
4 天前
哎,这AI真不咋地啊。
回复
点赞
评论
使用道具
举报
henry43
回复
使用道具
举报
3 天前
比LPDDR5X更强的Ryzen 395 AI Max……我们直接上128GB内存如何?
好奇在多块GPU的情况下,这套配置能跑出什么效果。
这意味着内存带宽虽然不是顶级,但容量足够大,应该挺适合MOE这类模型。
再加上API支持,估计它应该能跑Vulkan吧?
回复
点赞
评论
使用道具
举报
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
立即登录
微信登陆
点评
高级模式
本版积分规则
回帖后跳转到最后一页
浏览过的版块
技术交流
最新回复
1
Magicwan 2.2 T2I —— 就是那个文本生成图像的模型,现在变成了
2
不讨喜的看法:AI 的爆发式增长阶段其实已经过去了
3
我问了ChatGPT该怎么处理那个180亿美元的强力球大奖…… 它竟
4
老外对中国科技的各种想象
5
科技公司的CEO们在白宫轮流夸赞特朗普:“感谢你成为这么一位支
6
双截棍 v1.0.0 正式发布啦!
7
Salesforce的CEO确认要裁员4000人,他说:“因为我需要更少的人
8
kimi2-0905必须启用max_token,不然会是智障
推荐版块
日常闲聊
资源分享
快问快答
教程文档
福利活动
统计信息
会员数: 1243 个
话题数: 14297 篇
巅峰数: 144 人
首页
板块
AI工具
导读
我的