发帖
 找回密码
 立即注册
搜索
23 0 0
前沿技术 642 23 2025-8-6 15:20:20
目前我有一块4080 16GB的显卡,我想再买一块显卡,希望能在本地运行至少700亿参数的模型。我在两款显卡之间犹豫不决,一款是售价1900美元的RTX 8000,它有64GB的显存;另一款是售价2500美元的5090,它有48GB的显存,但在能容纳的数据范围内速度可能更快。你会选择速度更快的,还是显存更大的呢?更新:我决定买5090,和我的4080一起使用。这样的配置应该能运行700亿参数的模型。等6090上市了,我就把4080换掉。
──── 0人觉得很赞 ────

使用道具 举报

2025-8-6 15:33:09
先生,你很了解硬件啊。
2025-8-6 15:44:40
我用的是4090/5090的配置,一台带双线缆的1650瓦金牌电源用起来很不错。
2025-8-6 15:51:25
对于本地运行大语言模型(LLMs)来说,3090显卡需要进行SLI(多显卡互联技术)吗?  
2025-8-6 15:53:05
别在易趣上找,去搜索论坛和本地分类广告。  
2025-8-7 01:28:26
单链路接口(SLI)在运行张量并行(比如使用vllm)方面非常有用。  
那花了多少钱?你打算怎么把5090和4080一起用?
2025-8-7 08:08:27
是啊,就连在美国这边,二手的3090显卡现在也要800多美元了。
2025-8-8 09:55:26
你可以为5090设置显卡优先级,它比4090快两倍多。然后让大部分负载在它上面运行。先用300亿参数的模型,有需要时再用700亿参数的模型。然后考虑卖掉4090,换购一块5090。你的电源需要能支持它。我原来用1200瓦的电源,后来不得不换成1500瓦的,因为原来那个会导致电脑关机。而且我是从洗衣房的40安培电路取电运行的,运行时灯都会变暗。对于推理来说这都没问题,毕竟运行时间也就几分钟。  
2025-8-8 13:29:36
CPU拖累了性能。
在两块GPU上运行速度很快。  
2025-8-8 14:53:29
与使用一个GPU加CPU/内存的情况相比,当模型在多个GPU之间进行拆分时,其性能表现如何?
2025-8-8 15:09:29
在加拿大,那简直是白日梦。我一直看到二手的3090显卡售价高达1200美元。  
它们现在已经用了4年了。到这个时候,那些核心已经磨损得够呛了。虽说在当时这是一款很棒的显卡,但要是你对显卡的使用寿命有所了解的话,就该考虑换新的了。  
2025-8-10 20:04:39
对,这就是为什么我问两块 GPU 分别插在不同 PCI 插槽上时运行情况如何。我的英伟达专业图形卡(Quadros)上有 NVLink 技术,不过我还没试过用其他显卡组建多 GPU 系统。  
2025-8-10 22:44:45
我在一台机器里装了两块3090显卡,在另一台机器里装了一块RTX 8000显卡。要运行基于 Llama 3 的700亿参数(70b)、量化为Q4格式的模型,这两种配置都可行,但在3090显卡上的处理效果明显更好。要是你能接受多等几秒,而且这不会打乱你的工作流程,那一旦运行起来,速度也足够快了。不过,要是追求速度,再加一块5090显卡的性能会远超现在。所以这取决于你怎么使用它。就我个人而言,我通常用32位精度(32b)运行我的模型,使用任何大语言模型(LLM)时,我会用它与一系列小型教科书进行“对话”。但用思考型模型进行问答聊天时,就得稍微等一会儿了 。  
2025-8-11 16:51:05
那听起来像是一台2021年的不错的取暖器。
2025-8-12 10:28:49
那就是我一直看到物价高的地方。
2025-8-12 23:17:51
那是因为你只尝试过能适配它的模型。对于更大的模型,你需要更强的计算能力。
2025-8-13 18:32:52
首先,你很可能需要升级你的电源。但我不建议仅仅为了人工智能就购买顶级游戏硬件。在5090显卡里,你花了钱购买的一堆硅片性能,你可能永远都用不上 。  
2025-8-14 08:20:58
这正是我在我那价值100美元、显存极小的T5810上运行的情况。我在运行220GB的模型,虽说速度比较慢。  
2025-8-14 16:55:10
哎呀,我确实忘记之前的对话内容了。我的记忆有点像金鱼,记性不太好。要不你再跟我说说之前的聊天内容,我这就记下来!
2025-8-15 08:46:58
你可以在哪儿看这些模拟对战的硬件配置呢?
2025-9-1 11:30:02
期待你测试效果
2025-9-2 17:30:03
土豪就是任性哈
您需要登录后才可以回帖 立即登录
高级模式