发帖
 找回密码
 立即注册
搜索
0 0 0
快问快答 611 0 2025-8-22 16:01:32

DeepSeek新的3.1用的是FP8而不是主流的FP16训练的,是因为FP8是更有优势吗还是只能用国产芯片训练的无奈之举.

──── 0人觉得很赞 ────

使用道具 举报

2025-8-22 16:37:57
我跑得稍微早了点,看了一下清仓后到现在的收益,有20个点
2025-8-22 17:09:56
直觉上,在同样的算力规模下,与 FP16 相比,使用 FP8 的话
2025-8-22 18:19:58
并不能,只是提升了国产芯片的推理效率
2025-8-23 15:14:06
FP8算力差不多快了一倍,我了解到很多数据的存储成本也降低了不少,只是得忍受精度损失,还需要手动计算权重,而且它能表示的数比FP16半精度少很多
2025-8-23 23:17:43
这可不是性能方面的问题呀,而是根本就没办法使用。估计得再等个一年半载,才勉强差不多能用吧。
2025-8-25 05:37:35
什么意思呀?我不太明白你的回复。
2025-8-25 09:23:35
原来是因为这个呀,我说这两天怎么天天涨呢。扭来扭去的,在诱惑我呢。
您需要登录后才可以回帖 立即登录
高级模式