发帖
 找回密码
 立即注册
搜索
0 0 0
快问快答 462 0 昨天 16:01

DeepSeek新的3.1用的是FP8而不是主流的FP16训练的,是因为FP8是更有优势吗还是只能用国产芯片训练的无奈之举.

──── 0人觉得很赞 ────

使用道具 举报

我跑得稍微早了点,看了一下清仓后到现在的收益,有20个点
直觉上,在同样的算力规模下,与 FP16 相比,使用 FP8 的话
并不能,只是提升了国产芯片的推理效率
FP8算力差不多快了一倍,我了解到很多数据的存储成本也降低了不少,只是得忍受精度损失,还需要手动计算权重,而且它能表示的数比FP16半精度少很多
您需要登录后才可以回帖 立即登录
高级模式