DeepSeek 3.1使用的FP8真的比FP16效果更好吗
<p>DeepSeek新的3.1用的是FP8而不是主流的FP16训练的,是因为FP8是更有优势吗还是只能用国产芯片训练的无奈之举.</p>我跑得稍微早了点,看了一下清仓后到现在的收益,有20个点 直觉上,在同样的算力规模下,与 FP16 相比,使用 FP8 的话 并不能,只是提升了国产芯片的推理效率 FP8算力差不多快了一倍,我了解到很多数据的存储成本也降低了不少,只是得忍受精度损失,还需要手动计算权重,而且它能表示的数比FP16半精度少很多 这可不是性能方面的问题呀,而是根本就没办法使用。估计得再等个一年半载,才勉强差不多能用吧。 什么意思呀?我不太明白你的回复。 原来是因为这个呀,我说这两天怎么天天涨呢。扭来扭去的,在诱惑我呢。
页:
[1]