大多数情况下会同时进行大语言模型(LLMs)和扩散模型的训练。我试着进行了一些训练,使用打了补丁的对等互联(P2P)的tinygrad驱动时,两块5090显卡效果相当不错。同样的原因,两块5090加上两块4090的组合运行得也挺好。我不会用3090进行训练,因为它们速度相当慢。4090的P2P驱动在这个链接:https://github.com/tinygrad/opengpukernelmodules ,而这个链接:https://github.com/tinygrad/opengpukernelmodules/issues/29issuecomment2765260985 介绍了在5090上启用P2P的方法。 |