它比纯金属靠谱多了,但现在你可以直接在网上租GPU用,所以根据你的需求和时间安排,完全可以租个A6000之类的显卡用上一阵子,把像vllm或者tabbyapi这些服务都本地跑起来,再通过隧道连出去。从CUDA转到MLX再到CPU,性能差距其实挺大的。当然也能跑,但花同样的钱,你得到的速度和效率可能差很多。而且说实话,现在大多数应用场景根本用不着动不动就上万亿参数的大模型,感觉有点杀鸡用牛刀了。至于说AI会彻底搞垮世界经济体系……确实有这可能,但更多还是像我看自家拼出来的“科学怪人”那样——他们早就清楚这玩意儿其实就是个提线木偶,不是真脑子,毕竟它没法在运行过程中自己判断啥重要、啥不重要。这就是现实。 |