当然,最大的原因肯定是人决定的,不过我们这次单独聊ai,我用ai写代码很久了,大模型原理去学习过一些,但是不专业,以下是我根据现象观察出来的一点结论,可能不对,只能基于我自身有限的思考得出! 为什么设计大型架构的时候往往人类完成的更好,并且大型代码库AI也很难完全去自主修复更改,并且AI的架构师水平明显是很专业的,但是实际上如果你不监督,AI会自己写出来  呢? 上下文是一个很重要的原因,但是我觉得目前还有一个很重要的原因就是LLM的原理和训练过程的理解 简而言之就是llm设计之初,各种性能评估啊,还是设计理念也好,都会让其重点在于在与完成当前命令,而用户给出的修改代码,例如增加一个xxx功能,修复一个xxx功能,本质上对于ai来说也是单个任务,并非是在完整的系统里进行设计的任务,这可能是模型训练之初就是按照这样优化的,当下表现更好分就更高 从A到B:
所有模型目前都是基于这个理念去修改的,最典型的可以看出来模型决策条件的就是,在你让模型完成某个测试时,或者进行评估的时候,模型会出现造假数据以通过测试行为,这个在我开发中多次出现,经常使用模拟数据,假数据,在某些训练中甚至还会自己修改通过标准,降低自己的标准来进行测试,模型的最核心的原则就是基于从A到B,只需要到达B点,中间不管什么样的过程都无所谓,而复杂的思考往往带来简单的结果,简单的思考往往带来复杂的系统,所以AI并没有理由去关注你的整个代码库如何,这也就是为什么我们要创建各种规则来约束的原因,虽然规则可以起到一定影响,但是我觉得最根本的问题还是LLM训练时就决定好的,后续也只能是打打补丁,所以我觉得未来代码模型的训练评估标准可能和正常模型会不一样,让其在设计之初就更有远见.
|