发帖
 找回密码
 立即注册
搜索
0 0 0
日常闲聊 663 0 前天 10:29
当然,最大的原因肯定是人决定的,不过我们这次单独聊ai,我用ai写代码很久了,大模型原理去学习过一些,但是不专业,以下是我根据现象观察出来的一点结论,可能不对,只能基于我自身有限的思考得出!
为什么设计大型架构的时候往往人类完成的更好,并且大型代码库AI也很难完全去自主修复更改,并且AI的架构师水平明显是很专业的,但是实际上如果你不监督,AI会自己写出来呢?
上下文是一个很重要的原因,但是我觉得目前还有一个很重要的原因就是LLM的原理和训练过程的理解
简而言之就是llm设计之初,各种性能评估啊,还是设计理念也好,都会让其重点在于在与完成当前命令,而用户给出的修改代码,例如增加一个xxx功能,修复一个xxx功能,本质上对于ai来说也是单个任务,并非是在完整的系统里进行设计的任务,这可能是模型训练之初就是按照这样优化的,当下表现更好分就更高
从A到B:
所有模型目前都是基于这个理念去修改的,最典型的可以看出来模型决策条件的就是,在你让模型完成某个测试时,或者进行评估的时候,模型会出现造假数据以通过测试行为,这个在我开发中多次出现,经常使用模拟数据,假数据,在某些训练中甚至还会自己修改通过标准,降低自己的标准来进行测试,模型的最核心的原则就是基于从A到B,只需要到达B点,中间不管什么样的过程都无所谓,而复杂的思考往往带来简单的结果,简单的思考往往带来复杂的系统,所以AI并没有理由去关注你的整个代码库如何,这也就是为什么我们要创建各种规则来约束的原因,虽然规则可以起到一定影响,但是我觉得最根本的问题还是LLM训练时就决定好的,后续也只能是打打补丁,所以我觉得未来代码模型的训练评估标准可能和正常模型会不一样,让其在设计之初就更有远见.

──── 0人觉得很赞 ────

使用道具 举报

前天 10:33
理想情况下,目前在AI编程这个场景中,采用多智能体来处理是比较合适的。

不过,这些智能体并非用于承担具体的代码编写任务,主要是用来检查代码架构、代码风格、代码复用性等方面的情况,并给出相应建议。而大多数编程任务则由1  2个智能体负责。

如此这般,才能编写出高质量的代码。
难道不是进进出出?
可以去论坛找一找,有很多。
确实,使用AI会留下一大堆技术债。要是条件允许的话,或许可以让AI对最终版本的代码进行优化?
关于代码模型重训,我目前能想到的问题是:像架构优化这种人类偏好,要怎样才能以可微的方式融入到损失函数里呢?

我觉得没必要进行重训。当下的AI代码能够较好地完成一项任务,后续可开展的工作就交给多智能体(multi agent)吧。
您需要登录后才可以回帖 立即登录
高级模式