发帖
 找回密码
 立即注册
搜索
5 0 0
日常闲聊 313 5 5 小时前
用ChatGPT和其他大模型用得越多,我就越开始怀疑,我们是不是太滥用“智能”这个词了?
当然,它们确实很实用,我每天都在用。但很多时候,它们的表现更像是在做预测,而不是真正的思考。它们并不像人类那样真正“理解”上下文,在需要常识的问题上,基本都会翻车。
所以我就在想,如果这还称不上真正的智能,那下一步应该怎么走?是不是需要比Transformer更牛的架构?还是得靠更强的多模态推理能力?
我挺想知道大家怎么看的:我们到底是在通往通用人工智能(AGI)的路上,还是说我们只是在打造一个更高级的“自动补全”工具?
──── 0人觉得很赞 ────

使用道具 举报

这其实是一种智能形式,而且这类智能还有很多种。你的直觉是对的。我们最终会实现那个目标,但不一定非得靠大语言模型(LLM)不可。
它们是非常棒的上下文感知型匹配系统,说白了就是能根据上下文来找到最合适的回答。但它们在逻辑推理这方面,也就稍微会那么一点点。因为训练数据不够密集,所以在一些领域,AI还是会容易“胡说八道”,也就是我们常说的幻觉问题,这到现在还是个大难题。
他们有没有在任何事情里提出全新的、原创的想法呢?还是说根本无法从他们的投入中提炼出什么有价值的思想?这可能不完全等同于智力高低,但有一点是肯定的——创造力和创新思维确实是智力的一部分,而这种思维方式,往往是典型的“左脑人”不擅长的。
虽然这些大模型确实很厉害,但也让我更佩服人类的大脑。你想想,得花上几十亿的投资,才让机器说出跟我们普通人差不多的话来。
我觉得吧,它们其实也没多聪明,但确实在NLP、处理非结构化数据、语义搜索和语义API调用这些方面带来了不小的突破。  
光凭这些,就已经够得上一场技术革命了。  
不过,如果你真觉得它们多聪明,或者相信什么“你口袋里的博士”这种说法,那你肯定没去问过足够多、足够有代表性的问题。
好的,我是一个技术达人和AI爱好者,会用更贴近日常说话的方式来表达内容。如果你有需要转换的文本,尽管发过来吧!
这是一款非常非常先进的模型和统计软件。但它并不具备真正的智能,也不是有意设计成那样的。也许将来会有那么一天,但要实现整体设计上的彻底改变,还需要很长的路要走。
您需要登录后才可以回帖 立即登录
高级模式