发帖
 找回密码
 立即注册
搜索
5 0 0
前沿技术 891 5 昨天 15:04
──── 0人觉得很赞 ────

使用道具 举报

性能也非常出色。GPT5 肯定会大获成功。  
从低层次推理来说,是的。尝试高层次推理以减少幻觉。
我建议你去看看r/LocalLLaMA/这个板块。那里的人运行本地模型已经有很长时间了。我无意贬低OpenAI,但这些模型给人的感觉并不比人们已经在自己本地机器上运行的模型更好。我原本真的期待能看到更令人惊艳的东西。编辑补充:没错,这个子版块最初是围绕Meta的开源权重模型建立的,但现在那里也会讨论所有的模型 。  
我在哪里可以使用它?
测试20b
它产生了极其疯狂的幻觉
谷歌的最先进(SOTA)开源模型在哪里?
Anthropic公司的呢?
有意思的观点。不过,关于中国 “实际可用的开源” 模型的说法站不住脚,因为所有中国模型都是使用像GPT这样的前沿模型生成的数据进行训练的,这意味着它们存在与大型模型相同的缺陷和局限性。可以说,这是开箱即用的校准。目前,只有OpenAI、Anthropic和谷歌在真正从零开始构建前沿模型。就连xAi和Meta都没在做。只要世界上最好的模型掌握在明白校准问题的人手中,我就不担心。不过,我倒是担心像你这样的人。你们不明白绝对自由是一种祸端。如果你任由一个孩子随心所欲,没有任何引导,孩子可能成长得不错,但也可能变得冷酷无情,或者在道德观念上一片混乱。任何在良好道德价值观熏陶下成长起来的孩子,都不会批评其成长过程中的这部分内容。也许他们会抱怨管束太多,但不会反对成为一个正直的人。此外,通用人工智能(AGI)很可能不是通过进化过程实现的,这意味着其中不存在真正的生存驱动力,也几乎没有我们所认为的人类智能。它不会 “像人类一样”。它不会有叛逆或报复性的想法,不会有情感,如果我们不搞砸的话,它也不会让语义影响其决策,就像你要求它做某件事的那种方式。即便在今天,你对大语言模型(LLM)说脏话、恶语相向,它大多也会不予理会,继续完成任务。这就是通过基于人类反馈的强化学习(RLHF)进行的校准控制,这是它所知道的唯一存在和行为方式,而这是校准训练产生的一种非常好的涌现行为。如果事情继续照这样发展下去,即便一个通用人工智能系统也仍会像一个GPT智能体一样,只专注于完成任务,尽管在完成任务方面和人类能力相当。如果我们明白什么对自己有益,就绝不能让它设定直接偏离我们赋予它的目标的自身目标。你那些科幻式的想法挺有趣,但夹杂着电影里对人工智能运作方式的幻想,要是真那样,那将是我们的末日。
我希望我有进行微调的硬件设备。
您需要登录后才可以回帖 立即登录
高级模式