(目前,我正在使用《雪国列车》150亿参数模型 或者 Gemini 2.5闪存版。)不知为何,感觉人们只是给同样的老数据集换个新名字重新包装一下,差异顶多算是微不足道。尤其是在120亿到220亿参数规模的较小模型方面。在过去两年里,我下载了几百个模型(稍微有点夸张),还升级了我的电脑配置,就为了能运行更大的大语言模型。但除了上下文记忆令牌的最大数量略有增加之外,我没感觉到有多大差别。(说实话,它们宣传有12.8万个令牌,但所有现有的大语言模型在超过3万个令牌时,表现得就像患了痴呆症。)回复大多仍然缺乏创意、不合逻辑且条理不清,所以这感觉不像是在和人工智能进行真正的聊天,倒更像是抽奖,我得对结果施加很大影响,还得做很多修改,才能让对话有点有意思的内容。大语言模型似乎连处理几个角色都做不到,人物关系总是模糊不清、相互混淆。没人能记住任何事,一切都太随机了。我感到幻想破灭。也许大语言模型被高估了,它们的设计存在根本缺陷。是我错了吗?我是不是忽略了什么? |