GPT5性能不如人意,DeepSeek R1要好得多。
https://images.bigseek.com/forum/202507/22/1754869095.jpghttps://images.bigseek.com/forum/202507/22/1754869096.jpghttps://images.bigseek.com/forum/202507/22/1754869096.jpg 不不,只是普通的GPT 5模型。 我的(模型)马上就开始运用思维模式,仅仅是为了猜测一个单词具体有多少个字母。这有点小题大做了,但我想如果不经过充分思考,即使是简单的提示也会让它产生幻觉(指模型给出不合理输出 )。 “那个里面有多少这个”这确实是实验的最佳标准 在这两种情况中,它都没有进行思考。天知道是哪个版本回复说他们的路由器烂透了。从他们的话来看,似乎他们那蠢笨的路由器正给GPT5纳米版或迷你版发送大量诸如此类的问题。 我觉得他们更新了这个(功能),现在它切换到思考模式来猜测一个单词有多少个字母。 别再就大型语言模型(LLMs)的分词器问题进行刁难了,这很愚蠢。 它使用了网络搜索,却仍然一无所知。 我完全不同意。DeepSeek 不错,但在我个人所做的所有测试中,它都没能打败 GPT5(也比不过克劳德、双子座以及其他大型模型)。我把它当作快速回答简单问题和进行深入研究之间的一种折中方案。当我需要多思考一点但又没时间等待的时候,DeepSeek 对于完成这类中等难度的任务很有用。
页:
[1]