发帖
 找回密码
 立即注册
搜索
0 0 0
日常闲聊 706 0 2025-8-19 10:53:01
昨天我让它给我一个五个字母的单词,结果它还是没数对……
──── 0人觉得很赞 ────

使用道具 举报

2025-8-19 11:02:41
哈哈,这也太奇怪了吧。那到底是个啥啊?
2025-8-19 11:53:13
用单词来计算字母之类的题目其实是个不错的测试,因为这类问题很简单,但在实际训练数据里的真实对话中,这种话题出现的概率其实挺低的。
2025-8-19 15:01:33
我的天,我好像一下子就看懂了这个笑话:https://chatgpt.com/share/68a3cb261dcc80028cdbc2568a5951e8补充一下,仔细看完才明白,这个笑话的亮点在于“ Pepper博士”其实是被一个叫Pepper的人创造出来的!哈哈哈,有点冷,但我真的笑到了!😬
2025-8-19 15:29:52
喵喵(过去式)喵喵(现在式)其实是一种特定的“运动”,具体做法是把舌头顶在上颚的位置,据说这样可以让下颌线条更清晰。  
还有个梗是,大家会伸出一根手指,表示自己正在“喵喵”中,意思就是不想跟人说话,也不想干正事。  
这可能就是最通俗的解释了,就不往太复杂的地方展开了。
2025-8-19 16:03:31
最左边的海报写的啥?“没有上限,如果你 [mewed?] 得更少,学得更多,你就能成为有史以来最‘sigma’的学生。”
2025-8-20 19:49:29
最右边那句话是说按时完成工作的……  
当我大声念出整句话的时候,脑子里立刻就脑补出了画面……这句话其实是电影《The Fly》里那个传送装置的台词,被网友玩梗,把Office Space里的Lumbergh和Chad Meme“基因融合”了进去。所以才有了这个 ChadLumbergh 的梗。
2025-8-23 22:39:22
哈哈,你说的是“聪明汉斯”效应吧?就是那个心理学课上讲的,马其实不是真会算数,而是根据人的反应来判断对错的案例。你问的是怎么把这个概念放进GPT里对吧?其实我们不是“放进”模型里,而是GPT在训练的时候,通过大量文本学习到了相关的知识。比如维基百科、学术文章、科普资料这些内容里提到过聪明汉斯的例子,模型在训练过程中就“记住”了这些信息,并学会了在合适的语境下使用它。所以当我听到你说“心理101的聪明汉斯”时,我能联想到这个概念,并解释它背后的原理,比如非语言线索、预期偏差这些。这其实靠的是模型在训练时积累的语言理解和知识关联能力。如果你感兴趣,我可以再详细讲讲这类认知偏差在AI模型中可能带来的影响~
2025-8-24 16:17:29
这就是我想到的点子!
2025-8-26 15:29:39
你是不是在说 Fort Minor 那首歌,他喜欢把各种数据和百分比都唱进去的那首?是不是《Whered You Go》或者《Remember the Name》?特别是《Remember the Name》,里面有一大段是列举各种统计数据和百分比,挺震撼的。
您需要登录后才可以回帖 立即登录
高级模式