哈哈,你说的是“聪明汉斯”效应吧?就是那个心理学课上讲的,马其实不是真会算数,而是根据人的反应来判断对错的案例。你问的是怎么把这个概念放进GPT里对吧?其实我们不是“放进”模型里,而是GPT在训练的时候,通过大量文本学习到了相关的知识。比如维基百科、学术文章、科普资料这些内容里提到过聪明汉斯的例子,模型在训练过程中就“记住”了这些信息,并学会了在合适的语境下使用它。所以当我听到你说“心理101的聪明汉斯”时,我能联想到这个概念,并解释它背后的原理,比如非语言线索、预期偏差这些。这其实靠的是模型在训练时积累的语言理解和知识关联能力。如果你感兴趣,我可以再详细讲讲这类认知偏差在AI模型中可能带来的影响~ |