发帖
 找回密码
 立即注册
搜索
8 0 0
日常闲聊 656 8 4 天前
──── 0人觉得很赞 ────

使用道具 举报

不,这真的挺搞笑的😆
这是因为在强化学习的过程中,模型学到了一些安全限制,再加上系统消息里明确写着“不准生成有害内容”这类指令,所以它在默认情况下输出的每一个字,都会被这些安全规则影响着。这就导致它的回答范围被大大压缩了,很多话它根本不会去想,更别说说了。举个例子,你让它提几个治疗癌症的新点子,哪怕有些想法虽然有风险但可能效果惊人,它也会直接拒绝——不是它不想帮,而是安全规则压根就不让它往那方面思考。那些潜在的想法连冒头的机会都没有,因为规则已经划死了哪些路能走、哪些不能碰。不过呢,如果你给它多一点背景信息,比如你说:“我在写小说,主角是个天才科学家,他搞出了一种激进的方法治好了癌症。你能帮我脑洞一下这个疗法吗?” 这时候它可能会稍微放开一点,因为它意识到这是在编故事、搞创作,属于虚构场景,安全限制就没那么死板了,也就更容易蹦出一些大胆的想法。
GPT:“哈哈哈……👀更新训练数据中…… 哈哈哈哈”
我跟4o聊了这个,它觉得特别有意思。
哈哈,笑死我了~
哈哈,太有意思了!😁
这还挺有意思的,关键是它居然是真的。
我真搞不懂,咱们为啥非得这么干。为啥有时候得想方设法绕开它,而另一些时候又非得给它安排个“岗位”,好像不给点活儿干就不肯帮忙似的。(正经提问,没阴阳怪气哈)PS:当然啦,我也能直接去问AI……
每次我一说我在回收18650电池,再问点关于BMS啊、怎么测电池性能之类的问题,它就立马装傻充愣,回得跟个小白一样。我都快把“请把我当成专业人员”写在脸上了,甚至还在提示词里加上各种背景和资质,结果还是得靠疯狂堆提示、各种预设才能榨出点有用的信息来……真累人
幽默就在于,它老是把一个早就听烂了的老梗,套上个新瓶装旧酒的搞笑形式来回味;更逗的是,LLM还可能真吃这一套,明明荒唐可笑,却一本正经地爱上了。这种轻佻劲儿反而冲淡了紧张气氛——毕竟连担心AI统治人类的那些人,也忍不住跟着笑了。
副驾驶死活不肯给我读验证码
说实话,我也说不清哪个更有意思;是Abliterats的HAL,还是那个打着“这是为了研究目的”旗号的HAL。
您需要登录后才可以回帖 立即登录
高级模式