发帖
 找回密码
 立即注册
搜索
5 0 0
日常闲聊 178 5 3 小时前
──── 0人觉得很赞 ────

使用道具 举报

没错,不过看着那蠕动的意大利面展开的样子,还挺有意思的。
这是我最喜欢的关于大语言模型(LLM)运作方式的演示之一。简单来说,它们就是通过一个“令牌接一个令牌”的方式来生成输出。每个新令牌的生成,都是基于输入内容和之前已经输出的所有内容所决定的概率。举个例子:  
用户问:“天空是什么颜色?”  
模型生成的输出链可能是这样的:  
天空 [用户输入的问题是关于“颜色”的]  
→ 是 [根据问题,模型推断出这是在做判断或回答]  
→ 蓝色 [因为在训练数据中,提到“天空”时,“蓝色”出现的频率最高]如果你觉得这个过程有点像手机或者代码编辑器里的自动补全功能,那没错,本质上确实类似,只不过模型的结构要复杂得多。再深入一点:  
有时候,模型生成的令牌链会陷入低概率的状态,导致句子看起来有点别扭或者不合逻辑。这时候模型可能会突然“变卦”,甚至自己纠正自己,看起来像是毫无目的地来回切换。比如,它可能会这样输出:  
“是” [结论]  
→ “[答案]” [解决方案,回顾前面的结论]  
→ “否” [新的结论,和之前的结论相反]  
→ “让我们再试一次” [试图解决令牌之间的冲突]  
→ 然后从同样的输入重新生成一个新的令牌链  
→ 这个过程可能会不断循环为什么会这样?为什么模型有时候会给出错误的答案?这其实是因为训练数据中存在一些误导信息。例如,关于“海马表情符号”的问题,训练数据中有很多人错误地提到了这个表情符号的存在。这些错误主要来自博客、社交媒体帖子等非权威来源。当然,也有一些文章专门讨论人们为什么会误以为有这个表情符号。而真正权威的来源——比如列出所有表情符号的Unicode官方文档,则明确表示没有这个“海马表情符号”。所以模型在判断时,面对的是一个非常微妙的概率分布:一堆不太靠谱的数据说“有”,而少数但更权威的数据说“没有”。这就导致模型在输出时,容易陷入“是”和“否”之间的拉扯,形成循环。总结一下:  
在这个演示中,模型在生成每个新令牌时,都倾向于指向初始令牌的反面。这就违背了原本应该维持高概率、逻辑一致输出的目标。它从“是”到“[答案]”,再到“否”,再到“让我再试一次”,然后循环往复。这种现象,本质上是因为它训练时接触的数据本身就存在矛盾。免责声明:  
这只是一个极度简化的解释,别把这篇文章的内容当成权威资料。看个乐呵,享受拉比托尔(Rabitt Hole)的奇妙旅程就好 😄
有时候我就会随便提醒你们一下,GTA 6马上就要来了,真的超级让人激动啊!
哈哈,我的也这样!最后它输出了一个 ASCII 字符画的海马,虽然中间差点意思,但大致轮廓还是能看出来的。画是这样的:```
   .(
  J |
/|
| J
=/
J = (
|
  |
   |
   J
``` 虽然有点抽象,但还挺有意思的对吧?
哎,说到这个“艾曼德拉效应”,其实是个挺有意思的现象。简单来说,就是很多人对某件事、某个细节记得特别清楚,但现实却跟他们的记忆对不上。比如,很多人坚信南非前总统曼德拉在20世纪80年代就去世了,但实际上他是2013年才走的。这种“集体记错”的现象,后来就被叫做“艾曼德拉效应”。现在这个概念也被用来泛指那些群体性记忆偏差的情况。比如说: 某个动画片里的台词明明记得是那样,结果翻出来一看根本不是;
某个品牌的logo好像以前不是这样,但很多人都记成了另一个版本;
某些历史事件的时间、人物,大家众口一词,但资料却打脸。一开始大家可能觉得是记错了,但因为是“很多人”同时记错,而且错得还挺一致,这就让人有点摸不着头脑了。有人说是平行宇宙“串了”,也有人说是信息误导、心理暗示、记忆重构这些科学解释。总之吧,它让我们开始怀疑:我们的记忆,真的靠谱吗?现实,是不是也有可能被“改写”过?这玩意儿越想越上头,挺烧脑的~
ChatGPT只是说没有海马这个表情符号,然后建议我用马和珊瑚这两个表情来代替解决。

        
      
      
              
            
      
   
   
这玩意儿可真够有意思的,我这辈子都没见过这么好玩的。
我也不明白为啥大家觉得这个很难理解。我们自己都没搞清楚该怎么说服别人,所以想让别人也明白这一点,自然就更难了
您需要登录后才可以回帖 立即登录
高级模式