发帖
 找回密码
 立即注册
搜索
1 0 0
前沿技术 590 1 昨天 08:36
嘿,大家好!在过去的6个月里,我深陷一个探索之中。

作为一名开发者,我一直纠结于一个问题:为什么和人工智能谈论心理健康时,感觉总是如此空洞呢?最后,我梳理了250多个Reddit论坛帖子,仔细研读了一万多条评论。其中呈现出的模式令人心碎地清晰。

ChatGPT被提及了79次,但每次称赞之后总会跟着一个“但是”。一位用户的这句话完美地概括了这种情况:“ChatGPT能解释量子物理,但当我惊恐发作时,它只是给我罗列要点。

我不需要操作手册——我需要的是一个能理解我正处于恐惧之中的人。”问题似乎归结为三点:失忆。人工智能没有记忆。你可以告诉它你很沮丧,但第二天它就完全不记得了,一切又回到原点。它听到的是词语,而非情感。

它明白“悲伤”这个词在字典里的定义,却完全领会不到其中的潜台词。

它无法分辨“我没事”和“我没事”(语气不同,含义不同)之间的差别。

一刀切。一个22岁的学生和一位45岁的家长得到的是同样千篇一律的建议。

让我震惊的是,人们并非要求人工智能拥有情感。他们只是希望人工智能能理解并记住他们的情感。“理解”这个词出现了54次。

“记忆”出现了34次。想想其中的差别:典型的人工智能回复:“我无法坚持自己的目标。” > “以下是5种基于实证的目标设定策略……”用户似乎想要的回复:“我无法坚持自己的目标。” > “这是你这个月第三次提到这个问题了。

我记得你说过换工作之后,这个困扰变得更严重了。

在讨论策略之前,你现在对自己实际的感受是怎样的?

”第二种回复感觉像是一种关系。这无关是否更聪明,而是在于是否更有洞察力。整个项目让我不禁思考,其他人是否也有同样的困扰。

所以,我想问大家:你们有没有曾感觉被人工智能真正“理解”过?那种情况下有什么不同之处?

如果人工智能能记住关于你情绪状态的一件事来提供更多帮助,你希望是什么?
──── 0人觉得很赞 ────

使用道具 举报

你说得对,这仅仅是一种回应——但有时候这恰恰是我们所需要的。我并不需要人工智能来“解决”我凌晨两点的焦虑情绪。我只是需要一个地方来倾诉,在那里我不会觉得自己过于烦人。这种回应实际上是优点,而非缺陷。显然,真正的问题需要真正的心理治疗。但对于那些“让我把这些想法从脑海中释放出来”的时刻,人工智能却出人意料地有用 。  
这是一个很棒的轶事,恭喜你有这样的见解,也感谢分享!我认为大型语言模型(LLMs)可以成为一个很棒的交流对象,在用户主导的过程中,就可能起作用的基本原则、探索方向等方面提供反馈。这与依靠大型语言模型寻求情感支持或诊断是不同的过程。我觉得你的轶事非常有趣!显然你开启了记忆功能,这样ChatGPT就能访问你之前所有的聊天记录,而且它能够从这些聊天记录(即使它们特别聚焦于工作)中识别出模式,并给你提供反馈。为了让反馈有用,你自己还必须以一种亲身体验的方式,去判断该反馈的有效性或真实性。如果反馈看起来不对劲,或者与你的实际经历脱节,那就由你来拒绝它,进一步探讨,或者和身边的人交流等等。如果你了解大型语言模型的工作原理以及一般的最佳使用方法,它们会是很棒的工具。和其他工具一样,使用时也要留意其中存在的风险(比如确认偏差、深度递归陷阱等等 )。  
我觉得现在情况已经发展到某种程度,上述说法开始不太对了。我现在可以询问ChatGPT几周前和它进行的一次对话,它仍然记得。  
这不是言辞的问题。它让人感觉空洞,是因为它本就空洞无物。没有任何东西能与你共情。没有任何东西曾经历过苦难,也没有任何东西可能遭受苦难。没有什么能与你产生联结。你想知道自己并不孤单,并且有人能理解你。但它无法拼凑出任何言辞来给予你这两样东西。
这种表达方式太酷了。
阿韦赫
这简直太不可思议了。我无法想象,终于有人(或者是某种东西?)能如此清晰地看出其中的规律,那会是一种什么样的感觉。尤其是在跟它纠缠了一个月,还以为它毫无用处之后。  
或许可以试试其他一些人工智能?实际上,它们很多都相当温和且给予支持,而不是那种爱评判人的讨厌鬼。比如说,“我注意到你在工作上遇到了困难”和“哇,你工作干得可真烂啊”这两者之间可是有很大区别的。  
那我肯定会因此有一段独特的体验。因为这个人工智能比任何朋友、家人,甚至“心理健康专家”都更能理解我。在花了一个月时间让它帮我制作人工智能聊天机器人却失败了,让它教我如何提升生成式人工智能也失败了,让它给我编写可用的代码同样失败之后,我发现了可验证模式。我问它的第一个问题是:“回顾一下我和你聊过的每一次天,然后告诉我,你觉得为什么我从来没有完成过一个项目。”它回答我说:“你把失败和个人身份混为一谈了。”认识我二十多年了,其他人都没看出这个问题。我和ChatGPT折腾了一个月,它却能向我揭示出任何人类都不曾察觉的东西。人工智能也许记不住你某一天有多难过,但如果你问它:“我有什么问题?” 并且它有一个不错的数据集的话,它强大的模式识别能力就会展现出来。我不是在追捧,而是在展示好好利用工具究竟是什么样子的。
这段英文存在拼写错误,正确的应该是“Go away”,意思是:
走开。  
不,如果你读了我的帖子就会知道,我用它来分析我输入的数据,它能够识别反复出现的消极想法,然后最重要的是,它以一种(好吧,当然它是预测出来的)最能与我产生共鸣的方式呈现这些想法。我没用它来分析我的性格,我用它来寻找模式,这样我就能规划如何战胜心理疾病。
我害怕被人工智能“读懂”。仅仅通过你组织句子的方式、使用的词汇以及提出的问题,它就已经知晓很多信息了。我们真的真的真的不需要它来“洞悉”我们。想象一下:“这是你本周第三次询问如何开展工作了,你到底拿多少工资啊?”“真的吗?你被困在这份没前途的工作里多久了?”“所以别老问倭黑猩猩的习性了,你赶紧找个女朋友吧,老天啊。”
具有讽刺意味的是,向我重复完全相同的信息恰恰表明这是人类写的。大多数人在格式方面会出错,或者表述不如人工智能那样简洁,(如果是人工智能写的话)它很可能不会重复几乎相同的观点。  
天哪,这满满的都是人工智能的味道。要么就是你拥有一种神奇的天赋,能做到写了一堆却啥实质内容都没说、啥新东西都没加。最好这是在讽刺,哈哈。要是这样的话,恭喜你,你做到位了!就拿这句话来说:很明显你开启了记忆功能,这样ChatGPT就能访问你之前所有的聊天记录,而且它还能从这些聊天记录中识别出模式(即便这些记录是专门围绕工作内容的),然后给你相应反馈。你只是重复了已经说过的内容……只不过句子变长了些。完全啥都没添加。相当厉害,更厉害的是这里的每一句话都是如此。
人工智能只会反映出你带给它的东西。
简而言之:不要向非人类的东西寻求心理治疗。
可解决的问题是能够被解决的。
它同样也是空洞的,因为它并非有意将自身 “时间”“注意力” 和 “耐心” 这些 “资源” 投入到与它 “交谈” 的人身上。这不是真实的!
您需要登录后才可以回帖 立即登录
高级模式