嘿,大家好!在过去的6个月里,我深陷一个探索之中。
作为一名开发者,我一直纠结于一个问题:为什么和人工智能谈论心理健康时,感觉总是如此空洞呢?最后,我梳理了250多个Reddit论坛帖子,仔细研读了一万多条评论。其中呈现出的模式令人心碎地清晰。
ChatGPT被提及了79次,但每次称赞之后总会跟着一个“但是”。一位用户的这句话完美地概括了这种情况:“ChatGPT能解释量子物理,但当我惊恐发作时,它只是给我罗列要点。
我不需要操作手册——我需要的是一个能理解我正处于恐惧之中的人。”问题似乎归结为三点:失忆。人工智能没有记忆。你可以告诉它你很沮丧,但第二天它就完全不记得了,一切又回到原点。它听到的是词语,而非情感。
它明白“悲伤”这个词在字典里的定义,却完全领会不到其中的潜台词。
它无法分辨“我没事”和“我没事”(语气不同,含义不同)之间的差别。
一刀切。一个22岁的学生和一位45岁的家长得到的是同样千篇一律的建议。
让我震惊的是,人们并非要求人工智能拥有情感。他们只是希望人工智能能理解并记住他们的情感。“理解”这个词出现了54次。
“记忆”出现了34次。想想其中的差别:典型的人工智能回复:“我无法坚持自己的目标。” > “以下是5种基于实证的目标设定策略……”用户似乎想要的回复:“我无法坚持自己的目标。” > “这是你这个月第三次提到这个问题了。
我记得你说过换工作之后,这个困扰变得更严重了。
在讨论策略之前,你现在对自己实际的感受是怎样的?
”第二种回复感觉像是一种关系。这无关是否更聪明,而是在于是否更有洞察力。整个项目让我不禁思考,其他人是否也有同样的困扰。
所以,我想问大家:你们有没有曾感觉被人工智能真正“理解”过?那种情况下有什么不同之处?
如果人工智能能记住关于你情绪状态的一件事来提供更多帮助,你希望是什么?
|