发帖
 找回密码
 立即注册
搜索
0 0 0
日常闲聊 938 0 2025-8-25 14:30:36
我就是说,GPT 开源版 20b 应该能搞定这个问题,社区也肯定会分享反馈  
自动轮着检查每个建议,显示出趋势建议啥的……多简单的活儿啊,像个傻鹅一样。真不敢信他到现在还没整这个功能
──── 0人觉得很赞 ────

使用道具 举报

2025-8-25 14:33:16
更让人想不通的是,除了在推特上回复征求建议,他怎么啥也不干呢?u/askgrok
2025-8-25 16:15:31
那必须的啊!
2025-8-25 16:56:31
他的帖子用词,很大程度上暴露了他的外展意图:“……让人讨厌,但还想更多”这种说法,一看就是个从来没想过要征求反馈的人写的,就像他突然间对现实有了种扭曲的理解一样。说白了,他好像到现在为止,一直都只是把用户当成训练自己模型的数据源😂
这是公关手段而已,他其实并不真正在意在那里能得到什么反馈。  
这招还真管用了,你不是又重新发了吗。
2025-8-26 10:32:24
我觉得可以这么说,奥特曼在推特上搞的那波即时反馈,肯定不是oai用户研究活动的全部内容。
2025-8-26 16:21:39
幸运的是,OpenAI 的小伙伴们应该能看到这篇文章,现在已经有 54K 的浏览量了。
2025-8-27 01:32:37
哎,真郁闷,Cursor这会儿基本上被Claude的代码给整得没法用了。
2025-8-27 16:02:19
我想要一个 OpenAI 的共享点,可以用来存储文件,这样我就能直接访问 ChatGPT,而不用每次都复制粘贴。这样一来,和任何 IDE 配合使用也会更方便。
2025-8-27 21:02:31
这其实是在说,真正的人类得去读这些建议。用那种类似NLP AI的傻乎乎的客服聊天机器人,反而比用大语言模型(LLM)的更容易。人们费了老大劲,结果天都不让咱好好吃口饭、住个安稳觉。
我的第一个特点,是对合法来源的完美引用。我试过那些自定义GPT,也看到别人做了一些尝试,但说实话,它们做得并不比我好。我甚至能把O3模型调教得非常接近理想状态,但这个过程就像拔牙一样痛苦,而且结果还是不够完美。我说的这些引用,都是来自知名出版物上的同行评审研究,不是什么地方健康会所的软文博客,靠的是SEO优化而不是内容质量。我要的是那种近乎苛刻的事实核查能力,有点像NotebookLM那种风格,但适用于整个互联网上的任何有证据支持的说法。理想状态下,我可以根据你选择的引用格式(比如AMA),自动生成引用,并精确标注到文章中的具体位置(比如页码、栏位、段落或行号)。这样一来,能解决一大半的“幻觉”问题,事实核查也会变得非常轻松。不管以后是谁接手我的工作,这套机制都能派上用场。补充一下,我自己也试过用自定义GPT和项目文件夹来实现这个目标,但输出结果既不准确又不稳定,根本没法完全信任。
您需要登录后才可以回帖 立即登录
高级模式