发帖
 找回密码
 立即注册
搜索
2 0 0
前沿技术 703 2 2025-7-23 16:53:19
──── 0人觉得很赞 ────

使用道具 举报

2025-7-23 16:53:32

没什么?
2025-7-23 16:53:45

一方面,基于全新技术的实验项目60% 惊人的成功率。另一方面,如果这些项目正在取代人类的工作,60% 整个行业的裁员将是严重的。
2025-7-23 16:54:16

没错。但是现在当它自动化时,它可以破纪录的速度产生倾斜。耶.
2025-7-23 16:57:36
在这一点上,我们可以接触到大约六个。
哪些。名字2或3。
2025-7-23 17:45:52

太糟糕了,他们没有提到他们可以坚持不懈地以这种速度纠正自己。即使30% 的效果是巨大的,如果它的化合物。
2025-7-24 00:36:35

我的兄弟是一名软件工程师或类似的人,十年前曾抱怨说,他和他的同事花了更多的时间来修复那些被外包给更便宜的国家的糟糕代码,但交付时却无法使用。我想现在是人类在浪费时间修复AI slop代码。
2025-7-24 01:46:34

有很好的工具可以为您做到这一点,而无需编写代码。只是需要做一点研究。
2025-7-24 10:45:35
如果你不能用才华让他们折服,那就用废话把他们搞晕。——美国新座右铭
2025-7-24 10:59:11
以我的经验来看,人工智能在某些任务上表现得极其出色,能在几秒钟内完成原本需要一周时间才能写完的内容。但在其他任务上,它却表现得一塌糊涂,与手动完成所有工作相比,反而浪费了时间。而且似乎没办法提前判断它在某项任务上的表现如何 。  
2025-7-24 11:15:41
任何因工作被迫使用这玩意儿的人都能跟你讲清楚。到目前为止,人工智能的真正价值在于人们在被强制使用之前是如何利用它的。就是一个简单的聊天窗口,能快速获取一些谷歌已经糟糕到无法再为你提供帮助的问题的答案 。  
2025-7-24 11:43:12
不,只是根据你对该定义的解读(才这么认为)。这个定义本身就并非泾渭分明,确切地说,是因为在无智能和有智能之间存在一个渐变的过程。但是,别让我妨碍你刻意以一种让你自己感觉良好的方式去解读(其实是曲解)它。这里没什么更多可说的了。我将静音回复通知。拜拜。  
2025-7-24 12:08:38
我觉得你在这里存在严重的误解。谷歌从未进行过任何有意义的事实核查。事实核查是人类的工作。对于任何还算过得去(甚至更好)的研究而言,这绝对至关重要,而人工智能除了一些宽泛的概况之外,根本无法做到这一点。所以它无法真正恰当地研究任何事情,因为你得自己去核实:其一,信息是真实的;其二,信息来源具备足够的权威性;其三,信息没有以任何方式被歪曲。  
2025-7-24 12:20:36
不过,Github Copilot对我来说相当不错。90% 的时候完全能用(而且符合我们使用的代码风格)。10% 的时候明显没什么用。
2025-7-24 12:24:44
这是在制造恐慌。和人工智能领域的大多数情况一样,它虽然仍在陈述事实。但这并不意味着它不是在制造恐慌。当然,当前这一波人工智能智能体行不通。自ChatGPT公开以来,任何使用过它的人都能跟你讲清楚这一点。但我也可以向你保证,公众所使用的和像OpenAI这样的私营企业所拥有的技术,两者之间相差大概一年甚至更久。到2027年,情况将会大不相同。看看威尔·史密斯那间隔一年的“意大利面”视频就知道了。在最初用人工智能制作的威尔·史密斯那令人不安且效果不佳的视频里,就有人工智能智能体的影子。但一年后,情况就不一样了。但就像达勒(Dahle,此处可能有误,推测信息不足)刚问世时,企业就试图用一个未完善的产品迅速盈利一样。人工智能智能体的情况也是如此 。  
2025-7-24 17:43:57
我之前没考虑到这一点……我原以为这只是过去几年里谷歌持续“摆烂”,结果促使人们转向他们的人工智能聊天机器人,这意味着人工智能用户,也就意味着大把的“炒作美元”,所以他们就任由这种情况发展。但很明显,额外的搜索量也能让他们赚一笔,所以何乐而不为呢,对吧。
2025-7-25 09:01:45
这项技术至少有50年历史了。
发生变化的是规模的扩大以及更强的计算能力。
2025-7-25 09:36:32
看起来这对你来说是个敏感的话题,因为你想感觉自己与众不同。这可以理解。但要是你有时间拓展一下视野的话,这篇文章可能会给你启发(也能让你明白我的观点从何而来):https://www.mpi.nl/news/ourbrainpredictionmachinealwaysactive
2025-7-25 15:46:07
你听到这个肯定会大吃一惊。但信不信由你,谷歌的搜索算法从根本上来说也并不“知道”什么是对什么是错。你用过的每一种“事实核查”机制……都是用一种近似机制来区分“事实”与“虚构内容”。最大的区别在于机制的类型。这些机制使用深度神经网络和一种不同类型的算法来近似得出答案。
2025-7-26 05:20:31
说实话,有时候当谷歌搜索无法给出答案或者需要花费大量时间时,(大语言模型)却是正确的。我曾有一个关于某份晦涩标准文件要求的具体问题,需要弄清楚某个缩写词是什么意思,以及该字段可能出现的四个字母的取值。它给了我一个答案,但来源不可靠或者根本没有来源。不过至少我可以用这个答案进行谷歌搜索,过了一会儿,我找到了包含这些标准的文件……但不知为何,我仅通过搜索这个缩写词却找不到它。如果没有大语言模型,那就只能靠猜了。所以它(大语言模型)从某个地方获取了知识,只是没有或者无法提供来源 。  
2025-7-26 07:59:38
对于小型的常用函数,或者那些与现有函数略有不同的函数来说,这没问题。但如果不止如此,通常情况下,就需要重写,或者至少要进行全面检查。而且有时候它(可能指某个程序或系统)会完全不顾常理,编写出一堆垃圾内容。这是千真万确的。  
2025-7-30 00:24:36
到目前为止,人工智能的真正价值在于人们在被强制使用之前是如何利用它的。 就是一个简单的聊天窗口,用来快速获取一些谷歌已经糟糕到无法再为你提供帮助的问题的答案。啊,不过大语言模型在这方面也很糟糕。它无法进行事实核查。它实际上无法引用资料来源。它无法评估自身的可信度,也无法在它不应自信的时候告知你。它不是搜索引擎,也绝不是快速获取答案的可靠来源,而这些问题谷歌过去在查找方面表现得更好。它会自信满满地编造出对事实性问题的错误答案。我认为在办公场景中唯一完全合理的用途是重新表述你自己已经写好的语言或文本。 “从语气和商务得体性角度改写这段文字” 这样的要求没问题——只要你校对一下,确保它没有歪曲事实,因为再说一次,它无法进行事实核查 。  
2025-7-30 01:37:15
^ 就是这个。这条评论区里好多人只是在说:“我用过的那个用来[此处插入我的具体任务]简直糟糕透顶,这类东西向来都不行”,这真让人匪夷所思。他们从不停下来想想,这可是全新的前沿技术。全新的事物就意味着难以落地实施,要是你自身没有接受足够良好的培训,那你所做的应用肯定很糟糕。有40%的项目被取消,原因在于公司高管们让人手不足、工作过度、知识欠缺的团队去打造这些智能体。因为我现在亲身体会到,只要你花时间好好构建这些东西,它们真的非常有效且实用 。  
2025-7-30 05:40:41
就像它建议用户把石头当作披萨配料那样,就因为多年前有人在网上发了个恶搞帖子?这也算真正有价值的建议?
2025-7-30 06:58:09
“熵增式恶化”之所以持续,仅仅是因为有害的销售和营销能轻松赚钱。在资本主义制度下不存在技术创新型社会。只有一个又一个骗局,还有那些绝望的梦想家,妄想在一个空洞虚无的世界里出人头地。推翻这一切。
打不开图咋评呀
考虑到人类也无法做到百分百正确,30%实际上并没有那么糟糕。诚然,这个比例仍有很大差距,但这个数字只会上升。咱们可别自欺欺人了。  
2025-8-5 16:06:16
这种情况很常见。诚然,有些人会过度夸大某些事物,但也有其他人只是觉得,如果我们今天有了这个,那么明天就应该拥有通用人工智能(AGI),可既然我们现在还没有通用人工智能,就觉得这很糟糕。这有点像很久以前太阳能电池板的情况。人们看到了它的潜力,有点过度吹嘘它会变得既便宜又好用。但很多人还是比较现实的,想着“也许10年后能实现”。而唱反调的人则跳出来问:“那么证据在哪里呢?目前太阳能在电网供电中的占比才只有1% 。”太阳能的发展就是这样,而且还在持续发展。这和电动汽车的情况也有点类似,至少在除美国之外的一些地方,电动汽车发展得如火如荼。自动驾驶汽车目前还没达到那种程度,大语言模型(LLMs)当然也是,但谁又能说以后不会实现呢。哎呀,我自己就有过这种经历。当我人生中第一次接触到的人工智能(我指的是10年前那些蹩脚的聊天机器人)失败时,我自己也认为这个领域短期内不会有重大变革。然后,ChatGPT就横空出世了。  
2025-8-8 08:16:17
这有点疯狂。我只是想让它创建一些AutoHotkey热键,可这得花我好一阵子才能做出来,因为我没有编程基础。而且有一半的时候,它甚至都无法创建出能在某个特定游戏运行时实现重复鼠标点击的功能。  
或许不是业务代表,但在许多公司里,经理们坚持要在每一个流程中引入聊天机器人。  
2025-8-15 11:59:01
它们其实都不是真正意义上的AI,它们只是预测模型。虽然它们用了一些复杂的启发式方法,而且做得还不错,但本质上它们的运作方式并没有改变。你可以想象成是那种最强的国际象棋算法。它可能会利用每一局新棋局和所有旧棋局的数据来预测下一步该怎么走,但它的算法本身还是老样子。它不会随着时间推移自己变得更强,也不会因为下得越来越多就自我提升。这才叫真正的智慧:用全新的方式去运用已有的知识和经验,来解决新的问题或者回答新的疑问。
您需要登录后才可以回帖 立即登录
高级模式