发帖
 找回密码
 立即注册
搜索
1 0 0
前沿技术 357 1 昨天 08:00
所以,前几天,我给ChatGPT和DeepSeek都做了一份物理流体力学的多项选择题测试。大概有30道题。ChatGPT做错了10道,而DeepSeek只错了4道。我真的需要一个犯错尽可能少的人工智能。我即将开始医学学习,所以对于重要问题,我可承担不起依赖一个提供错误信息的人工智能。我知道我不应该以这种方式使用人工智能,但有时候遇到一些我实在理解不了的概念时,我就会向人工智能寻求帮助。当然,我打算核实答案,但如果我选择一个犯错更少的人工智能,对我来说会好得多。
──── 0人觉得很赞 ────

使用道具 举报

真的🙌
它们的成本几乎相同,但不同之处在于,与Perplexity相比,ChatGPT使用O3时每周的查询次数较少(100/200 次)。Perplexity的O3查询次数无限制,但上下文信息和深度稍逊。  
我打算用人工智能来剖析我课程里的某些内容。有时候,会有一些又长又难的句子,很难理解。所以人工智能在这些方面会很有帮助。只要我对不确定的信息加以核实,我觉得就没问题。不然的话,你说得完全正确。  
我从事软件工作。没错,人工智能能编写一些代码。但不行,它在这方面表现得并不出色,尤其是随着需求的复杂性不断增加。即便那些直接集成到开发工具中的工具,比如Visual Studio Code中的Copilot,还有很长的路要走。在这方面我可没有盲目乐观。  
这甚至都不再是真的了——如今人工智能已经能自己编写代码。看看AlphaEvolve、OpenAI的爱丽丝(Alice)以及其他自我改进系统就知道了。不过,嘿,你大可以继续闭着眼睛,爱信什么信什么。与此同时,xAI将于7月4日推出Grok 4,而OpenAI也准备在夏末之前发布GPT  5 。  
请不要从事医学研究!如果你在明知大语言模型(LLMs)会产生幻觉的情况下就试图走捷径,那当你成为一名医学专业人士时,又会在哪些方面偷工减料呢。请别把自己的问题强加给这个世界!对于人工智能/大语言模型,应该只问那些你已经知道答案的问题。  
我很好奇,不过你用那些模型解决什么样的问题呢?
人工智能常常把事实搞错,还会误解输入内容。
如果你不理解自己输入的数据,就无法识别输出结果中的错误。  
对于一名一旦遇到困难就需要额外帮助的学生,你有什么建议?
O3知道何时使用恰当的工具,这才是关键。O3和其他大语言模型不一样……O3是一个任务解决器……
这家伙简直要靠大语言模型去害死人了。
您需要登录后才可以回帖 立即登录
高级模式