发帖
 找回密码
 立即注册
搜索
12 0 0
前沿技术 871 12 2025-8-9 15:38:43
嘿,伙伴们,
   
      
长久以来,我一直在寻找一种方法,能拥有属于自己的“执行教练”,可以长期记住每一天的所有信息。我希望它能存储任何书籍、文件(比如《每周工作4小时》、心理学相关资料以及销售类书籍)。
   
      
我和ChatGPT聊了很久,它建议我使用AnythingLLM,因为它具备混合/文档处理能力,而且你可以让它无限量记住你想要的任何信息。
   
      
我试用了,甚至还更改了设置(比如使用turbo,优化系统提示等等)。但后来,我在没有将书的内容存储进去的情况下,问了和向ChatGPT提出的相同问题,ChatGPT给出的答案还是更好。我的意思是,这问题相当简单,就是“蒂姆·费里斯《每周工作4小时》的核心原则以及详细解释是什么”。使用AnythingLLM时,我还特意指出了我上传的书名。
   
      
我以前是软件工程师,所以大致明白它的运作原理,但它对我来说真的没什么用,这还是让我挺意外的。它就好像不会自己思考,只是根据关键词随意抛出信息,毫无上下文逻辑,也不考虑给出恰当、详细的答案。感觉它根本没有完整提取书籍内容。
   
      
是我遗漏了什么,还是使用方法不当呢?你们有同样的感觉吗?AnythingLLM是不是本来就不适合我想做的事?
   
      
感谢大家的回复
──── 0人觉得很赞 ────

使用道具 举报

2025-8-9 16:43:22
索卡俳句 作者:Aggravating_Fun_7692本地大语言模型感觉没啥用因为在大多数消费级硬件上它们确实有点不给力还记得有一次在巴辛塞的俳句对决中,索卡不小心多用了一个音节吗?那就是索卡俳句,而你刚刚也创作了一首 。  
2025-8-9 19:53:45
没错,100万个词元的上下文长度更有优势,直接把整本书上传进去就行。嵌入对于细节回忆效果不好。我不确定它的合理用途是什么?我觉得这就像是低成本微调,效果也不怎么样 。  
2025-8-9 23:55:49
我的收获:anythingllm在开箱即用的情况下,用于检索增强生成(RAG)就非常出色。检查一下你使用的向量数据库、模型以及嵌入。
2025-8-10 21:14:38
RAG(这也是AnythingLLM正在做的事情)并不完美。就是这么回事。你得深入研究才能找到你想要的神奇解决方案。好在你曾是一名软件开发人员!顺便说一句,就在20分钟前,我刚把AnythingLLM从我的电脑里删掉。
2025-8-11 05:34:39
本地大语言模型感觉没什么用,因为就大多数消费级硬件而言,它们确实有点(没什么用)
2025-8-11 14:14:06
以下是我的设定给出的回复:蒂姆·费里斯(Tim Ferriss)的《每周工作4小时》核心原则及详细解析时间自由的两大支柱帕累托法则(80/20法则):专注于能产生80%成果的20%的任务。摒弃低价值的活动(比如没完没了的邮件、会议),腾出时间用于高影响力的工作。例如:费里斯建议通过精简项目中的冗余步骤来确定“无赘肉”的工作流程。帕金森定律:工作会自动膨胀,占满所有可用时间。应对方法是设定严格的截止日期,并将任务限制在较短的时间范围内(比如每天工作2小时而非8小时)。这会迫使人们进行任务优先级排序并提高效率,就像费里斯的邮件处理策略(每天在固定时间查看两次邮件)。生活方式设计而非时间管理迷你退休:经常休假去旅行或追求自己的爱好,而不是等到退休。目标是“更聪明地工作,而非更努力地工作”,享受当下的生活,而不是以后。地点独立:利用数字工具(如虚拟助理[VAs]、自动化工具)远程工作。这样就能在有网络的任何地方生活,培养一种全球化、灵活的生活方式。委派与外包虚拟助理系统:雇佣虚拟助理来处理重复性任务(如邮件分类、日程安排)。费里斯强调要先有一个试用期(2  4周),在长期合作前解决可能出现的问题。例如:他的自动回复邮件通过将沟通限制在每天两次来设定界限。团队架构:使用一名“执行虚拟助理”来管理多个负责专门任务的子虚拟助理,这样成本通常更低。这就创建了一个可扩展的系统,在这个系统中,你就像是自己生活方式事业的首席执行官/首席运营官。低信息饮食限制认知过载:通过安排特定的邮件查看时间或使用像Alexa工具栏这样的工具,减少接触无关信息(如新闻、社交媒体)。费里斯以每天只查看两次邮件而闻名,这迫使其他人对紧急请求进行优先级排序。消除“伪工作”摒弃多任务处理和会议:这些往往会浪费时间并分散注意力。用单任务处理和异步沟通(如书面总结而非没完没了的会议)取而代之。选择性忽视:忽略与你的目标不一致的非关键任务或趋势。例如:从小处着手,避免过度规划(比如在扩大规模前,先对新工作流程进行48小时的测试)。“基础四要素”思维转变费里斯推荐一些基础书籍来重塑思维:
《思考的魔力》(大卫·施瓦茨著):
相信自己的潜力,低估挑战,克服自我怀疑。
其他关键书籍:专注于实用哲学、自动化以及生活方式设计的授权策略。
7. 从“努力工作”向“聪明工作”转变
《移民的视角》(I. 巴伦著):
这本书强调,在21世纪取得成功需要战略思维而非蛮干。实现任务自动化、进行委派,并将自由置于长时间工作之上。
8. 实施的具体步骤
从小事做起:从一两个改变开始(如批量处理邮件、雇佣一名虚拟助理)。
迭代与优化:在短时间内(2  4周)测试系统,然后改进。
使重复性工作自动化:使用像Zapier或Notion这样的工具来简化工作流程。关键要点费里斯的方法并非是逃避工作,而是重新定义工作。通过利用帕累托法则和帕金森定律,外包非核心任务,并围绕自由设计生活,你可以实现“每天工作4小时”,同时创造财富并获得灵活性。目标并非是完全消除努力,而是将精力集中在真正重要的事情上——你的时间、创造力和成就感。你是否需要帮助确定在你的日常事务中可以应用这些原则的具体领域?
2025-8-13 16:37:54
任何大语言模型(Anythingllm),正在使用的模型:通义千问3 320亿参数(qwen 3 32b q6),向量数据库为Chromadb,参数为1000/100 。我复制的时候格式变了,出现了编号系统而不是圆点。  
2025-8-13 18:16:52
RAG更适用于诸如私有知识库或代码库这类新颖信息。
2025-8-14 08:01:07
这是我们在 1.8.5 版本中正在修复的问题。长话短说:默认聊天模式是检索增强生成(RAG),一直以来都是 RAG。随着时间推移,上下文窗口不断增大,对于模型来说,将一整篇文档直接塞进上下文窗口变得越来越常见。这样做的好处是,你可以将一份文档拖进聊天界面,它就能全面理解整篇文本的内容。这意味着你可以立即针对文档中的任何内容提问、要求进行总结等等。缺点是这需要大量的上下文窗口,因此需要更多资源。由于我们优先考虑在消费级设备上运行本地模型,所以默认采用 RAG 模式。RAG 的本质是只检索内容中最重要的前 N 个片段。问题的关键在于,人们上传的文档可能并不一定能完全适配上下文窗口,然后针对文档提出一些元问题,而这些问题在 RAG 模式下无法得到有效回答,因为文档已经被分块、拆分并嵌入,我们通过语义搜索和重排(如果启用的话)只能获取大约 4 个“相关信息”片段。例如,如果你上传一份关于标准操作程序(SOP)的文档,然后说“总结这份文档”,得到的结果可能不太好,因为 RAG 模式并非完整摄取文档内容;但如果你问“我们的退货流程是什么”,得到的结果可能就不错,因为这与文档中的语义内容相关。相关文章:https://docs.anythingllm.com/llmnotusingmydocs
启用重排以获得更好的 RAG 结果:https://docs.anythingllm.com/llmnotusingmydocsvectordatabasesettingssearchpreference
文档固定(类似 ChatGPT 的全文理解功能):https://docs.anythingllm.com/llmnotusingmydocsdocumentpinning正如我所说,在我敲这段话的时候,我们实际上正在重新设计这个系统,将完整摄取文档作为优先事项。只有当超出模型的上下文窗口时,我们才会开始对内容进行嵌入处理,而这就只是 RAG 模式了。这就是其中的区别。  
2025-8-15 11:00:02
或未掌握正确用法
2025-8-18 08:30:03
这玩意儿不太靠谱呀
2025-8-31 08:30:03
这软件效果欠佳?
您需要登录后才可以回帖 立即登录
高级模式