发帖
 找回密码
 立即注册
搜索
0 0 0
日常闲聊 326 0 7 小时前
我有大概几个G的资料,我不想丢给模型去切分作为知识库,我想把这些资料训练成自己的模型,然后通过ollama调用这个模型,进行对话。

──── 0人觉得很赞 ────

使用道具 举报

懒猴克星、羊驼工厂  (不过 “unsloth” 这个词比较生僻,推测可能是自造词,以上只是字面的大致翻译,可能需要结合更多背景来准确理解其意思。)  
这实际上就是知识库的做法。
嵌入模型既便宜又高效,使用通用大语言模型(LLM)也不是不可以。
但问题最终还是会归结到预算消耗以及效果是否符合预期上。
倒不如先做起来,要是效果不如预期,再凑钱去微调模型,哪怕就当把钱扔水里了 。
我有大概几个G的资料,不想把它们丢给模型去切分作为知识库。我想利用这些资料训练一个属于自己的模型,然后通过ollama调用这个模型来进行对话。
我觉得吧,微调一下知识库。
第一个难点
把自己杂乱的资料整理成资料集
邪修
找个足够厉害的人工智能来帮你筛选这些东西()
我的评价是,等做上10K道题目之后
楼主就会两眼发直,然后转而投身去搞知识库了
插个眼 正好我也有训练模型的需求
您需要登录后才可以回帖 立即登录
高级模式