【AI Chat客户端】分享一款小巧简洁的AI Chat客户端,已开源
<h2>简单介绍这款应用</h2><ul>
<li>支持在Windows、MacOS、Linux上运行,安装包体积不大,安装简单</li>
<li>功能支持AI对话、文档解析、图片解析(vision模型)、本地文档知识库</li>
<li>主要风格是简洁易用,启动速度快,支持一些个性化调整和亮暗主题</li>
<li>支持Ollama/Deepseek/OpenAI/Gemini/Claude等的API和密钥配置(后续会继续增加和改善配置)</li>
<li>AI对话记录和密钥配置等数据均存在本地数据库,无数据上传行为,代码开源,安全和隐私有保障</li>
<li>基于Tauri2.0+NextJs开发,界面使用React+tailwindcss完成,后端使用rust完成</li>
</ul>
<h2>界面预览</h2>
<p>主界面<br />
<img src="data/attachment/forum/202508/13/093246c6ttrgzt398z3tht.webp" alt="c033f4b771b637868d774779523f11228154c701.webp" title="c033f4b771b637868d774779523f11228154c701.webp" /></p>
<h2>代码仓库</h2>
<p>代码已在github开源,这是仓库:https://github.com/kamjin3086/chatless</p>
来了,多谢大佬支持! 有没有设置 HTTP 或者 SOCKS5 的选项呀?设置之后能让软件的所有通信都只能通过代理来进行,你懂的。 还不错啊 有幸使用过,完成度非常高! 有编译好的发布版本吗 感谢解惑 打包这块我晚点补充一下,我正在学习 GitHub Action…… 你这个是全新开发的,还是在别的 Tauri 项目基础上改的呀?有没有 Tauri 功能比较完善的脚手架呢 不太懂 React 和 Next,想问一下,为啥作为一个客户端要用 Next 呢?据我所知,Next 应该算是后端框架吧? 太棒了,要是再写一个MJ的客户端就更好了
页:
[1]