共计 693 个字符,预计需要花费 2 分钟才能阅读完成。
最近我在使用 Msty 这款本地 AI 工具时,发现了一个非常实用的功能——知识堆栈。这个功能配合 Ollama 使用,让我对本地 AI 有了全新的认识。今天就来和大家分享一下我的使用体验和一些实用技巧。
首先,什么是知识堆栈?简单来说,就是让你把自己的文件喂给 AI,让它能给出更精准的回答。我用了大概一个月,发现这个功能特别适合需要处理大量本地数据的用户。毕竟现在很多 AI 工具都会把数据传到云端,而 Msty 的知识堆栈功能则完全在本地运行,数据安全更有保障。
具体怎么操作呢?其实很简单:,
- 安装好 Ollama 和 Msty
- 打开 Msty,在侧边栏找到知识堆栈按钮
- 给堆栈起个名字,把文件拖进去即可
我试过把工作文档、项目笔记都放进去,AI 确实能根据这些内容给出靠谱的建议。最让我惊喜的是,它还能直接导入 Obsidian 的笔记库,这对经常使用 Obsidian 的用户来说非常方便。
不过需要注意的是,文件越多,AI 处理的时间就越长。我有次放了几百个文件进去,等了快半小时才搞定。所以建议从小规模开始,慢慢摸索。
使用起来也很直观:,
- 新建一个聊天窗口
- 选择要用的知识堆栈
- 开始提问
我试过问一些很具体的问题,AI 都能从我的文档里找到相关信息。最棒的是,它还会告诉你答案是从哪个文件里来的,这点特别实用。
另外,Msty 对 Markdown 格式的支持特别好。如果你平时用 Markdown 写笔记,用起来会更顺手。不过这个就见仁见智了,毕竟每个人的工作习惯不一样。
总的来说,Msty 的知识堆栈功能让我对本地 AI 有了新的认识。它不仅可以做到 ’ 私人定制 ’,还能保证数据安全。如果你也想尝试本地 AI 工具,不妨从 Msty 开始,相信你会有不一样的体验。