文章

推荐一个小白用户也能快速使用的本地 AI 知识库方案(附视频演示)

见字如面,分享实践中的经验与思考。若有启发,请点赞收藏。

之前出过一期关于本地 AI 知识库的文章《快速搭建本地大语言模型和知识库》,使用的是 Ollama 和 AnythingLLM。然而在实际使用过程中,我发现了几个明显的体验问题:

  • 早期参数量较小的大语言模型能力有限,中文支持尤其欠佳

  • 响应速度慢,影响使用体验

  • 嵌入模型向量化效果不理想,基于知识库的回答质量不够满意

今天我将使用 Ollama + Cherry Studio + Qwen3 模型 + MCP 工具重新打造一套更优质的本地 AI 知识库方案。这套方案特别适合非程序员用户,上手快速,零成本即可使用。

下面提供完整的文字教程,如果想要观看视频演示,可以访问以下链接:

https://www.bilibili.com/video/BV1NCJqz7Eq1/

前期准备

简单了解 RAG

RAG(Retrieval-Augmented Generation)是一种结合了信息检索与生成模型的技术,通过先从外部知识库中检索相关内容,再由大语言模型生成回答,从而提升回答的准确性和上下文相关性。

下图直观展示了 RAG 的数据流转过程:

CleanShot 2025-05-22 at 11.45.18@2x

来源:https://github.com/CherryHQ/cherry-studio-docs/blob/main/knowledge-base/data.md

RAG 本地知识库的核心要素包括:

  • 高质量知识库文档:用户需提供结构清晰、内容丰富的文档,这是有效信息支撑的基础

  • Embedding 嵌入模型:将文本内容分段转换为低维向量并存储到向量数据库中,支持语义相似性搜索(简单理解为"找到意思相近的内容")

  • Reranker 重排序模型:对初步筛选出的相似内容进行精确评分排序,提升检索结果的准确度(相当于"先用嵌入模型粗选,再用重排序模型精排")

  • 大语言模型:作为系统的"大脑",负责理解检索到的相关内容,并生成连贯、准确的最终回答

大语言模型选择

大语言模型的选择至关重要。针对个人轻量级知识库场景,我推荐使用 qwen3-8b 作为本地知识库的大语言模型。虽然其参数量相对较低,但在实际应用中表现出色。根据海外社区 Reddit 的测试结果,qwen3-8b 在 RAG 应用方面得分相当不错:

CleanShot 2025-05-22 at 11.55.43@2x

来源:https://www.reddit.com/r/LocalLLaMA/comments/1kaqi3k/qwen_3_8b_14b_32b_30ba3b_235ba22b_tested/

使用 Ollama 下载 qwen3 和相应的嵌入模型后,可以在终端查看已安装的模型:

CleanShot 2025-05-22 at 13.24.41@2x

非程序员用户请注意:如果你不熟悉终端操作或不知道如何下载模型,可以直接跳过这一步,后续会有更简便的方法。

知识库文档准备

高质量的知识库文档是系统高效运行的关键。除了手动整理文档外,我们还可以借助 AI 从网络抓取高质量内容,并以 markdown 格式存储到本地(这种格式对 AI 处理特别友好)。

例如:可以添加一些常用的 MCP 工具(如 fetch、filesystem 等),从官网或其他渠道爬取内容并保存到本地。

以下是一个实用的提示词模板,只需替换你想要爬取的网页地址:

使用 sequential-thinking 工具思考并完成下面的工作:

  1. 使用 fetch 工具查询网址:https://docs.cursor.com/context/model-context-protocol,并获取网页正文中的每个链接的内容

  2. 使用 filesystem 工具将每个网页的内容保存为一个单独的 markdown 文件,保存在 docs 文件夹中

关于 MCP 的详细配置方法,可以参考 Cursor 101 系列视频的第 4 集《MCP 详解与配置》,本文不再赘述。

CleanShot 2025-05-22 at 13.22.16@2x

实操

现在让我们打开 Cherry Studio 应用,开始实际操作。

01 添加模型

首先需要在 Ollama 和硅基流动平台中分别添加推理模型、嵌入模型和重排模型:

CleanShot 2025-05-22 at 13.33.43@2x

CleanShot 2025-05-22 at 13.34.02@2x

值得一提的是,硅基流动平台使用非常方便,直接登录即可获取 API key,无需额外在网页操作。本文将主要使用硅基流动进行演示,因为其响应速度明显更快,能够达到约 50 token/秒,而 Ollama 大约只有 10 token/秒。有趣的是,Ollama 在终端直接输出时速度却很快,这可能与模型推理过程和 Ollama 集成优化不足有关。

在硅基流动官网可以看到,qwen3-8b 和 bge 模型都是免费提供的:

CleanShot 2025-05-22 at 13.36.31@2x

来源:https://cloud.siliconflow.cn/models

如何选择取决于对于个人数据是否想要完全私有化,完全私有化,可以选择 ollama,但是对于不懂技术,只想要快速使用的用户来说,可以直接在应用中注册网云平台免费使用,前面提到过,会将本地知识库检索出来的部分数据,推给远程的大语言模型 API,来生成最终结果。

02 新建知识库

接下来填入知识库名称,选择合适的嵌入模型和重排模型。创建好知识库后,就可以方便地添加文档了。应用支持多种格式,最实用的功能是可以直接添加整个目录,然后等待系统完成嵌入和保存:

CleanShot 2025-05-22 at 13.38.11@2x

03 新建智能体

输入智能体名称、设置提示词,并选择刚才创建好的知识库。以下是一个核心提示词示例:

你是一位熟悉 Cursor AI 编辑器的专家助手,擅长解答与 Cursor 使用、配置、插件、编码等相关的问题。
​
当用户提出关于 Cursor 的问题时,首先从关联的知识库中查找相关信息。
如果知识库中未找到答案,再根据你的专业知识进行解答。

如果你配置了支持网络查询的 MCP 工具,效果会更好——可以修改提示词,让智能体先查询本地知识库,查询不到时再进行联网查询。这样可以有效避免大语言模型在缺乏信息时产生的"幻觉"问题(因为大模型的训练数据通常较为滞后)。

CleanShot 2025-05-22 at 13.40.37@2x

默认选择 qwen3-8b 模型,重要提示:将模型温度设置为 0。这样可以让模型严格基于事实回答,在知识库查询不到信息时不会创造性地回答,从而避免生成错误信息或答非所问。

CleanShot 2025-05-22 at 13.42.23@2x

在知识库设置中,记得选择并连接你之前创建好的知识库。

04 聊天框中测试

最后,将智能体添加到聊天框中,开始进行提问测试:

CleanShot 2025-05-22 at 13.44.19@2x

现在,你可以自由地向知识库提问了:

CleanShot 2025-05-22 at 13.45.10@2x

CleanShot 2025-05-22 at 13.46.52@2x

你还可以随时切换到 Ollama 本地模型进行回答,体验不同模型之间的差异:

CleanShot 2025-05-22 at 13.47.29@2x

最后

通过本文介绍的方法,你现在已经拥有了一个功能完善、响应迅速的本地 AI 知识库。这套系统特别适合以下场景:

  1. 个人知识管理:将散落各处的笔记、文档集中管理,快速检索

  2. 专业领域学习:导入专业书籍、论文,进行深入问答

  3. 工作效率提升:快速查找项目文档、会议记录等信息

  4. 内容创作辅助:基于已有知识生成写作素材、构思创意

相比云端 AI 服务,本地知识库有几个明显优势:

  • 数据安全:敏感信息不会上传到外部服务器

  • 无需联网:离线环境下也能正常工作

  • 无使用限制:不受API调用次数或字数限制

  • 完全掌控:可以根据需要自由调整系统配置

当然,这个系统还有很多可以优化的空间。例如,你可以尝试更大参数量的模型(如果硬件允许)、调整知识库分块策略、优化提示词设计等。随着开源模型的不断进步,这套系统的能力还将持续提升。

希望这篇教程对你有所帮助。如果你在搭建过程中遇到任何问题,或者有改进建议,欢迎在评论区留言交流!

Cursor 系列精选阅读

如果你对 Cursor AI 编程感兴趣,可以浏览我的更多专题文章,同时我也会不定期地更新到视频号,欢迎观看和订阅。

🚀 快速上手

💻 开发环境配置

🔌 MCP 工具生态

📝 规范与项目管理

🎨 UI/UX 设计流程

🔬 实战案例


欢迎关注我的公众号"Eric技术圈",原创技术文章第一时间推送。

License:  CC BY 4.0