能检索所有笔记内容,不用导出,不用结合扣子智能体
现在有没有体验较好的把笔记当成知识库的 AI 插件?
相关帖子
-
如果对插件效果不满意 可以向作者 issue 或 github 搜 siyuan mcp 自行安装 mcp 服务
1 回复 - 其他回帖
-
这两个方案还不一样。
从 Token 使用效率 和 效果 来看,知识库和 MCP 是两种截然不同的方案。
1. Token 使用效率
- 知识库(向量数据库): 核心是“预处理”。它预先将您的所有笔记通过模型转换为数学向量(嵌入),并建立索引。查询时,您的问题也会被转换为向量,并与库中的向量进行相似性匹配。这个过程只发送一次查询向量,返回最相似的几个结果片段,极其节省 Token。
- Model Context Protocol (MCP): 核心是“按需调用”。它本身不存储索引。当 LLM 需要信息时,它会调用 MCP 工具(如关键词搜索)。这通常涉及两次或多次的 Token 消耗:第一次发送搜索指令和关键词,服务器返回文件列表;LLM 可能再决定读取某个文件内容,这又需要消耗 Token 发送指令和接收可能很长的文本。总消耗远高于知识库。
2. 效果
- 知识库: 优势在于语义搜索和模糊匹配。您问“一首关于月下饮酒的诗”,即使笔记里没有这些确切关键词,只有“举杯邀明月”,知识库也能通过向量相似度高效找到,更智能。
- MCP(传统搜索): 依赖精确的关键词匹配。搜索“月下饮酒”就必须文档里有“月下饮酒”这四个字才行,否则会遗漏。它的效果取决于搜索算法的精确度,在需要语义理解的任务上较弱。
其他方面:通过 mcp 可以调用思源的接口,修改笔记。
mcp 与知识库干的事情不一样。
- 查看全部回帖

欢迎来到这里!
我们正在构建一个小众社区,大家在这里相互信任,以平等 • 自由 • 奔放的价值观进行分享交流。最终,希望大家能够找到与自己志同道合的伙伴,共同成长。
注册 关于