特别是免费、开源的国产 deepseek 深度推理模型的出现,深度、全面接入思源笔记,一键式部署,如一台高速智能发动机,全面管理个人笔记,收集、存储、管理、学习、分享一条龙服务,如腾讯的 ima 有这方面的意思了,加油,思源!!!
真心希望思源笔记抓住 ai 发展机遇,深度、全面接入思源笔记
相关帖子
-
- 其他回帖
-
-
目前 AI 知识库最大的问题,还是个人隐私和个人知识产权如何获得保障吧。这一点,开源的思源就做得很好。大厂的产品始终有黑箱存在,你不知道它究竟什么时候就会将你的个人隐私传到服务器上去。
所以,本地部署 AI 是未来的必然趋势。Deepseek-R1 之所以这么火,其中一个原因也是因为它让本地部署 AI 成为了现实。
我之前在外地度假,只能用商务笔记本来测试本地部署,7B 吐出 Token 慢得像乌龟爬,现在回到家,仅仅是用家里装有老 1060 显卡的游戏本,速度已经有明显提升,甚至 14B 也能跑跑了。可见,未来配置高端独显的电脑、笔记本,会非常抢手,买 PC 会优先考虑配置高端显卡。
而且,大厂已经在抢跑 AI 一体机的赛道了!未来,在 AI 一体机上,运行各种能深度融合本地化 AI 的软件,是必然趋势。
现在就是要思考,思源内置的 AI 功能,能否进一步升级。
目前的思源内置的 AI 功能还是相对简单了一些,使用上也不是很方便,比如用思源本身的 AI 接入 R1,对话是不能显示 R1 的思考过程的。F-misc 插件在这方面有很大提升,能够折叠显示 R1 的思考过程了,也能将对话保存为思源文档页,用起来非常方便,但可惜还没有知识库功能。
而本地部署的 Deepseek-R1,加 Cherry Studio 或 AnythingLLM(这俩是免费的,其他收费的我没关注),内嵌 BAAI/bge-m3 模型,是目前实现 AI 知识库本地化的主要路径。但思源的本地文档形式比较特殊,目前还无法直接接入上述方式构建的本地化 AI 知识库中,只能将思源的文档导出成 md 文件或 pdf 文件,来投喂给 AI,这过程就有点复杂了,虽然也能做到,但没有 Ob+Cursor 的效果那么直接。
思源笔记番茄工具箱插件豆包 AI 知识库问答使用指南 - 链滴,这篇文章提到可以用番茄工具箱加豆包 AI 来实现知识库功能,但当时豆包(火山)还没有接入 R1,现在应该能用豆包的 R1 来复现这个过程了。
可见,思源是有可能做到与 AI 功能更深度的融合的,如果能实现这一目标,那思源未来的发展空间也会更宽广、更迅猛。
3 回复我是技术小白,我觉得思源本身肯定是可以实现直接接入模型的,不需要依赖插件,可能只是相比 md 的通用格式会麻烦一点。我也十分同意本地部署是大势所趋,AI 时代,最值钱的就是数据了,deepseek 已经大大降低了算力的需求。非本地的 ai 更多的是起到数据来源的作用。比如我看最近腾讯元宝疯狂宣传其公众号唯一来源的优势。可以预见 kimi 这类模型以后的日子不太好过。其实,我也是非技术的 AI 爱好者,就是喜欢折腾。腾讯除元宝之外,最牛的是 ima,本身自带知识库和笔记模块,又接入了 Deepseek-R1。以腾讯吃干抹净的一贯作风,它正式界入 AI 笔记 + 知识库这个领域,对其他的笔记软件生态,会有很大影响的。veryzhh • - 查看全部回帖
欢迎来到这里!
我们正在构建一个小众社区,大家在这里相互信任,以平等 • 自由 • 奔放的价值观进行分享交流。最终,希望大家能够找到与自己志同道合的伙伴,共同成长。
注册 关于