思源支持 ollama 吗,看设置里面没这个选项,强行设置了一波结果没啥用 😅
思源支持 ollama 了吗
相关帖子
- 其他回帖
-
leeyaunlong • • 5
支持 openai api 通用接口的,我接入过本地 jan.ai 是没有问题的.
我的配置大致如下:
api 提供商选 openai,
模型一定要填对.(我用的 openchat-3.5-7b)
api key 如果你的本地 llm 没有密码, 就瞎填一个 (比如 123456)
url 配置到 xxxx/v1 这一层 (比如 http://127.0.0.1:1337/v1)
1 回复 -
- 查看全部回帖
欢迎来到这里!
我们正在构建一个小众社区,大家在这里相互信任,以平等 • 自由 • 奔放的价值观进行分享交流。最终,希望大家能够找到与自己志同道合的伙伴,共同成长。
注册 关于