思源支持 ollama 吗,看设置里面没这个选项,强行设置了一波结果没啥用 😅
思源支持 ollama 了吗
相关帖子
- 其他回帖
-
chaoyang •
在本地搭建了 oneapi 通过 oneapi 管理 ollama 部署的各个模型。在 siyuan 配置 ai 时使用 oneapi 配置,过程如下:
1,确保 OneAPI 可用
curl http://localhost:3001/v1/chat/completions
-H "Content-Type: application/json"
-H "Authorization: Bearer sk-fastgpt"
-d '{
"model": "qwen2",
"messages": [{"role": "user", "content": "Say this is a test!"}],
"temperature": 0.7
}'执行后,终端响应如下:
QWen2 回答“This is indeed a test. How can I assist you further?”说明执行成功。
2,配置 Siyuan 的 AI 参数
选择 OpenAI.
后面参数如下:
模型:qwen2
APIKEY:sk-fastgpt
API 基础地址:http://localhost:3001/v1
4,上述配置,可以实现 siyuan 在调用 oneapi.
虽然调用逻辑正确,但依然得不到结果,估计是 Siyuan 本身的 bug 问题。
查看 siyuan 的 log 显示错误:
E 2024/06/16 20:10:19 openai.go:55: create chat completion failed: Post "http://localhost:3001/v1/chat/completions": context deadline exceeded
-
-
leeyaunlong • • 5
支持 openai api 通用接口的,我接入过本地 jan.ai 是没有问题的.
我的配置大致如下:
api 提供商选 openai,
模型一定要填对.(我用的 openchat-3.5-7b)
api key 如果你的本地 llm 没有密码, 就瞎填一个 (比如 123456)
url 配置到 xxxx/v1 这一层 (比如 http://127.0.0.1:1337/v1)
1 回复 - 查看全部回帖
欢迎来到这里!
我们正在构建一个小众社区,大家在这里相互信任,以平等 • 自由 • 奔放的价值观进行分享交流。最终,希望大家能够找到与自己志同道合的伙伴,共同成长。
注册 关于