思源 AI 添加第三方免费大模型方法

目前思源的 AI 配置是 OpenAI 的通用调用方式,意味着任何兼容这种方式的第三方平台都可以正常使用。

配置

进入设置——AI,修改模型、API Key、API 基础地址三处,其他的默认即可,当然影响比较大的是温度值,按需修改。(超时时间建议调大,比如 300 秒)模型选择该平台中的你想要的模型(必须完整复制模型名称),密钥是自己在平台创建的,API 基础地址按该平台开发文档填,下面是使用 siliconflow 的例子,然后你就可以开心玩耍了。

878834213D8B4655BBC34CC547430F78.png

使用 AI 的两种方法:

  1. 输入“/”呼出“AI 编辑”,在输入框中输入你的 prompt。虽然很多模型并不支持实时联网,即无法获得最新的资讯,但不妨碍你让它回答一些“过去的事情”,它对世界的知识受限于模型训练结束时间。
  2. 点击内容块前的块类型标识,打开菜单,选择“人工智能”,即可对所选择的内容块进行 AI 处理。

A44BCA9A93CA468E9689DDD4C13BD800.png

再比如直接问“中国历年获得奥运会金牌数量明细”。

C036811780A541FAB24AD1750FE8DB27.png

第三方平台推荐

众所周知,支付、价格、网络是制约大家使用 OpenAI、Claude 等国外大模型的三大主要问题。非常不建议通过淘宝或者其他平台代付的方式进行使用,使用明细不清,跑路风险高。下面推荐一些比较靠谱的大模型平台:

国外平台

1.openrouter:国外模型超级多,疑似全球最大的模型聚合提供商。有少量免费模型可用,但是免费的有如下限制:

Free limit: If you are using a free model variant (with an ID ending in :free), then you will be limited to 20 requests per minute and 200 requests per day.(免费模型限制:20 次/分钟,200/天)

https://openrouter.ai/api/v1/chat/completions

🎉 如果一定要使用前面说的 OpenAI、Claude、Gemini 等模型的话,不差钱的话,可以直接在 openrouter 上选用,目前支持 stripe,但是得用 visa 信用卡。本人不曾测试国内 visa 卡能否支付,理论上应该是可以的,因为 open router 没有锁区。

2.groq:目前完全免费,国外模型,模型较少。需要良好的网络环境。

https://api.groq.com/openai/v1/chat/completions

国内平台

1.硅基流动:我首推,目前良心程度堪称 AI 行业的赛博活佛。支持免费模型,免费模型,免费模型。使用免费模型不消耗送的 2000 万 tokens,付费模型建议用 deepseek-ai/DeepSeek-V2.5。这是我的邀请链接:硅基流动

SiliconCloud 裂变活动火热开启,2000 万 Tokens 送不停!北京时间 2024 年 8 月 1 日凌晨 0 时起您每邀请一位好友成为 SiliconCloud 新用户,您与好友均可获赠 2000 万 Tokens(14 元平台配额)。邀请越多,奖励越多,畅享体验 SiliconCloud!

    1. 邀请好友赚 2000 万 Tokens:每成功邀请一位新用户,好友注册成功,您将获得 2000 万 Tokens;
    2. 注册即送 2000 万 Tokens:受邀好友作为新用户完成 SiliconCloud 账号注册,立刻获得 2000 万 Tokens。
https://api.siliconflow.cn/v1/chat/completions

模型列表:https://siliconflow.cn/zh-cn/pricing

免费文本对话模型供参考,分数来源 huggingface

Average ⬆️ IFEval BBH MATH Lvl 5 GPQA MUSR MMLU-PRO
Qwen/Qwen2.5-7B 24.7 33.74 35.81 17.15 9.96 14.14 37.39
Qwen/Qwen2-7B-Instruct 24.76 56.79 37.81 8.61 6.38 7.37 31.64
internlm/internlm2_5-7b-chat 30.46 61.4 57.67 8.31 10.63 14.35 30.42
meta-llama/Meta-Llama-3.1-8B-Instruct 27.91 78.56 29.89 17.6 2.35 8.41 30.68
THUDM/glm-4-9b-chat 10.97 0 25.21 0 8.5 8.06 24.07
28.86 74.36 42.14 0.23 14.77 9.74 31.95
google/gemma-2-9b-it
Qwen/Qwen2-72B-Instruct 42.49 79.89 57.48 35.12 16.33 17.17 48.92

2.其他:像 deepseek、智谱 AI、阿里云通义千问这些,一般新注册也会送你几千万 tokens 配额,但是一般有有效期,过期未用完就失效了,而且通常只支持自家的模型,免费模型不一定有。

🎉 上面只是配置思源笔记的例子,有了 base url 和密钥,就可以配置其他支持通用 openAI 的应用,方法类似,只要 URL、密钥和模型名称。 比如:沉浸式翻译、pot 翻译、zotero、欧路词典、glarity、CherryStudio 等等。

⚠️base URL 后面要不要接“/chat/completions”?

在一些大模型 API 的设计中,如 OpenAI 的 API,/chat/completions 是用于生成对话回复的端点。这种结构使得 API 请求更加清晰和有条理。虽然并不是所有大模型 API 都必须使用相同的路径,但约定俗成的路径可以帮助开发者更容易理解和使用。

所以,是否必须取决于具体的 API 设计。如果你使用的是特定的 API 并且文档中指定了这个路径,那么你就需要按照文档来使用。如果是自定义的 API,你可以自行定义路径,但建议遵循一些常见的规范以提高可读性和维护性。

简单来说,通常需要加上,但如果加上出了问题(很可能是目标应用的后台代码已经帮你加了),就不加。以目标应用的实际填写方式为准,比如思源默认的 openAI 没加,那你填硅基流动时就不用加。

模型温度

语言模型的温度参数是一个控制生成文本时随机性的参数。它影响模型输出的多样性和创造性。具体来说,温度参数可以调整模型在生成下一个词时对不同可能性的选择权重。以下是关于温度参数的一些详细解释:

温度参数的作用

低温度(< 1):

当温度参数较低时,模型倾向于选择概率最大的词。这意味着生成的文本会更加确定且保守,输出的内容通常是最常见和最合理的。
例如,温度为 0 的情况下,模型总是选择概率最高的词,这种情况下输出的文本可能会比较单一和重复。
高温度(> 1):

当温度参数较高时,模型会在生成下一个词时更多地考虑那些原本概率较低的词。这会增加生成文本的随机性和多样性,但也可能导致输出内容不那么合理。
例如,温度为 2 时,模型会更加随机地选择词汇,这可能会产生更意想不到和创造性的结果,但也更容易出现不连贯或不合适的词语。
温度为 1:

当温度为 1 时,没有对概率进行额外调整,模型按照其默认的概率分布选择词语。这是一个中间值,既不会过于保守,也不会过于随机。

实际应用

在实际应用中,调节温度参数可以根据具体需求调整生成文本的风格。例如:

  • 在自动摘要或新闻生成等需要严谨和准确的场景中,可以选择较低的温度。

  • 在诗歌创作或故事生成等需要创造性和多样性的场景中,可以选择较高的温度。

    通过合理调整温度参数,可以更好地控制语言模型的输出质量和风格。

杂谈

很多人使用 AI 有个误区,倾向于认为 AI 越强对当前任务的处理越好,事实上并非如此。可以参考 Nature 上的这篇论文 Larger and more instructable language models become less reliable。一个简单的翻译和基本知识问答,都非要上 OpenAI o1-preview 确实得不偿失,心理安慰居多。要知道 GPT3.5 刚出的时候,就有评论说效果与 deepl 不相上下。AI 再也如何训练,其文本生成质量与训练材料是否优质有关,而更加不幸的是,很多语料早就被 AI 污染,所以期待越后面的 AI 生成的文本更加优美精致是不太现实的。换个角度看,就拿对中文的支持来说,国外第一梯队的大模型未必就比国内第一梯队的强,你想想看国外获取的中文语料库会比国内获取的更容易更丰富吗?我是真的很不建议就为了应付那点简单的中文文字工作,就非得上国外模型,尤其还是通过什么乱七八糟的第三方逆向的平台,它能以比官方更低的价格卖你还要有利可图显然是猫腻的。当然也没必要非要找什么免费的 gpt4 镜像站之类的东西!一个简单的中文搜索,通义千问、360AI、kimi、天工 AI 这些不能满足你?

但凡真的愿意花点钱,就简单的文本对话来说,对大多数人的日常工作来说,deepseek2.5 就足够了。(对比它和国外第一梯队模型的价格可知)当然你可能还需要 AI 模型支持实时联网功能,那么优先解决你自己的网络问题远比你向这些 gpt4 镜像站掏钱靠谱得多。假设你已经没有网络障碍了,那么我认为截止当下,免费的官方 Gemini 1.5 Pro 在线版就够了。AI 行业还是让子弹多飞一会,现在就开始唱衰国产大模型不可取。

硅基流动简介

为什么硅基流动目前能如此良心?因为有钱有实力,以及处于用户增长期

硅基流动完成近亿元融资:加速生成式 AI 技术普惠进程

  • 思源笔记

    思源笔记是一款隐私优先的个人知识管理系统,支持完全离线使用,同时也支持端到端加密同步。

    融合块、大纲和双向链接,重构你的思维。

    22397 引用 • 89671 回帖

欢迎来到这里!

我们正在构建一个小众社区,大家在这里相互信任,以平等 • 自由 • 奔放的价值观进行分享交流。最终,希望大家能够找到与自己志同道合的伙伴,共同成长。

注册 关于
请输入回帖内容 ...
  • 这模型是挺不错的,我试过把图片转化为公式,就它效果最好。

  • 其他回帖
  • 我也用这个,v3API 支持多端访问。

    目前赚 10 多刀,这个网站的好处是支持很多国外 ai,而且可以通过 v3api 接口直接调用,非常方便,解决了国内访问国外 chatgpt api 等问题。

    api 开发手册

  • gwures 1 评论

    看了眼你们说的 v3API,虽然目前硅基流动支持的国外模型不多,但是我还是选择硅基流动,毕竟它可有几个亿的大公司。如果要用 openai 啥的,我还是会选择我文中说的 open router,这可是被国外许多开发者认可的,而且很多国外应用内置的第三方平台就是 openrouter。

    顺便补充一下,目前 gpt4omini 在 OpenAI 官网聊天窗口是可以免费用,同时它还有专门针对企业的计划。我这么说是什么意思呢?不排除有些开发者将 chat 封装成 API 使用,然后卖你。
    gwures
  • gwures

    忍不住再多啰嗦一句,付费模型无脑选 deepseek2.5 就完了,目前性价比最高的模型,没有之一。老外都在用。

    1 回复
  • 查看全部回帖