链滴
社区愿景和功能特性
优雅的 Markdown 所见即所得编辑
快捷键交互
随时自由编辑分享内容
支持注销账号来去自由
分布式社区网络
开放 API
产品
Symphony 社区系统(Java)
Solo 博客系统(Java)
Vditor 编辑器(TypeScript)
思源笔记(Electron、Go)
Pipe 博客平台(Vue、Go)
发展计划表
发展简史
榜单
GitHub 仓库排行
帖子打赏排行
Solo 博客端排行
积分排行
活跃度排行
贡献排行
本站基于开源项目 Sym
编程代码问答
登录
注册
首页
>
标签
LLM
14
引用 •
8
回帖 •
227
浏览
参与讨论
关注
关注
分享
vLLM
1
引用
fmisc
6
引用 •
31
回帖
SFT
1
引用
工具
子曰:“工欲善其事,必先利其器。”
313
引用 •
776
回帖
Huggingface
4
引用
自然语言处理
自然语言处理是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。
18
引用 •
10
回帖 •
2
关注
tokenizer
1
引用
默认
热议
好评
优选
最近回帖
关注者
查看所有标签
AI 编程翻车?你的 Cursor 总在“瞎忙”?问题在你不会写“说明书”!
以'上下文管理'为核心,实现精准可控的 AI 驱动开发 近期参与 cursor 官方主办的线下交流会,多位专家分享了使用经验。其中大铭老师提出的观点和实操经验,对探索 AI 与人类职责边界有深刻启发,本文整理如下。 最近在技术圈里,有个现象特别有意思:博主们用 AI 工具一两句话就能做出一个应用,而我们真正开发时却处处 ..
190
8 个月前
所有人都在吹 OpenClaw,但真正让我停下折腾的是 Claude Code
写在前面 前段时间看到 OpenClaw 特别火,各种演示视频看起来都很炫,什么 7*24 小时 自主 AI 助手、通过消息软件随时控制、还能定时执行任务。我一看,这不就是我想要的 AI 助手吗? 于是开始折腾 OpenClaw。装上之后确实挺有意思,自主化完成了很多任务,但用了一段时间发现一个问题:模型能力不太够。我 ..
166
1 天前
用 SPCT 给奖励模型来次“升级”:能自省、会点评,还能越算越准
开篇:奖励模型挺重要,但不好搞啊! 为啥要聊奖励模型? 现在大语言模型(LLM)是越来越火,能力也越来越强。但光能打还不行,还得听话,得知道啥是对的、啥是好的,不能瞎来。这就是所谓的“对齐”(Alignment)。要让 LLM 听话,强化学习(RL),特别是有人在旁边指点的强化学习(RLHF),就成了关键技术。在这个过 ..
228
11 个月前
OpenClaw 实测体验:Agent 框架现在到底能不能用?
最近折腾了一段时间 OpenClaw,起因其实很简单:市面上关于 Agent 的演示视频看起来都很猛,但真正落到工程环境里,很多细节没人说清楚。我更关心的不是“它能不能做 Demo”,而是—— 现在这个东西,普通开发者能不能拿来干点正事? 所以这篇文章不是功能介绍,也不是教程,而是一份偏实测、偏踩坑的记录. 一、先说结 ..
119
1 个月前
llm 原理
Introduction source:https://stanford-cs324.github.io/winter2022/lectures/introduction/ - CS324 是这门课程 lecture note 的摘抄和部分“用自己的语言表述” 基本原理 语言模型 (LM) 的经典定义是标记序列的概率分 ..
55
2 年前
DeepSeek-V3-0324 推荐温度为 0.3,以及奇葩的温度缩放机制
DeepSeek-V3-0324 发布之后我注意到这个模型显然比原本的 V3 更加发散(据说是用 R1 辅助训练的,可能是学到了 R1 的坏毛病)。 看了一眼官方文档,有两个重点: 推荐的默认温度是 0.3 重点:Deepseek 官方为了适配大家常用的习惯,实现了一个奇葩的温度缩放机制,见 https://huggi ..
491
11 个月前
MCP 开发新范式:mcp-framework 让 TypeScript MCP Server 开发效率翻倍
朋友们,今天想和大家聊聊一个提升 MCP 应用开发效率的利器! 在大语言模型(LLM)应用开发领域,Model Context Protocol(MCP) 已成为连接 AI 模型与现实世界的关键桥梁。而最近,基于 TypeScript 的 MCP 开发迎来了一次显著的效率提升——那就是 mcp-framework 框架 ..
216
8 个月前
全面梳理大模型部署工具:从硬件到平台
引言:大模型部署工具的百花齐放 让一个大模型跑起来,远不止 pip install 和 model.generate() 那么简单。从底层计算框架到上层服务接口,整个技术栈错综复杂,包含各种各样百花齐放的工具。笔者在刚开始学习这方面的知识时被各种五花八门的工具搞的眼花缭乱,为此,特意进行了整理并写成了本文章。 本文将带 ..
53
6 个月前
llms.txt:为大模型打造的“网站说明书”
一、什么是 llms.txt? llms.txt 是由 Jeremy Howard 于 2024 年 9 月 3 日提出的一项开放性提案,旨在为网站提供一个标准的、机器可读的入口,专门用于帮助大语言模型在推理(inference)阶段更有效地理解网站内容。 简要介绍一下 Jeremy Howard,他目前是 answe ..
56
5 个月前
Jinja 是什么?为什么大模型的聊天模板使用它?
在 HuggingFace 的模型页面,点击 Chat template 选项: [图片] 会看到下图这样的内容: [图片] 我第一次看到这样的写法时,完全不知道这是什么语言——既不像 Python,也不像 HTML。 查阅了一圈资料之后我才了解到:这里使用的是 Jinja 语法。Jinja 在大模型时代承担了一个重要 ..
33
2 个月前
如何优雅地下载 Hugging Face 模型
如何优雅地下载 Hugging Face 模型 Hugging Face 已经成为事实上的开源模型分发中心,无论是 NLP、CV 还是多模态模型,几乎都可以通过一个 model id 直接获取完整权重与配置文件。 本文将系统介绍 推荐的 Hugging Face 模型下载方式,并解释为什么有些方法不推荐,有些方法则更优 ..
43
2 个月前
HuggingFace Tokenizer 的进化:从分词器到智能对话引擎
如果你用过 Hugging Face 的 Transformers 库,一定对 tokenizer 不陌生。它负责把'人话'变成'机器话'——也就是将文本转换成模型能理解的 token ID 序列。随着大模型从'单轮问答'走向'多轮对话',再到'调用外部工具完成任务',tokenizer 的角色早已超越了简单的分词器, ..
33
1 个月前
本地模型 Qwen3.5-4B-MLX-4bit 质量和速度都非常可以了,希望翻译和文本处理插件多多支持
本地模型 Qwen3.5-4B-MLX-4bit 在 [链接] 上跑非常快,生成的质量非常高,但是支持的插件太少了。 M1 芯片 16G 的 Mac mini: [图片]
46
1 周前
强化学习知识补课:同样的数据集,SFT 和 RL 学到的东西为什么不一样?
前言 我本人虽然学习的是自然语言处理专业,但当时跟着的学习资料主要是深度学习相关的,但对于强化学习的了解非常少。然而现在 LLM 的效果增强越来越依赖于强化学习,因此我也开始补补强化学习的课。这篇文章讲的就是强化学习里面很基础的内容,但原先对于强化学习基本一无所知的我现在才终于完全搞明白,在此把自己刚弄明白的这个基础问 ..
14
17 小时前