机器学习 (2)——线性回归

本贴最后更新于 2266 天前,其中的信息可能已经渤澥桑田

0x00 前言

第一篇记录了机器学习的定义、分类和范围,这一篇开始从机器学习的方法学起,总结机器学习的经典方法,然后尽量自己写代码实现。

0x01 回归算法

回归算法属于机器学习中监督学习类的算法,是入门机器学习最基础的算法。

回归分析是研究自变量和因变量之间关系的一种预测模型技术。这些技术应用于预测,时间序列模型和找到变量之间关系。

回归算法就是量化因变量受自变量影响的大小,建立线性回归方程或者非线性回归方程,从而达对因变量的预测,或者对因变量的解释作用。

0x02 回归分析流程

① 探索性分析,画不同变量之间的散点图,进行相关性检验等,了解数据的大致情况,以及得知重点关注那几个变量;

② 变量和模型选择;

③ 回归分析假设条件验证;

④ 共线性和强影响点检查;

⑤ 模型修改,并且重复 ③④;

⑥ 模型验证。

0x03 回归算法分类

回归算法主要通过三种方法分类:自变量的个数、因变量的类型和回归线的形状。

常见的回归算法有:

  • 线性回归
  • 逻辑回归
  • 多项式回归
  • 逐步回归
  • 岭回归
  • Lasso 回归
  • ElasticNet 回归

0x04 线性回归(Linear Regression)

线性回归是世界上最知名的建模方法之一,在线性回归模型中,因变量是连续型的,自变量可以使连续型或离散型的,回归线是线性的。

线性回归用最适直线(回归线)去建立因变量 Y 和一个或多个自变量 X 之间的关系。可以用公式来表示:

Y=A+B*X+e

A 为截距,B 为回归线的斜率,e 是误差项。

简单线性回归与多元线性回归的差别在于:多元线性回归有多个(>1)自变量,而简单线性回归只有一个自变量。

简单线性回归

我们首先实现一个只有单一自变量的简单线性回归

我们实现这个算法,可以先以 Andrew Ng 机器学习讲义中美国俄亥俄州 Portland Oregon 城市房屋价格为例:

这个例子中近简化使用房屋面积一个因子作为自变量,y 轴对应其因变量房屋价格。所以我们机器学习的线性回归就变为对于给定有限的数据集,进行一元线性回归,即找到一个一次函数 y=y(x) + e,使得 y 满足

当 x={2104, 1600, 2400, 1416, 3000, … }, y={400, 330, 369, 232, 540, … }
面积(feet²) 价格(1000$)
2104 400
1600 330
2400 369
1416 232
3000 540
··· ···
对这个问题我们先给出假设函数即需要拟合的直线:

其中 a 和 b 是我们要求得的参数,参数得变化会引起函数的变化。

而我们解出参数之后的函数是否为最优解,我们需要引入一个概念:Cost Function,即代价函数或成本函数。

代价函数(Cost Function)

在回归问题中,衡量最优解的常用代价函数为平方误差。

平方误差在高中和大学的概率论、统计学等课程中我们都有所了解,就是用样本数据和拟合出的线做差值,然后对差值进行平方和并除以点数 m 计算平均值。

而在这里,我们要导出代价函数,额外除以 1/2 做数学简化,形成以下代价函数:

ps:这里额外除以 1/2,是为了之后平方函数的微分项将抵消 1/2 项,以方便计算梯度下降。

下来我们求解最优解的问题就转变为了求解代价函数的最小值。

其中 J 是基于 θ 的函数,我们可以先将其简化成只有 θ1 的函数,令 θ0=0.

然后我们不断给定 θ1 的值,基于样本值进行计算代价函数 J,就可以得到一个 θ1 和 J 的函数,并在某一点取得极小值。

如样本数据为 y ={(1,1), (2,2),(3,3)}时,可以得到如下的 J-θ1 图形:

我们求解线性回归最优解的方法一般是梯度下降法和最小二乘法

最小二乘法

代价函数中使用的均方误差,其实对应了我们常用的欧几里得的距离(欧式距离,Euclidean Distance), 基于均方误差最小化进行模型求解的方法称为“最小二乘法”(least square method),即通过最小化误差的平方和寻找数据的最佳函数匹配。

当函数子变量为一维时,最小二乘法就蜕变成寻找一条直线。

如我们上例中的模型,寻找 J 极小值就是分别用 J 对 θ1 和 θ0 求偏导,然后寻找偏导为零的点。

解得:

局限性

最小二乘法算法简单,容易理解,而然在现实机器学习却有其局限性:

  • 并非所有函数都可以求出驻点,即导数为 0 的点,f(x)=0
  • 求解方程困难,或求根公式复杂
  • 导数并无解析解
  • 最小二乘法的矩阵公式,计算一个矩阵的逆是相当耗费时间的, 而且求逆也会存在数值不稳定的情况

梯度下降法

正是由于在实际中,最小二乘法遇到的困难和局限性,尤其是多数超定方程组不存在解,我们由求导转向迭代逼近。也就是梯度下降算法。

首先我们了解一下什么是梯度,这在复变函数等大学课程中都曾经学过。

方向导数

方向导数即研究在某一点的任意方向的变化率,是偏导数的广义扩展。

梯度

梯度则基于方向导数,是一个向量而非数,梯度代表了各个方向导数中,变化趋势最大的那个方向。

那么,梯度方向就是增长最快的方向,负梯度方向就是减小最快的方向。

梯度下降算法

梯度下降算法通常也被称作最速下降法。其目的是找到一个局部极小值点;其目标与最小二乘法相同,都是使得估算值与实际值的总平方差尽量小。

其方法是采用计算数学的迭代法,先给定一初始点,然后向下降最快的方向调整,在若干次迭代之后找到局部最小。

比如我们给定上面的方程,初始参数是 θ0,θ1,我们不断改变 θ0,θ1 从而减少 J(θ0,θ1)的值,具体做法是求导。直到最终收敛。

迭代公式如下:

其中 θj 可以是 θ0 和 θ1 这两个参数,α 为步长,整个式子的意义为,θ0,θ1 每次向 J(θ0,θ1)负梯度方向下降步长 α。

学习率

公式中的步长 α,也称为学习率,用来控制每次下降的幅度。

我们应该调整参数 α 以确保梯度下降算法在合理的时间内收敛。

  • 如果 α 过小,每步会移动非常近,收敛时间就会很长。
  • 如果 α 过大,每步会移动比较远,会导致直接越过极小值,甚至无法收敛到最低点。

如果我们时间耗费较长或无法收敛,那就说明我们要重新制定学习率 α。

线性回归梯度下降

对于线性模型,我们可以这样写梯度下降函数。

h(x)是需要拟合的函数。

J(θ)称为均方误差或 cost function。用来衡量训练集众的样本对线性模式的拟合程度。

m 为训练集众样本的个数。

θ 是我们最终需要通过梯度下降法来求得的参数。

接下来的梯度下降法就有两种不同的迭代思路。

批量梯度下降(Batch Gradient Descent)

可以看到上述每次迭代都需要计算所有样本的残差并加和,批量梯度下降是梯度下降法最原始的形式,它的具体思路是在更新每一参数时都使用所有的样本来进行更新。

1.计算 J(θ)关于 θT 的偏导数,也就得到了向量中每一个 θ 的梯度。

2.沿着梯度的反方向更新参数 θ 的值

3.迭代直到收敛。

优点:全局最优解,易于并行实现。
缺点:当样本数目很多时,训练过程会很慢。

随机梯度下降(Stochastic gradient descent)

和批量梯度有所不同的地方在于,每次迭代只选取一个样本的数据,一旦到达最大的迭代次数或是满足预期的精度,就停止。

随机梯度下降法的 θ 更新表达式。

迭代直到收敛。

优点:训练速度快。
缺点:准确度下降,并不是全局最优,不易于并行实现。

视觉效果

当我们的成本函数处于图的坑底时,J 值最小,为最佳解。

  • 机器学习

    机器学习(Machine Learning)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。

    83 引用 • 37 回帖

相关帖子

欢迎来到这里!

我们正在构建一个小众社区,大家在这里相互信任,以平等 • 自由 • 奔放的价值观进行分享交流。最终,希望大家能够找到与自己志同道合的伙伴,共同成长。

注册 关于
请输入回帖内容 ...

推荐标签 标签

  • 数据库

    据说 99% 的性能瓶颈都在数据库。

    343 引用 • 723 回帖
  • Bug

    Bug 本意是指臭虫、缺陷、损坏、犯贫、窃听器、小虫等。现在人们把在程序中一些缺陷或问题统称为 bug(漏洞)。

    76 引用 • 1737 回帖 • 1 关注
  • jsoup

    jsoup 是一款 Java 的 HTML 解析器,可直接解析某个 URL 地址、HTML 文本内容。它提供了一套非常省力的 API,可通过 DOM,CSS 以及类似于 jQuery 的操作方法来取出和操作数据。

    6 引用 • 1 回帖 • 483 关注
  • WebSocket

    WebSocket 是 HTML5 中定义的一种新协议,它实现了浏览器与服务器之间的全双工通信(full-duplex)。

    48 引用 • 206 回帖 • 317 关注
  • danl
    146 关注
  • GitBook

    GitBook 使您的团队可以轻松编写和维护高质量的文档。 分享知识,提高团队的工作效率,让用户满意。

    3 引用 • 8 回帖
  • SVN

    SVN 是 Subversion 的简称,是一个开放源代码的版本控制系统,相较于 RCS、CVS,它采用了分支管理系统,它的设计目标就是取代 CVS。

    29 引用 • 98 回帖 • 694 关注
  • 自由行
    4 关注
  • Git

    Git 是 Linux Torvalds 为了帮助管理 Linux 内核开发而开发的一个开放源码的版本控制软件。

    209 引用 • 358 回帖
  • Ant-Design

    Ant Design 是服务于企业级产品的设计体系,基于确定和自然的设计价值观上的模块化解决方案,让设计者和开发者专注于更好的用户体验。

    17 引用 • 23 回帖 • 4 关注
  • 安装

    你若安好,便是晴天。

    132 引用 • 1184 回帖 • 1 关注
  • Gzip

    gzip (GNU zip)是 GNU 自由软件的文件压缩程序。我们在 Linux 中经常会用到后缀为 .gz 的文件,它们就是 Gzip 格式的。现今已经成为互联网上使用非常普遍的一种数据压缩格式,或者说一种文件格式。

    9 引用 • 12 回帖 • 147 关注
  • Kubernetes

    Kubernetes 是 Google 开源的一个容器编排引擎,它支持自动化部署、大规模可伸缩、应用容器化管理。

    110 引用 • 54 回帖 • 1 关注
  • 反馈

    Communication channel for makers and users.

    123 引用 • 913 回帖 • 250 关注
  • Latke

    Latke 是一款以 JSON 为主的 Java Web 框架。

    71 引用 • 535 回帖 • 789 关注
  • 宕机

    宕机,多指一些网站、游戏、网络应用等服务器一种区别于正常运行的状态,也叫“Down 机”、“当机”或“死机”。宕机状态不仅仅是指服务器“挂掉了”、“死机了”状态,也包括服务器假死、停用、关闭等一些原因而导致出现的不能够正常运行的状态。

    13 引用 • 82 回帖 • 60 关注
  • Flume

    Flume 是一套分布式的、可靠的,可用于有效地收集、聚合和搬运大量日志数据的服务架构。

    9 引用 • 6 回帖 • 637 关注
  • Markdown

    Markdown 是一种轻量级标记语言,用户可使用纯文本编辑器来排版文档,最终通过 Markdown 引擎将文档转换为所需格式(比如 HTML、PDF 等)。

    167 引用 • 1520 回帖
  • 开源中国

    开源中国是目前中国最大的开源技术社区。传播开源的理念,推广开源项目,为 IT 开发者提供了一个发现、使用、并交流开源技术的平台。目前开源中国社区已收录超过两万款开源软件。

    7 引用 • 86 回帖
  • RIP

    愿逝者安息!

    8 引用 • 92 回帖 • 363 关注
  • 开源

    Open Source, Open Mind, Open Sight, Open Future!

    407 引用 • 3578 回帖
  • 运维

    互联网运维工作,以服务为中心,以稳定、安全、高效为三个基本点,确保公司的互联网业务能够 7×24 小时为用户提供高质量的服务。

    149 引用 • 257 回帖
  • FreeMarker

    FreeMarker 是一款好用且功能强大的 Java 模版引擎。

    23 引用 • 20 回帖 • 465 关注
  • FlowUs

    FlowUs.息流 个人及团队的新一代生产力工具。

    让复杂的信息管理更轻松、自由、充满创意。

    1 引用
  • Log4j

    Log4j 是 Apache 开源的一款使用广泛的 Java 日志组件。

    20 引用 • 18 回帖 • 29 关注
  • Openfire

    Openfire 是开源的、基于可拓展通讯和表示协议 (XMPP)、采用 Java 编程语言开发的实时协作服务器。Openfire 的效率很高,单台服务器可支持上万并发用户。

    6 引用 • 7 回帖 • 101 关注
  • ActiveMQ

    ActiveMQ 是 Apache 旗下的一款开源消息总线系统,它完整实现了 JMS 规范,是一个企业级的消息中间件。

    19 引用 • 13 回帖 • 668 关注