机器学习笔记(三)

机器学习笔记(三)

文章目录

*
机器学习笔记(三)

+ 线性模型简介
+ 线性回归
+ 线性几率回归

线性模型简介

线性模型最简单的案例是最小二乘法:

机器学习笔记(三)
在机器学习的术语中,当预测值为连续值时,称为”回归问题”,离散值时为”分类问题”。本篇先从线性回归任务开始,接着讨论分类和多分类问题。

; 线性回归

线性回归问题就是试图学到一个线性模型尽可能准确地预测新样本的输出值,有时这些输入的属性值并不能直接被我们的学习模型所用,需要进行相应的处理,对于连续值的属性,一般都可以被学习器所用,有时会根据具体的情形作相应的预处理。

当输入属性只有一个的时候,就是最简单的情形,也就是我们高中时最熟悉的”最小二乘法”(Euclidean distance),首先计算出每个样本预测值与真实值之间的误差并求和,通过最小化均方误差MSE,使用求偏导等于零的方法计算出拟合直线y=wx+b的两个参数w和b,计算过程如下图所示:

机器学习笔记(三)
当输入属性有多个的时候,例如对于一个样本有d个属性{(x1,x2…xd),y},则y=wx+b需要写成:

机器学习笔记(三)
通常对于多元问题,常常使用矩阵的形式来表示数据。在本问题中,将具有m个样本的数据集表示成矩阵X,将系数w与b合并成一个列向量,这样每个样本的预测值以及所有样本的均方误差最小化就可以写成下面的形式:

机器学习笔记(三)

机器学习笔记(三)

机器学习笔记(三)

同样地,我们使用最小二乘法对w和b进行估计,令均方误差的求导等于0,需要注意的是,当一个矩阵的行列式不等于0时,我们才可能对其求逆,因此对于下式,我们需要考虑矩阵(X的转置*X)的行列式是否为0,若不为0,则可以求出其解,若为0,则需要使用其它的方法进行计算,书中提到了引入正则化,此处不进行深入。

机器学习笔记(三)
另一方面,有时像上面这种原始的线性回归可能并不能满足需求,例如:y值并不是线性变化,而是在指数尺度上变化。这时我们可以采用线性模型来逼近y的衍生物,例如lny,这时衍生的线性模型如下所示,实际上就是相当于将指数曲线投影在一条直线上,如下图所示:

机器学习笔记(三)

更一般地,考虑所有y的衍生物的情形,就得到了”广义的线性模型”(generalized linear model),其中,g(*)称为联系函数(link function)。

机器学习笔记(三)

线性几率回归

回归就是通过输入的属性值得到一个预测值,利用上述广义线性模型的特征,是否可以通过一个联系函数,将预测值转化为离散值从而进行分类呢?线性几率回归正是研究这样的问题。对数几率引入了一个对数几率函数(logistic function),将预测值投影到0-1之间,从而将线性回归问题转化为二分类问题。

机器学习笔记(三)
注意这是将输入的数值映射到了0或者1上面了,也就是说实际上是将一个回归问题转换为了一个二元的分类问题:

机器学习笔记(三)

机器学习笔记(三)

若将y看做样本为正例的概率,(1-y)看做样本为反例的概率,则上式实际上使用线性回归模型的预测结果器逼近真实标记的对数几率。因此这个模型称为”对数几率回归”(logistic regression),也有一些书籍称之为”逻辑回归”。下面使用最大似然估计的方法来计算出w和b两个参数的取值,下面只列出求解的思路,不列出具体的计算过程。

机器学习笔记(三)

机器学习笔记(三)

Original: https://blog.csdn.net/m0_54218263/article/details/127150009
Author: hhh江月
Title: 机器学习笔记(三)

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/614647/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球