目录
一、Logistic Regression – Classification:
二、 Hypothesis Regresentation – 假设陈述:
一、Logistic Regression – Classification:
logistic回归虽然带着回归两字却和线性回归有很大的区别,线性回归主要用于预测问题,其输出值为连续变量,而logistic回归主要用于分类问题,其输出值为离散值。logistic回归可以用于多元分类问题,也可以用于二元分类问题,但二元分类更为常用。因此本文只介绍二元分类的应用。
先来看一些logistic回归的基本东西,logistic回归的假设函数为:
,因为 .因此。其中
称为S型函数(sigmoid function)或者逻辑函数(logistic function),其函数图像如图所示:从函数图像中很容易观察出
,即 。使用线性回归对于分类问题存在着一定的问题!线性回归用来解决分类问题时,稳定性差。当样本分布比较复杂时,线性回归无法做到准确的分类。
二、 Hypothesis Regresentation – 假设陈述:
sigmoid函数也叫Logistic函数,用于隐层神经元输出,取值范围为(0,1),它可以将一个实数映射到(0,1)的区间,可以用来做二分类。
举个例子:对于肿瘤数据集,假设其中一个特征为肿瘤的尺寸,结果为{恶性,良性}。假设
即肿瘤为恶性的概率为0.7,因此 ,即在给定的条件下y=1的概率。对于二元分类问题, 。三、Decision boundary – 决策边界:
所谓决策边界就是能够把样本正确分类的一条边界,主要有线性决策边界(linear decision boundaries)和非线性决策边界(non-linear decision boundaries)。注意:决策边界是假设函数的属性,由参数决定,而不是由数据集的特征决定。
四、Cost Function – 损失函数:
这里提出了一个问题:如何去选择参数 ?
Original: https://blog.csdn.net/weixin_52058417/article/details/121983242
Author: 爱吃糖的范同学
Title: 【人工智能】<吴恩达-机器学习>逻辑回归 – 分类问题
原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/664983/
转载文章受原作者版权保护。转载请注明原作者出处!