文章目录
- 中文笔记地址
- 视频地址
- 第1章 引言
* - 1.1 欢迎
- 1.2 机器学习是什么
- 1.3 监督学习
- 1.4 无监督学习
- 第2章
* - 2.1 模型展示
– - 2.2 代价函数
- 2.3-2.4 代价函数理解
- 2.5-2.6 梯度下降算法,梯度下降算法理解
- 第3章
- 第4章
* - 4.2 多元(多变量)梯度下降算法
- 4.3 梯度下降实用技巧1-特征缩放
- 4.4 梯度下降算法实用技巧2 -学习率的选择
- 4.5 特征与多项式回归
- 4.6 正规方程
- 4.7 正规方程(在矩阵不可逆的时候解法)
- 第5章
* - 5.6 向量化概念
- 第6章
* - 6.1 分类问题
- 6.2 假设陈述
- 6.3 决策界限
- 6.4代价函数
- 6.5 简化代价函数与梯度下降
- 6.6 高级优化
- 6.7 多元分类:一对多
- 第7章
* - 7. 1过拟合问题
- 7.2 代价函数
- 7.3 线性回归的正则化
- 7.4 正则化的逻辑回归模型
- 第8章
* - 8.1 非线性建设
- 8.3 模型展示I
- 8.4 模型展示II
- 8.5 例子与直观理解神经网络 I
- 8.6 例子与直观理解神经网络 II
- 8.7 神经网络解决多元分类
- 第9章
* - 9.1 代价函数
- 9.2 反向传播算法
- 9.3 理解反向传播算法
- 9.4 使用技巧:展开参数
- 9.5 梯度检测
- 9.6 随机初始化
- 9.7 总结
- 9.8 自动驾驶
- 第10章
* - 10.1 决定下一步做什么
- 10.2 评估假设
* - 10.3 模型选择和训练,验证,测试集
- 10.4 诊断偏差与方差
- 10.5 正则化和偏差、方差
- 10.6 学习曲线
- 10.7 决定接下来做什么
- 11.1 确定执行的优先级
- 11.2 误差分析
- 11.3 不对称性分类的误差评估
- 11.4 查准率和召回率的权衡
- 11.5 机器学习数据
- 12.1 优化目标(支持向量机)
- 12.2 直观上对于大间隔的理解
- 12.3 大间隔分类器的数学原理
- 12.4 核函数1
- 12.5 核函数2
- 12.6 使用SVM
中文笔记地址
https://github.com/fengdu78/Coursera-ML-AndrewNg-Notes
视频地址
https://study.163.com/course/courseLearn.htm?courseId=1210076550#/learn/video?lessonId=1280912351&courseId=1210076550
第1章 引言
1.1 欢迎
1.2 机器学习是什么
定义机器学习为:在进行特定编程的情况下,给予计算机 学习能力的领域。目前存在几种不同类型的学习算法,主要的两种类型被我们称之为监督学习和无监督学习。 监督学习这个想法是指,我们将教计算机如何去完成任务, 而在无监督学习中,我们打算让它自己进行学习
1.3 监督学习
**监督学习指的就是我们给学习算法一个数据集(训练集)。这个数据集由”正确答案”组成。
回归与分类问题定义
回归 这个词的意思是,我们在试着推测出这一系列 连续值属性
回归问题 ,指我们试着推测出一个连续值的结果,比如房子的价格(1-1000元),尽管价格最小单位是分,但我们还是把它作为连续值
分类指的是,我们试着推测出 离散的输出值,如是否是肿瘤(是为1,不是为0)
支持向量机,里面有一个巧妙的数学技巧, 能让计算机处理无限多个特征
假设你经营着一家公司,你想开发学习算法来处理这两个问题:
(1)你有一大批同样的货物,想象一下,你有上千件一模一样的货物等待出售,这时你想预测接下来的三个月能卖多少件?
(2)你有许多客户,这时你想写一个软件来检验每一个用户的账户。对于每一个账户,你要判断它们是否曾经被盗过?
那这两个问题,它们属于分类问题、还是回归问题
问题一是一个回归问题,因为你知道,如果我有数千件货物,我会把它看成一个 实数(有理数+无理数),一个连续的值。因此卖出的物品数,也是一个连续的值。
问题二是一个分类问题,因为我会把预测的值,用 0 来表示账户未被盗,用 1 表示账户曾经被盗过。所以我们根据账号是否被盗过,把它们定为0 或 1,然后用算法推测一个账号是 0 还是 1,因为只有少数的离散值,所以我把它归为分类问题。
1.4 无监督学习
无监督学习中, 数据集没有任何的标签或者是有相同的标签。所以我们已知数据集,却不知如何处理,也未告知每个数据点是什么
无监督学习就是运行一个聚类算法(无监督学习算法),把不同的个体,归入不同类或者归为不同的类型的人
无监督学习的第2种算法,叫”鸡尾酒会算法”,能两种混合在一起的声音区分开来(如两种混在一起的人声,人声和背景音混在一起)
问题Q&A汇总
无监督学习和有监督学习的区别:(1)数据集,有监督学习的数据集是提前打好标签的,而无监督学习的数据集是没有任何标签或标签都是相同的
; 第2章
2.1 模型展示
单变量线性回归
一元线性回归模型(单变量线性回归模型)
因为只含有一个特征/输入变量,因此这样的问题叫作单变量线性回归问题。h表示为假设函数
我们可以通过模型参数,a和b (对应文中的0和1两个参数),来定义不同的假设函数
; 2.2 代价函数
代价函数也被称作平方误差函数,有时也被称为平方误差代价函数。我们之所以要求出误差的平方和,是因为误差平方代价函数,对于大多数问题,特别是回归问题,都是一个合理的选择
整体的目标函数是使得误差平方代价函数值最小
这个最小的点,对应的参数(0,1),形成最终的目标函数
看到第2张图,是等高线,所有圆圈上(参数x0,和参数x1),对应的j(x0,x1)的值都是相同的,类似于等高线
2.3-2.4 代价函数理解
提供假设函数,该假设函数有两个参数,我们通过误差平方和来定义代价函数,当选定特定的参数0和参数1,使代价函数值最小,这个就是我们的目标函数
; 2.5-2.6 梯度下降算法,梯度下降算法理解
梯度下降算法,可以用于求函数的最小值,可用梯度下降算法来求出代价函数J(x0,x1)的最小值
梯度下降算法公式
公式当中的:= 为赋值,而=为条件判断语句(视频中是这样定义的)
另外更新x0,x1 参数需要同步更新,右边先更新x0 ,再更新x1 不是典型的梯度下降算法,结果可能不正确
梯度下降会自动采用更小的幅度,没有必要再降低学习率a
梯度下降可以收敛到一个局部最小值,即使学习率a是固定的。当接近一个局部最小值时,梯度下降会自动采取更小的步骤,所以不需要随时间减小学习率a
但就目前而言,应用刚刚学到的算法,你应该已经掌握了批量梯度算法,并且能把它应用到线性回归中了, 这就是用于线性回归的梯度下降法。
如果你之前学过线性代数,有些同学之前可能已经学过高等线性代数,你应该知道有一种计算代价函数最小值的数值解法,不需要梯度下降这种迭代算法。在后面的课程中,我们也会谈到这个方法, 它可以在不需要多步梯度下降的情况下,也能解出代价函数的最小值,这是另一种称为正规方程(normal equations)的方法。实际上在数据量较大的情况下,梯度下降法比正规方程要更适用一些。
现在我们已经掌握了梯度下降,我们可以在不同的环境中使用梯度下降法,我们还将在不同的机器学习问题中大量地使用它。所以,祝贺大家成功学会你的第一个机器学习算法。
在下一段视频中,告诉你 泛化(通用)的梯度下降算法,这将使梯度下降更加强大。
第3章
矩阵和向量相关概念
第4章
4.2 多元(多变量)梯度下降算法
下面是单变量梯度下降和多变量梯度下降的对比
; 4.3 梯度下降实用技巧1-特征缩放
特征缩放,先看左边的图,如果有两个特征,一个特征是房子大小0-2000,而另一个特征是卧室的数量(1-5),那么画出来的代价函数的图像,就是椭圆状,这种图像经过梯度下降算法,很难收敛,因为(x0,x1)会来回震荡
我们经过特征缩放,即x1=size/2000,x2=卧室数量/5,这样的操作后,x1与x2 都处于 0到1的范围
尽量使得每一个特征处于-1
Original: https://blog.csdn.net/u011035397/article/details/122143857
Author: Bug 挖掘机
Title: 【机器学习】机器学习笔记(吴恩达)
原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/648708/
转载文章受原作者版权保护。转载请注明原作者出处!