分类与回归问题的区别
简单来讲分类与回归的问题区别在于输出变量的类型,
即定量输出称为回归,或者说是连续变量预测;(对房价预测,对天气温度预测)
定性输出称为分类,或者说是离散变量预测。(无人驾驶向左/右,天气的状况)
但总而言之,分类问题建立在回归问题的基础上且两者都能够利用函数模型来解决一些问题
分类模型
先建立模型 设置学习率 再进行训练
进行多次训练后,得到分类。回归函数模型可以借此绘制一些离散的点的最优函数模型。
超参数中学习率介绍
学习率能使神经网络中的预测误差比较小
将学习率比作人下山的步伐,要使预测误差变得最小时,相当于人走到海拔最低的一个点,步伐过大就可能始终找不到最低点,从而达不到最优的目标函数
用橙色代表学习率比较大时,蓝色为较小值,显而易见当接近目标函数时,学习率调小后 更易达到最小的损失函数。因此在调试函数时可以先将学习率调大,接近目标时再将其调小。
网络搭建介绍
1.全连接层
全连接顾名思义,将每一个结点与上一层所有的结点相连接
可以用理想对象进行类比
输出的结果为理想对象,上一层的结点分别为你的要求,例如外貌,心性,经济情况
这类的上层结点为与之相关的具体要求,身高、颜值、家庭环境等等…你将这些要求赋值,最终得到外貌、心性、经济情况的分值,再进行赋权,得到最终的分数,因此判断能否达到你的理想对象的要求。
每一层的结点都与上一层的每个结点有关,那么身高和心性有关吗?当然有关,它们的关系为零。
2.池化层与卷积层
池化层与卷积层的目的都是提取特征,对输入量不断简化,两者都具有同一个特性,有几个通道就有几个输出。
3.激活函数的目的
4.BN操作
当sigmoid输入值趋于正无穷或负无穷时,梯度会趋近零,就会达到梯度饱和
用一种比喻来形容,当你用1N的力来触碰计算机,它会显示你摸了它,因为梯度饱和的影响,你用100N的力,计算机同样显示你摸了它,在这种情况下,所获得的结果是非常离谱的。
但通过BN操作可以将函数归一化,使得这种现象得到有效处理。
1.神经网络是函数
有人可能会认为神经网络是池化层,全连接层,激活函数等等元素构成。但学长告诉我们,神经网络本质就是函数。
所以下次可以在不懂的朋友面前装一手,问他什么是神经网络啊,你可以告诉他,神经网络就是函数(doge)
2.介绍一种相关神经网络的运用
将计算机进行训练让其能够做到基本的识别数字功能
首先输入大量样本,例如
1)部分代码
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
# xw+b 全连接层
self.fc1 = nn.Linear(28*28, 256)
self.fc2 = nn.Linear(256, 64)
self.fc3 = nn.Linear(64, 10)
def forward(self, x):
#前向传播
# x: [b, 1, 28, 28]
# h1 = relu(xw1+b1)
x = F.relu(self.fc1(x))
# h2 = relu(h1w2+b2)
x = F.relu(self.fc2(x))
# h3 = h2w3+b3
x = self.fc3(x)
return x
函数<span>nn.Linear()</span>
是用于设置网络中的全连接层的
这边设置为每十次显示一次计算结果,重复计算三次,得结果
得到最优函数后得到图像
Original: https://blog.csdn.net/qq_62127680/article/details/121235956
Author: Yory__
Title: 分类与回归及网络搭建+神经网络简介(学习记录与分享)
原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/664997/
转载文章受原作者版权保护。转载请注明原作者出处!