1.卷积层的计算方法与常见用法

卷积层在深度学习中常用于特征提取与类别预测,包括降低特征尺度并升维,将大尺寸低维度的特征转为低尺寸高维度的特征,通过多个卷积层提取特征,并在最后使用卷积层作为预测层即实现了目标检测或图像识别。

1. 卷积层包含哪些参数,分别有什么作用

卷积层的本质是参数共享的卷积核,参数共享的含义是,在对特征图进行卷积操作时,特征图中的所有像素点进行的卷积计算都使用同一个卷积核的参数(使用卷积核进行滑窗计算)。

卷积核包含哪些参数呢,常用的参数为(in_channel,out_channel,卷积核尺寸,stride,padding)。其中,in_channel,out_channel定义了输入卷积层的特征的通道数,卷积层输出特征的通道数;卷积核尺寸表示卷积核的大小(常见有7×7,3×3,1×1等,现在也有很多超大卷积核尺寸的研究),stride(步长)可用与降尺寸或增加感受野(后续介绍),padding(补0操作)同样用于卷积层输出尺寸设置。

2. 卷积层常用操作与原理

部分图例来自:Convolutional Neural Networks – Basics · Machine Learning Notebook (mlnotebook.github.io)

2.1 卷积层计算方法

最左边为输入,左2为卷积层参数,点乘后求和得到当前位置的卷积结果235。

1.卷积层的计算方法与常见用法
随后继续进行滑窗,就得到完整的卷积结果:
1.卷积层的计算方法与常见用法

; 2.2 改变特征尺寸

首先介绍padding的用法,对于图2中的特征,它的尺寸为5×5,当使用3×3的卷积层处理后,输出的特征图变成了3×3。可是如果我们仅仅想使用卷积层提取特征,不想特征的尺寸减小,甚至想增大特征的尺度,应该怎么办呢?padding的作用就在于此。

padding的作用方法就是补0,通过补0来增大原有特征的尺寸,从而保证卷积后的特征尺寸不变或者增大,因为是上下左右补0,padding=1后,特征尺寸由5×5变为7×7,当padding=1时的效果如下:

1.卷积层的计算方法与常见用法
作用方式还是很简单易懂的。

然后介绍stride的用法,stride就是步长,就是滑动间隔,卷积层的计算方法是滑窗点乘,因此步长对于滑窗的影响还是很易懂的,同样以5×5的特征为例,图2中的卷积操作,步长s=1即无间隔,当s=2时,当卷积窗口移动时需要间隔1格,如下图

1.卷积层的计算方法与常见用法

这样,当s=2时,卷积层输出的尺度就由3×3变成了2×2。

最后总结,当特征输入尺寸为H×W时,卷积核参数为F(卷积核尺寸),S(stride),P(padding)时,输出特征尺寸为:

1.卷积层的计算方法与常见用法
除不尽的结果向上取整。

2.3 特征的升降维(in_channel,out_channel)

我们都知道在卷积神经网络,特征的尺寸通常是H×W×C(Channel),那么卷积核是如何实现升降维的呢?

以特征图尺寸为H×W×2为例。

1.卷积层的计算方法与常见用法
画的图应该挺容易看懂的,就不继续介绍了。

; 3. 什么是感受野及计算

感受野表示为,输出的特征图中的像素点与最开始的输入图像关联的尺寸,以下图为例:

1.卷积层的计算方法与常见用法

卷积层输出的像素点235,能够感受到3×3的输入值,则感受野为3×3。

对于级联的卷积层,最终的感受野计算与上述一致,计算最后输出的特征中的任一像素点,能够与原图中的N×N的输入点关联,即感受野为N×N。

后续将继续更新全连接层、池化层、激活层、BN层、loss等卷积神经网络原理。介绍原理后对典型的目标检测或实例分割网络进行精读解析。

Original: https://blog.csdn.net/qq_35712178/article/details/126307842
Author: xiaobai0314
Title: 1.卷积层的计算方法与常见用法

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/691383/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球