深度学习基础(常见的网络2)

CNN:

总结:利用权值共享【卷积操作】将神经网络本来的全连接层替换为非全连接层,使输入可以为尺度可变的张量。

可用结构:

(Max, mean)Pooling:降维;

全连接层:分类

[En]

Full connection layer: classification

循环神经网络(RNNs)– 推荐文章

是一类人工神经网络,单元之间的连接形成一个有向循环。这使得它可以表现出动态的时间行为。与前馈神经网络不同 ,RNN可以使用其内部存储器来处理任意输入序列。

这使得它们适用于未分割、连接的手写识别或语音识别等任务。

[En]

This makes them suitable for tasks such as unsegmented, connected handwriting recognition or speech recognition.

递归神经网络(RNNs)– 推荐文章

是一种通过在一个结构上递归及应用相同一组权重来创建的深度神经网络,通过遍历给定拓扑顺序的结构,对可变大小的输入结构产生结构化的预测或标量预测。

在自然语言处理中,RNNs已经成功地用于学习序列和树结构 ,主要是基于词嵌入的短语和句子连续表示 。

长短期记忆网络(LSTMs)– 推荐文章

长期短期记忆 – 这是一种循环型神经网络(RNN),允许数据在网络中向前和向后流动。

LSTM适合于处理和预测时间序列中间隔和延迟非常长的重要事件,隐马尔可夫模型和其他序列学习方法给LSTM带来了优势 。

GAN:

总结:利用两个网络对抗生成模型,生成器与辨别器,生成器输入图像,生成所需图像,辨别器辨别所需图像与生成图像,使生成器的生成图像骗过辨别器。

可用结构:

CNN;(Recursive)Residual Network(残差(递归)网络);FCN(全卷积网络);convolutional LSTM;

深度学习基础(常见的网络2)

Autoencoder:

是一种人工神经网络,用于高效编码的无监督学习。

与GAN一样,并不是单纯的网络结构,只是类似PCA一样的东西,在无监督学习中的框架,利用conv与deconv降维升维来进行学习,分别叫做encoder与decoder编码解码,一般基于卷积网络,encoder后相当于学习到了特征,而decoder后相当于还原了图像,既可以用输入图像进行训练,训练好一层加深一层。再可以利用有监督微调,从而达到分类或者图像转换的目的。

可用结构:

CNN;Residual Network;

深度学习基础(常见的网络2)

自动编码器的目的是学习一组数据的表示(编码),通常用于降维。近年来,自动编码器的概念在数据生成模型的学习中得到了越来越广泛的应用。

[En]

The purpose of an automatic encoder is to learn the representation (coding) of a set of data, usually for dimensionality reduction. Recently, the concept of automatic encoder has been more and more widely used in the learning of data generation model.

残差网络Resnet:

将上层的输入和结果相加,使得深层网络效果更好(一个残差块一般不少于两层)。

[En]

The input of the upper level and the result are added to make the deep network effect better (a residual block is generally not less than two layers).

深度学习基础(常见的网络2)

U-NET

也是encoder-decoder,利用前一encoder的信息与decoder信息结合,两者一一对应,共享信息。

Original: https://www.cnblogs.com/Anita9002/p/9296098.html
Author: Anita-ff
Title: 深度学习基础(常见的网络2)

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/7621/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

最近整理资源【免费获取】:   👉 程序员最新必读书单  | 👏 互联网各方向面试题下载 | ✌️计算机核心资源汇总