PyTorch—-激活函数

什么是激活函数?

  • 在神经网络中我们经常使用线性运算来解决分类问题,这就需要激活函数来解决非线性问题
  • 传统的全连接网络是让数据不断的通过线性函数和激活函数层,从而得到最终的预测结果。

Sigmoid函数

sigmoid函数是最经典、最早使用的激活函数,公式如下:

ρ = 1 1 + e − z \rho = \frac{1}{1+ e^{-z}}ρ=1 +e −z 1 ​

PyTorch----激活函数
  • 激活函数Sigmoid在定义域内处处可以求导,当输入一个较小或者较大的数据时,该函数的导数会变得很小,梯度趋近于0。
  • 如果每次梯度值都减小,神经网络具有很多层,当梯度穿过很多层,会逐渐趋近于0,出现 梯度消失现象,模型无法继续收敛,sigmoid函数以前被广泛使用,现在很少被人使用。
import torch
import torch.nn as nn

x = torch.tensor([-1.0,1.0,2.0,3.0])
output = torch.sigmoid(x)
print(output)

s = nn.Sigmoid()
output = s(x)
print(output)

PyTorch----激活函数

Tanh激活函数

  • Tanh是双曲函数中的双曲正切函数.在数学中, 双曲正切函数都是由双曲正弦函数和双曲余弦函数推导而来
  • t a n h ( x ) = e x − e − x e x + e − x tanh(x) = \frac{e^x – e^{-x}}{e^x + e^{-x}}t a n h (x )=e x +e −x e x −e −x ​

PyTorch----激活函数
  • 和Sigmoid函数很相似,但是Tanh函数的输出范围为(-1,1),Sigmoid函数的输出范围为(0,1)。
  • PyTorch中同样有两种实现方式
import torch
import torch.nn as nn

output = torch.tanh(x)
print(output)

t = nn.Tanh()
output = t(x)
print(output)

PyTorch----激活函数

ReLU激活函数

  • 双曲正切函数和Sigmoid函数都差不多,都有梯度消失的现象,解析式中也存在幂运算,计算的时间也慢。
  • 为了解决梯度消失的问题,线性修正单元函数(Rectified Linear Units,简称ReLU) 就被发明了出来。

ReLU函数是现在最常用的激活函数之一:

PyTorch----激活函数
  • x为常数,当x
  • 当x>=0时,ReLU的取值为x,梯度始终为固定的一个值,解决了梯度消失的问题。
    PyTorch----激活函数
import torch
import torch.nn as nn

output = torch.relu(x)
print(output)

t = nn.ReLU()
output = t(x)
print(output)

总结

  • 解决二分类问题, 我们一般会将最后一层设置为Sigmoid函数层. 因此, 从Sigmoid函数图像可以看出,该函数范围为(0,1) 这样可以很好的表示概率值。
  • 如果在神经网络内部(隐藏层)需要使用激活函数,一般会使用ReLU函数或者ReLU函数的改进来进行激活。
  • 如果是二分类问题,那么在神经网络最后一层加上Sigmoid函数层。
  • 如果是多分类问题,那么会在神经网络最后一层加上Softmax函数层。
  • Softmax函数通常和交叉熵函数一起使用。

Original: https://blog.csdn.net/bjsyc123456/article/details/124896207
Author: B.Bz
Title: PyTorch—-激活函数

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/709907/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球