什么是反向传播算法?
反向传播算法(Backpropagation Algorithm)是一种常用的神经网络训练算法,它用于计算人工神经网络中权重的梯度,并通过梯度下降的方法来更新网络的权重,从而实现网络的训练和学习。通过反向传播算法,神经网络可以根据给定的输入和期望输出来调整权重,以便改进网络的预测能力。
反向传播算法的工作原理
反向传播算法基于链式法则(Chain Rule)来计算网络权重的梯度。在神经网络中,每个神经元都有一个输入和一个输出。输入是由前一层神经元的输出以及与其对应的权重计算得到的,而输出是通过激活函数对输入的加权和进行转换得到的。
反向传播算法的核心思想是通过将网络预测值与实际值之间的误差从输出层开始向前传播,逐层计算每个神经元的梯度,并沿着梯度的方向更新权重。具体步骤如下:
- 初始化网络的权重和偏置。
- 对于每个训练样本,进行前向传播计算,得到网络的输出值。
- 计算输出层的误差,即实际值与预测值之间的差异。
- 从输出层开始,利用链式法则计算每个隐藏层和输入层的误差,即将上一层的误差与该层的权重相乘并传递给下一层。
- 计算每个神经元的梯度,即误差乘以激活函数的导数。
- 更新权重和偏置,即根据梯度下降的原理,按照一定的学习率更新权重和偏置的值。
反向传播算法的公式推导
首先,假设我们有一个具有$L$层的神经网络,$w^{[l]}_{ij}$表示第$l$层第$i$个神经元与第$l+1$层第$j$个神经元之间的权重,$a^{[l]}_i$表示第$l$层第$i$个神经元的输出,$z^{[l+1]}_j$表示第$l+1$层第$j$个神经元的输入,$E$表示网络的误差。通过链式法则,我们可以得到以下公式:
$$\frac{\partial E}{\partial w^{[l]}_{ij}} = \delta^{[l+1]}_j a^{[l]}_i$$
其中,$\delta^{[l+1]}_j$表示第$l+1$层第$j$个神经元的误差,可以通过以下公式计算:
$$\delta^{[l+1]}_j = \frac{\partial E}{\partial z^{[l+1]}_j} = \frac{\partial E}{\partial a^{[l+1]}_j} \cdot \frac{\partial a^{[l+1]}_j}{\partial z^{[l+1]}_j} = \frac{\partial E}{\partial a^{[l+1]}_j} \cdot \sigma'(z^{[l+1]}_j)$$
其中,$\sigma'(z^{[l+1]}_j)$表示第$l+1$层第$j$个神经元的激活函数的导数。根据误差的定义,我们可以将$\frac{\partial E}{\partial a^{[l+1]}_j}$表示为:
$$\frac{\partial E}{\partial a^{[l+1]}j} = \sum_k \frac{\partial E}{\partial z^{[l+2]}_k} \cdot \frac{\partial z^{[l+2]}_k}{\partial a^{[l+1]}_j} = \sum_k \delta^{[l+2]}_k w^{[l+1]}{jk}$$
将其代入$\delta^{[l+1]}_j$的公式中,可以得到:
$$\delta^{[l+1]}j = \sum_k \delta^{[l+2]}_k w^{[l+1]}{jk} \cdot \sigma'(z^{[l+1]}_j)$$
对于输出层和隐藏层的梯度更新公式如下:
$$\frac{\partial E}{\partial w^{[l]}{ij}} = \delta^{[l+1]}_j a^{[l]}_i$$
$$\frac{\partial E}{\partial b^{[l]}{j}} = \delta^{[l+1]}_j$$
其中,$b^{[l]}_{j}$表示第$l$层第$j$个神经元的偏置。
反向传播算法的计算步骤
- 初始化网络的权重和偏置。
- 对每个训练样本,进行前向传播计算。
- 计算输出层的误差。
- 从输出层开始,计算每个隐藏层和输入层的误差,并计算每个神经元的梯度。
- 更新权重和偏置。
- 重复步骤2-5,直到满足停止条件。
Python代码示例
以下是一个简单的神经网络实现反向传播算法的Python代码示例。
import numpy as np
# 定义激活函数及其导数
def sigmoid(x):
return 1 / (1 + np.exp(-x))
def sigmoid_derivative(x):
return sigmoid(x) * (1 - sigmoid(x))
# 定义神经网络类
class NeuralNetwork:
def __init__(self, sizes):
self.num_layers = len(sizes)
self.sizes = sizes
self.weights = [np.random.randn(y, x) for x, y in zip(sizes[:-1], sizes[1:])]
self.biases = [np.random.randn(y, 1) for y in sizes[1:]]
def feedforward(self, x):
a = x
for w, b in zip(self.weights, self.biases):
a = sigmoid(np.dot(w, a) + b)
return a
def backpropagation(self, x, y):
# 初始化梯度
delta_weights = [np.zeros(w.shape) for w in self.weights]
delta_biases = [np.zeros(b.shape) for b in self.biases]
# 前向传播
activation = x
activations = [x]
zs = []
for w, b in zip(self.weights, self.biases):
z = np.dot(w, activation) + b
zs.append(z)
activation = sigmoid(z)
activations.append(activation)
# 计算输出层的误差
delta = self.cost_derivative(activations[-1], y) * sigmoid_derivative(zs[-1])
delta_weights[-1] = np.dot(delta, activations[-2].T)
delta_biases[-1] = delta
# 从输出层开始,逐层计算隐藏层和输入层的误差,并计算梯度
for l in range(2, self.num_layers):
z = zs[-l]
sp = sigmoid_derivative(z)
delta = np.dot(self.weights[-l+1].T, delta) * sp
delta_weights[-l] = np.dot(delta, activations[-l-1].T)
delta_biases[-l] = delta
return (delta_weights, delta_biases)
def update_weights(self, mini_batch, learning_rate):
# 初始化梯度
delta_weights = [np.zeros(w.shape) for w in self.weights]
delta_biases = [np.zeros(b.shape) for b in self.biases]
# 对mini batch中的每个样本进行反向传播,并累加梯度
for x, y in mini_batch:
delta_delta_weights, delta_delta_biases = self.backpropagation(x, y)
delta_weights = [dw + ddw for dw, ddw in zip(delta_weights, delta_delta_weights)]
delta_biases = [db + ddb for db, ddb in zip(delta_biases, delta_delta_biases)]
# 更新权重和偏置
self.weights = [w - (learning_rate/len(mini_batch)) * dw for w, dw in zip(self.weights, delta_weights)]
self.biases = [b - (learning_rate/len(mini_batch)) * db for b, db in zip(self.biases, delta_biases)]
def train(self, training_data, epochs, mini_batch_size, learning_rate):
n = len(training_data)
for epoch in range(epochs):
np.random.shuffle(training_data) # 每个epoch前都洗牌
mini_batches = [training_data[k:k+mini_batch_size] for k in range(0, n, mini_batch_size)]
for mini_batch in mini_batches:
self.update_weights(mini_batch, learning_rate)
def cost_derivative(self, output_activations, y):
return (output_activations - y)
# 测试数据
training_data = [
(np.array([[0], [0]]), np.array([[0]])),
(np.array([[0], [1]]), np.array([[1]])),
(np.array([[1], [0]]), np.array([[1]])),
(np.array([[1], [1]]), np.array([[0]]))
]
# 创建神经网络
network = NeuralNetwork([2, 2, 1])
# 训练神经网络
network.train(training_data, epochs=1000, mini_batch_size=4, learning_rate=0.1)
# 测试神经网络
for x, y in training_data:
print("输入:", x)
print("预测:", network.feedforward(x))
print("实际:", y)
print("--------------")
代码细节解释
- 在代码示例中,我们使用了numpy库来进行矩阵运算和数学函数的计算。
- 神经网络的初始化部分定义了网络的结构(每层的神经元个数)并随机初始化权重和偏置。
feedforward
方法用于计算神经网络的输出值。它采用前向传播的方式,逐层计算每个神经元的输出。backpropagation
方法用于计算每个权重和偏置的梯度。它首先进行前向传播得到每层的输出值和输入值,然后根据公式推导计算每层的误差及梯度。update_weights
方法用于更新权重和偏置。它接受一个mini batch的数据,并对其中的每个样本进行反向传播计算梯度,最后累加得到梯度平均值并更新权重和偏置。train
方法用于训练神经网络。它接受训练数据、迭代次数、mini batch大小和学习率等参数,并按照指定次数进行训练。cost_derivative
方法用于计算输出层的梯度。它根据误差的定义计算输出层的误差,用于反向传播的计算。
通过以上的代码实现和解释,我们可以看到反向传播算法在神经网络的训练中起着重要的作用。它通过梯度下降的方式不断调整权重和偏置,使得网络逐渐优化,并能够更准确地进行预测和分类。
原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/825579/
转载文章受原作者版权保护。转载请注明原作者出处!