On Pixel-Wise Explanations for Non-Linear Classifier Decisions by Layer-Wise Relevance Propagation
期刊
PLOS one
一个风评不佳的水刊,但这篇论文算是精品,很多顶会顶刊都有引用
论文内容
目的
找出输入像素x的每个输入像素x ( d ) x_{(d)}x (d )对特定预测f ( x ) f(x)f (x )的贡献
主要思想的公式
f ( x ) ≈ ∑ d = 1 V R d f(x)\approx \sum_{d=1}^VR_d f (x )≈∑d =1 V R d
提出的新概念
LRP,layer-wise relevance propagation 相关性分数逐层传播
- 提出的这一方法不涉及图像分割
- 方法建立在预先训练好的分类器之上
- LRP作为由一组约束定义的概念,满足约束的方案都认为遵守LRP,作者给两个特定分类器订制了解决方案。本文只关注LRP在多层网络(Multilayer Networks)上的思想。ps:也不关注泰勒分解。
LRP较详解
像上图右侧部分所示,对于LRP来说,第一层是输出,最后一层是输入
每一层各个维度(某个维度就是某个神经元)的相关性之和守恒
f ( x ) = … = ∑ d ∈ l + 1 R d l + 1 = ∑ d ∈ l R d l = … = ∑ d R d 1 f(x) = …=\sum_{d\in l+1}R_{d}^{l+1}=\sum_{d\in l}R_{d}^{l}=…=\sum_{d}R_{d}^{1}f (x )=…=∑d ∈l +1 R d l +1 =∑d ∈l R d l =…=∑d R d 1
Multilayer Network之LRP
一般的网络(Multilayer Network)可以表示为:
z i j = x i w i j , z_{ij} = x_{i}w_{ij},z ij =x i w ij ,
z j = ∑ i z i j + b j , z_{j} = \sum_{i}z_{ij}+b_j,z j =∑i z ij +b j ,
x j = g ( z j ) x_{j} = g(z_{j})x j =g (z j )
解释:
①神经元i*神经元i与神经元j之间的权重,得到zij
②把所有神经元到神经元j的zij合起来加上bias term 偏置项,得到上一层所有神经元到神经元j的向量zj
③经激活函数g(like sigmoid relu)处理得到下一层神经元xj
- 泰勒部分
不看 - LRP部分——Layer-wise relevance backpropagation
下图是图形示例
对于R i ← j ( l , l + 1 ) R_{i\leftarrow j}^{(l,l+1)}R i ←j (l ,l +1 )含义的示意图
工作原理:
Knowing the relevance of a certain neuron R j ( l + 1 ) R_{j}^{(l+1)}R j (l +1 )for the classification decision f ( x ) f(x)f (x ), one would like to obtain a decomposition of such relevance in terms of messages sent to neurons of the previous layers. We call these messages R i ← j R_{i\leftarrow j}R i ←j
了解特定神经元与分类决策函数f ( x ) f(x)f (x )的相关性 R j ( l + 1 ) R_{j}^{(l+1)}R j (l +1 ),希望根据发送到前一层(靠近input为前)的神经元的消息来获得这种相关性的分解,称这些消息是R i ← j R_{i\leftarrow j}R i ←j 。
其中,∑ i \sum_{i}∑i :给定层所有神经元之和; ∑ j \sum_{j}∑j :某一层所有神经元之和
公式为:
∑ i R i ← j l , l + 1 \sum_{i}R_{i\leftarrow j}^{l,l+1}∑i R i ←j l ,l +1 = R j ( l + 1 ) R_{j}^{(l+1)}R j (l +1 )
含义:l + 1 l+1 l +1层的某个神经元j的相关性 = == l + 1 l+1 l +1层的神经元j j j给l l l层所有神经元的相关性之和
z:向量(l + 1 l+1 l +1层所有的神经元合起来)
一个线性网络
在实际应用中,LRP有两种改进形式,分别是ϵ − r u l e \epsilon-rule ϵ−r u l e(第一个) 和 β − r u l e \beta -rule β−r u l e(第二个)
Original: https://blog.csdn.net/m0_43455312/article/details/121458860
Author: isLauraL
Title: 【可解释论文阅读】13.LRP(Layer-wise relevance propagation相关性分数逐层传播)
原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/649197/
转载文章受原作者版权保护。转载请注明原作者出处!