【可解释论文阅读】13.LRP(Layer-wise relevance propagation相关性分数逐层传播)

On Pixel-Wise Explanations for Non-Linear Classifier Decisions by Layer-Wise Relevance Propagation

期刊
PLOS one
一个风评不佳的水刊,但这篇论文算是精品,很多顶会顶刊都有引用

论文内容

目的
找出输入像素x的每个输入像素x ( d ) x_{(d)}x (d )​对特定预测f ( x ) f(x)f (x )的贡献

主要思想的公式
f ( x ) ≈ ∑ d = 1 V R d f(x)\approx \sum_{d=1}^VR_d f (x )≈∑d =1 V ​R d ​

【可解释论文阅读】13.LRP(Layer-wise relevance propagation相关性分数逐层传播)
提出的新概念
LRP,layer-wise relevance propagation 相关性分数逐层传播
  • 提出的这一方法不涉及图像分割
  • 方法建立在预先训练好的分类器之上
  • LRP作为由一组约束定义的概念,满足约束的方案都认为遵守LRP,作者给两个特定分类器订制了解决方案。本文只关注LRP在多层网络(Multilayer Networks)上的思想。ps:也不关注泰勒分解。

LRP较详解

像上图右侧部分所示,对于LRP来说,第一层是输出,最后一层是输入
每一层各个维度(某个维度就是某个神经元)的相关性之和守恒
f ( x ) = … = ∑ d ∈ l + 1 R d l + 1 = ∑ d ∈ l R d l = … = ∑ d R d 1 f(x) = …=\sum_{d\in l+1}R_{d}^{l+1}=\sum_{d\in l}R_{d}^{l}=…=\sum_{d}R_{d}^{1}f (x )=…=∑d ∈l +1 ​R d l +1 ​=∑d ∈l ​R d l ​=…=∑d ​R d 1 ​

Multilayer Network之LRP

一般的网络(Multilayer Network)可以表示为:
z i j = x i w i j , z_{ij} = x_{i}w_{ij},z ij ​=x i ​w ij ​,
z j = ∑ i z i j + b j , z_{j} = \sum_{i}z_{ij}+b_j,z j ​=∑i ​z ij ​+b j ​,
x j = g ( z j ) x_{j} = g(z_{j})x j ​=g (z j ​)

解释:
①神经元i*神经元i与神经元j之间的权重,得到zij
②把所有神经元到神经元j的zij合起来加上bias term 偏置项,得到上一层所有神经元到神经元j的向量zj
③经激活函数g(like sigmoid relu)处理得到下一层神经元xj

【可解释论文阅读】13.LRP(Layer-wise relevance propagation相关性分数逐层传播)
  • 泰勒部分
    不看
  • LRP部分——Layer-wise relevance backpropagation
    下图是图形示例
    【可解释论文阅读】13.LRP(Layer-wise relevance propagation相关性分数逐层传播)
    对于R i ← j ( l , l + 1 ) R_{i\leftarrow j}^{(l,l+1)}R i ←j (l ,l +1 )​含义的示意图

【可解释论文阅读】13.LRP(Layer-wise relevance propagation相关性分数逐层传播)

工作原理:

Knowing the relevance of a certain neuron R j ( l + 1 ) R_{j}^{(l+1)}R j (l +1 )​for the classification decision f ( x ) f(x)f (x ), one would like to obtain a decomposition of such relevance in terms of messages sent to neurons of the previous layers. We call these messages R i ← j R_{i\leftarrow j}R i ←j ​

了解特定神经元与分类决策函数f ( x ) f(x)f (x )的相关性 R j ( l + 1 ) R_{j}^{(l+1)}R j (l +1 )​,希望根据发送到前一层(靠近input为前)的神经元的消息来获得这种相关性的分解,称这些消息是R i ← j R_{i\leftarrow j}R i ←j ​。
其中,∑ i \sum_{i}∑i ​ :给定层所有神经元之和; ∑ j \sum_{j}∑j ​ :某一层所有神经元之和

公式为:
∑ i R i ← j l , l + 1 \sum_{i}R_{i\leftarrow j}^{l,l+1}∑i ​R i ←j l ,l +1 ​ = R j ( l + 1 ) R_{j}^{(l+1)}R j (l +1 )​
含义:l + 1 l+1 l +1层的某个神经元j的相关性 = == l + 1 l+1 l +1层的神经元j j j给l l l层所有神经元的相关性之和

【可解释论文阅读】13.LRP(Layer-wise relevance propagation相关性分数逐层传播)
z:向量(l + 1 l+1 l +1层所有的神经元合起来)
一个线性网络
【可解释论文阅读】13.LRP(Layer-wise relevance propagation相关性分数逐层传播)
【可解释论文阅读】13.LRP(Layer-wise relevance propagation相关性分数逐层传播)

在实际应用中,LRP有两种改进形式,分别是ϵ − r u l e \epsilon-rule ϵ−r u l e(第一个) 和 β − r u l e \beta -rule β−r u l e(第二个)

【可解释论文阅读】13.LRP(Layer-wise relevance propagation相关性分数逐层传播)

Original: https://blog.csdn.net/m0_43455312/article/details/121458860
Author: isLauraL
Title: 【可解释论文阅读】13.LRP(Layer-wise relevance propagation相关性分数逐层传播)

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/649197/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球