RBF神经网络、GRNN广义回归神经网络、PNN概率神经网络

  • GRNN网络结构 如下图所示:GRNN一般由输入层、隐含层和输出层组成; 输入层仅将样本变量送入隐含层,并不参与真正的运算; 隐含层的神经元个数等于训练集样本数,该层的权值函数为欧式距离函数(||dist||表示),其作用为计算网络输入与第一层的权值I W 1 , 1 IW_{1,1}I W 1 ,1 ​之间的距离,b 1 b_1 b 1 ​为隐含层的阈值。隐含层的传递函数为径向基函数,通常采用高斯函数作为网络的传递函数。 输出层的权函数为规范化点积权函数(用nprod表示),计算网络的向量为n 2 = n o r m p r o d [ L W 2 , 1 a 1 ] n^2=normp\ rod[LW_{2,1}a^1]n 2 =n o r m p r o d [L W 2 ,1 ​a 1 ],它的每个元素就是向量a 1 = r a d b a s ( ∣ ∣ I W 1 , 1 − p ∣ ∣ b 1 ) a^1=radbas(||IW_{1,1}-p||b_1)a 1 =r a d b a s (∣∣I W 1 ,1 ​−p ∣∣b 1 ​)和权值矩阵L W 2 , 1 LW_{2,1}L W 2 ,1 ​(取训练集输出矩阵)每行元素的点积再除以向量a 1 a^1 a 1的铬元素之和得到的,并将结果n 2 n^2 n 2提供给线性传递函数a 2 = p u r e l i n ( n 2 ) a^2=purelin(n^2)a 2 =p u r e l i n (n 2 ),计算网络的输出。
    RBF神经网络、GRNN广义回归神经网络、PNN概率神经网络
  • 与BP神经网络相比,GRNN具有以下优点: 网络的训练是单个训练而不需要迭代; 隐含层神经元个数由训练样本自适应确定; 网络各层之间的连接权重由训练样本唯一确定,避免了BP神经网络在迭代中的权值修改; 隐含层节点的激活函数采用对输入信息具有局部激活特性的高斯函数,使得对接近于局部神经元特征德尔输入具有很强的吸引力

Original: https://blog.csdn.net/weixin_46161549/article/details/118459540
Author: 一只萤火虫
Title: RBF神经网络、GRNN广义回归神经网络、PNN概率神经网络

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/631398/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球