改进YOLOv5系列:15.添加SimAM注意力机制

最新创新点改进推荐

-💡统一使用 YOLO 代码框架, 结合不同模块来构建不同的YOLO目标检测模型。

🔥 《芒果书》系列改进专栏内的改进文章,均包含多种模型改进方式,均适用于 YOLOv3YOLOv4YOLORYOLOXYOLOv5YOLOv7YOLOv8 改进(重点)!!!

🔥 专栏创新点教程 均有不少同学反应和我说已经在自己的数据集上有效涨点啦!! 包括COCO数据集也能涨点

所有文章博客均包含 改进源代码部分,一键训练即可

🔥 对应专栏订阅的越早,就可以越早使用 原创创新点去改进模型,抢先一步

YOLOv8 + 改进注意力机制

详细内容
参考这篇博客:点击查看详情:YOLOv5改进、YOLOv7、YOLOv8改进|YOLO改进超过多种注意力机制,全篇共计30万字(内附改进源代码),原创改进多种Attention注意力机制和Transformer自注意力机制

芒果书 点击以下链接 查看文章目录详情🔗

文章目录

*
最新创新点改进推荐
* YOLOv8 + 改进注意力机制
*
YOLOv5、YOLOv7 + 注意力机制一览

+ 之后继续更新🔥🔥🔥
* 第一种、YOLOv5使用SimAM注意力机制
*
SimAM注意力机制原理图
1.1增加以下SimAM.yaml文件
1.2common.py配置
1.3yolo.py配置
1.4训练模型
往期YOLO改进教程导航

YOLOv5、YOLOv7 + 注意力机制一览

YOLOv5 + ShuffleAttention注意力机制
博客链接🔗🌟:改进YOLOv5系列:12.添加ShuffleAttention注意力机制
YOLOv5 + CrissCrossAttention注意力机制
博客链接🔗🌟:改进YOLOv5系列:13.添加CrissCrossAttention注意力机制
YOLOv5 + S2-MLPv2注意力机制
博客链接🔗🌟:改进YOLOv5系列:14.添加S2-MLPv2注意力机制
YOLOv5 + SimAM注意力机制
博客链接🔗🌟:改进YOLOv5系列:15.添加SimAM注意力机制
YOLOv5 + SKAttention注意力机制
博客链接🔗🌟:改进YOLOv5系列:16.添加SKAttention注意力机制
YOLOv5 + NAMAttention注意力机制
博客链接🔗🌟:改进YOLOv5系列:17.添加NAMAttention注意力机制
YOLOv5 + SOCA注意力机制
博客链接🔗🌟:改进YOLOv5系列:18.添加SOCA注意力机制
YOLOv5 + CBAM注意力机制
博客链接🔗🌟:改进YOLOv5系列:18.添加CBAM注意力机制
YOLOv5 + SEAttention注意力机制
博客链接🔗🌟:改进YOLOv5系列:19.添加SEAttention注意力机制
YOLOv5 + GAMAttention注意力机制
博客链接🔗🌟:改进YOLOv5系列:20.添加GAMAttention注意力机制
YOLOv5 + CA注意力机制
博客链接🔗🌟:github
YOLOv5 + ECA注意力机制 博客链接🔗🌟:github
更多模块详细解释持续更新中。。。

之后继续更新🔥🔥🔥

第一种、YOLOv5使用SimAM注意力机制

SimAM注意力机制原理图

改进YOLOv5系列:15.添加SimAM注意力机制

; 1.1增加以下SimAM.yaml文件


nc: 80
depth_multiple: 0.33
width_multiple: 0.50
anchors:
  - [10,13, 16,30, 33,23]
  - [30,61, 62,45, 59,119]
  - [116,90, 156,198, 373,326]

backbone:

  [[-1, 1, Conv, [64, 6, 2, 2]],
   [-1, 1, Conv, [128, 3, 2]],
   [-1, 3, C3, [128]],
   [-1, 1, Conv, [256, 3, 2]],
   [-1, 6, C3, [256]],
   [-1, 1, Conv, [512, 3, 2]],
   [-1, 9, C3, [512]],
   [-1, 1, Conv, [1024, 3, 2]],
   [-1, 3, C3, [1024]],
   [-1, 1, SPPF, [1024, 5]],
  ]

head:
  [[-1, 1, Conv, [512, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 6], 1, Concat, [1]],
   [-1, 3, C3, [512, False]],

   [-1, 1, Conv, [256, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 4], 1, Concat, [1]],
   [-1, 3, C3, [256, False]],

   [-1, 1, Conv, [256, 3, 2]],
   [[-1, 14], 1, Concat, [1]],
   [-1, 3, C3, [512, False]],

   [-1, 1, Conv, [512, 3, 2]],
   [[-1, 10], 1, Concat, [1]],
   [-1, 3, C3, [1024, False]],
   [-1, 1, SimAM, [1024]],

   [[17, 20, 24], 1, Detect, [nc, anchors]],
  ]

1.2common.py配置

然后 在./models/common.py文件中新增以下代码 (SimAM)

import torch
import torch.nn as nn

class SimAM(torch.nn.Module):
    def __init__(self, channels = None,out_channels = None, e_lambda = 1e-4):
        super(SimAM, self).__init__()

        self.activaton = nn.Sigmoid()
        self.e_lambda = e_lambda

    def __repr__(self):
        s = self.__class__.__name__ + '('
        s += ('lambda=%f)' % self.e_lambda)
        return s

    @staticmethod
    def get_module_name():
        return "simam"

    def forward(self, x):

        b, c, h, w = x.size()

        n = w * h - 1

        x_minus_mu_square = (x - x.mean(dim=[2,3], keepdim=True)).pow(2)
        y = x_minus_mu_square / (4 * (x_minus_mu_square.sum(dim=[2,3], keepdim=True) / n + self.e_lambda)) + 0.5

        return x * self.activaton(y)

1.3yolo.py配置

在 models/yolo.py文件夹下

  • 定位到parse_model函数中
  • for i, (f, n, m, args) in enumerate(d['backbone'] + d['head']):内部
  • 对应位置 下方只需要新增以下代码
elif m is SimAM:
    c1, c2 = ch[f], args[0]
    if c2 != no:
        c2 = make_divisible(c2 * gw, 8)
    args = [c1, c2]

1.4训练模型

python train.py --cfg yolov5_SimAM.yaml

往期YOLO改进教程导航

  1. 改进YOLOv5系列:11.ConvNeXt结合YOLO | CVPR2022 多种搭配,即插即用 | Backbone主干CNN模型

  2. 改进YOLOv5系列:10.最新HorNet结合YOLO应用首发! | ECCV2022出品,多种搭配,即插即用 | Backbone主干、递归门控卷积的高效高阶空间交互

  3. 改进YOLOv5系列:9.BoTNet Transformer结构的修改

  4. 改进YOLOv5系列:8.增加ACmix结构的修改,自注意力和卷积集成

  5. 改进YOLOv5系列:7.修改DIoU-NMS,SIoU-NMS,EIoU-NMS,CIoU-NMS,GIoU-NMS

  6. 改进YOLOv5系列:6.修改Soft-NMS,Soft-CIoUNMS,Soft-SIoUNMS

  7. 改进YOLOv5系列:5.CotNet Transformer结构的修改

  8. 改进YOLOv5系列:4.YOLOv5_最新MobileOne结构换Backbone修改

  9. 改进YOLOv5系列:3.Swin Transformer结构的修改

  10. 改进YOLOv5系列:2.PicoDet结构的修改

  11. 改进YOLOv5系列:1.多种注意力机制修改

Original: https://blog.csdn.net/qq_38668236/article/details/126503550
Author: 芒果汁没有芒果
Title: 改进YOLOv5系列:15.添加SimAM注意力机制

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/614425/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球