经典网络-AlexNet论文及实践

2012-AlexNet

摘要

我们训练了一个大型的深度卷积神经网络,将 ImageNetLSVRC-2010比赛中的 120万张高分辨率图像分类为1000个不同的类别在测试数据上,获得了top-1和top-5的错误率分别为37.5%和17.0%,这明显优于之前的最先进水平。该神经网络有6000万个参数和65万个神经元, 由5个卷积层组成(某些卷积层后面带有最大池化层),以及3个全连接层,最后是1000维度的softmax。为了加快训练速度,使用了非饱和神经元(ReLU)和一个非常有效的GPU实现的卷积操作。为了减少全连接层中的过拟合,采用了一种最近开发的正则化方法,称为”Dropout”,该方法被证明是非常有效的。还在 ILSVRC-2012竞赛中输入了该模型的一个变体,赢得了关键,并且相较于第二名的测试错误率为26.2%,以 15.3%的top-5测试错误率获得冠军。

1 序言

目前的目标识别方法主要利用了机器学习方法。为了提高它们的性能, 我们可以收集更大的数据集,学习更强大的模型,并使用更好的技术来防止过拟合。直到最近,标记图像的数据集相对较小——成千上万的图像(例如,NORB[16]、Caltech-101/256[8,9]和CIFAR-10/100[12])。简单的识别任务可以用这种大小的数据集很好地解决,尤其是如果通过标签保留变换进行数据增强的情况下。例如,MNIST数字识别任务的当前最佳错误率(

Original: https://blog.csdn.net/uncle_ll/article/details/123358381
Author: uncle_ll
Title: 经典网络-AlexNet论文及实践

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/520666/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球