Skip to content

AlexNet

[2012]

Krizhevsky A , Sutskever I , Hinton G .ImageNet Classification with Deep Convolutional Neural Networks[C]//NIPS.Curran Associates Inc. 2012.DOI:10.1145/3065386.

由 Alex Krizhevsky、Ilya Sutskever 和 Geoffrey Hinton 于 2012 年提出,并在 ImageNet 大规模视觉识别挑战赛(ILSVRC-2012)中以显著优势夺冠,错误率(15.3%)远低于第二名(26.2%)。这一突破标志着深度学习在计算机视觉领域的崛起。

特点

  • 首次在 CNN 中使用 ReLU 替代 Sigmoid,解决梯度消失问题,训练速度提升约 6 倍。
  • 在 ReLU 后引入局部响应归一化(LRN)
  • 使用 Dropout 随机忽略一部分神经元,以避免模型过拟合
  • 使用双 GPU 训练
  • 全部使用最大池化层,避免了平均池化层的模糊化的效果
  • 重叠池化

结构

层名称类型配置输出尺寸参数量
input输入层227×227×3227×227×30
conv1卷积层11×11×96, stride=455×55×9634,944
ReLU----
LRN----
pool1最大池化3×3, stride=227×27×960
conv2卷积层5×5×256, padding=227×27×256614,656
ReLU----
LRN----
pool2最大池化3×3, stride=213×13×2560
conv3卷积层3×3×384, padding=113×13×384885,120
ReLU----
conv4卷积层3×3×384, padding=113×13×3841,327,488
ReLU----
conv5卷积层3×3×256, padding=113×13×256884,992
ReLU----
pool5最大池化3×3, stride=26×6×2560
fc6全连接层4096 neurons409637,752,832
ReLU----
Dropout----
fc7全连接层4096 neurons409616,781,312
ReLU----
Dropout----
fc8全连接层1000 neurons (ImageNet classes)10004,097,000
softmax分类层-1000-

总参数量:60,964,224(232Mb)

局部响应归一化

Local Response Normalization

动机来自生物学上的一个概念:侧抑制(Lateral inhibitio),指的是被激活的神经元抑制相邻神经元。

bx,yi=ax,yi(k+αj=max(0,in/2)min(N1,i+n/2)(ax,yj)2)β

a 为卷积核原始激活值,b 为归一化之后的输出,N 为卷积核的个数,超参数如下:

参数典型值作用
n5归一化窗口的深度半径,控制相邻通道数量
α0.0001缩放因子,决定归一化强度
β0.75指数参数,控制归一化曲线的陡峭度
k2偏移量,防止分母为零