LeNet-5网络搭建详解
LeNet-5是由Yann LeCun设计的用于手写数字识别和机器打印字符的卷积神经网络。她在1998年发表的论文《基于梯度学习的文本识别》中提出了该模型,并给出了对该模型网络架构的介绍。如下图所示,LeNet-5共有7层(不包括输入层),包含卷积层、下采样层、全连接层,而其输入图像为32*32.论文链接:Gradient-based learning applied to document recognition | IEEE Journals & Magazine | IEEE Xplore
图1. LeNet-5网络架构
1.C1:卷积层
c1层采用卷积层对输入的图像进行特征提取,利用6个5*5的卷积核生成6个特征图(feature map)。其步长为1且不使用扩充值。因此卷积后的特征层为28*28.一个卷积核拥有的可训练参数为5*5+1=26,其中1为偏置参数。整个C1层可训练参数为(5*5+1)*6=156.
2.S2:下采样层
下采样(subsampling)层主要对特征进行降维处理,效果与池化相同。S2层使用2*2的滤波器池化C1的特征图,因此将生成6个尺寸为14*14的特征图。在计算时,将滤波器中的4个值相加,然后乘以可训练权值参数w,加上偏置参数b,最后通过sigmoid函数形成新的值。S2层的每个特征图中都有两个参数,一个是权值参数,一个是偏置参数,因此该层共有2*6=12个参数。
3.C3:卷积层
C3层有16个大小为5*5的卷积核,步长为1且不填充边界。C3层将S2层6个14*14的特征图卷积成16个10*10的特征图。值得注意的是,S2层与C3层的卷积核并不是全连接的,而是部分连接的。
图2:S2层特征图与C3层卷积核连接的组合
4.S4:下采样层
S4的滤波器与S2层的滤波器相似,也是2*2的,所以,S4层的特征图池化后,将生成16个5*5的特征图。S4层参数的个数为2*16=32.
5.C5:卷积层
C5层有120个5*5的卷积核,将产生120个1*1的特征图,与S4层是全连接的。C5层参数的个数不能参照C1层来计算,而是要参照C3层来计算,且此时是没有组合的,因此,应该是(5*5*16+1)*120=48120.
6.F6:全连接层
F6有84个单元,单元的个数与输出层的设计有关。该层作为典型的神经网络层,每一个单元都计算输入向量与权值参数的点积并加上偏置参数,然后传给sigmoid函数,产生该单元的一个状态并传递给输出层。在这里,将输出作为输出层的径向基函数的初始参数,用于识别完整的ASCII字符集。C5有120个单元;F6层有84个单元,每个单元都将容纳120个单元的计算结果。因此,F6层参数的个数为(120+1)*84=10164.
7.output:输出层
output层是全连接层,共有10个单元,代表数字0~9。利用径向基函数,将F6层84个单元的输出作为节点的输入xj,计算欧氏距离。距离越近,结果就越小,意味着识别的样本越符合该节点所代表的字符。由于该层是全连接层,参数个数为84*10=840。
网络搭建:
import torch.nn as nn import torch.nn.functional as F class Net(nn.Module): def __init__(self): super(Net, self).__init__() #input image channel is one, output channels is six,5*5 square convolution self.conv1=nn.Conv2d(1, 6, 5) self.conv2=nn.Conv2d(6, 16, 5) self.fc1=nn.Linear(16*5*5, 120) self.fc2=nn.Linear(120, 84) self.fc3=nn.Linear(84, 10) def forward(self, x): #max pooling over a (2,2) window #c1 x = F.max_pool2d(F.relu(self.conv1(x)), (2, 2)) #if the kernel size is a square you can only specify a single number x = F.max_pool2d(F.relu(self.conv2(x)), 2) x = x.view(-1, self.num_flat_features(x)) x = F.relu(self.fc1(x)) x = F.relu(self.fc2(x)) x = self.fc3(x) return x def num_flat_features(self, x): #all dimensions except the batch dimension size = x.size()[1:] num_features = 1 for s in size: num_features *= s return num_features net = Net() print(net)