## LeNet-5 卷积神经网络结构### 简介LeNet-5 是最早的卷积神经网络之一,由 Yann LeCun 等人在1998年提出,用于手写数字识别。它奠定了现代卷积神经网络的基础,其结构简单有效,对后续的深度学习发展产生了深远影响。### 结构详解LeNet-5 包含输入层在内共有7层,结构图如下:[LeNet-5 结构图] (建议插入 LeNet-5 结构图)#### 1. 输入层 (INPUT)
输入数据: 32x32 的灰度图像,表示手写数字。#### 2. 卷积层 C1
卷积核大小: 5x5
卷积核数量: 6
步长: 1
填充: 0
输出特征图大小: 28x28x6
激活函数: tanh
说明:
C1层使用6个5x5的卷积核对输入图像进行卷积操作,提取图像的局部特征。每个卷积核生成一个特征图,因此输出6个特征图。
由于步长为1,填充为0,所以输出特征图的大小为 (32-5+1)x(32-5+1)=28x28。
tanh 激活函数为每个神经元引入非线性,增强模型的表达能力。#### 3. 池化层 S2 (也称下采样层)
池化窗口大小: 2x2
池化方式: 平均池化
步长: 2
输出特征图大小: 14x14x6
说明:
S2层使用2x2的窗口进行平均池化,降低特征图的维度,减少计算量和参数数量。
步长为2,所以输出特征图的大小为 28/2 x 28/2 = 14x14。#### 4. 卷积层 C3
卷积核大小: 5x5
卷积核数量: 16
步长: 1
填充: 0
输出特征图大小: 10x10x16
激活函数: tanh
说明:
C3层与C1层类似,但使用了16个卷积核,进一步提取更复杂的特征。
输出特征图的大小为 (14-5+1)x(14-5+1)=10x10。#### 5. 池化层 S4
池化窗口大小: 2x2
池化方式: 平均池化
步长: 2
输出特征图大小: 5x5x16
说明:
S4层与S2层类似,对C3层的输出进行下采样。
输出特征图的大小为 10/2 x 10/2 = 5x5。#### 6. 全连接层 F5
神经元数量: 120
激活函数: tanh
说明:
F5层将S4层的所有特征图展开成一个一维向量,并连接到120个神经元上,进行非线性变换。#### 7. 全连接层 F6
神经元数量: 84
激活函数: tanh
说明:
F6层进一步对特征进行抽象,并将其映射到84维的空间。#### 8. 输出层 (OUTPUT)
神经元数量: 10
激活函数: 径向基函数 (RBF)
说明:
输出层包含10个神经元,对应0-9十个数字类别,每个神经元输出对应类别的概率。
使用径向基函数作为激活函数,计算输入向量与参数向量之间的欧式距离,用于分类任务。### 总结LeNet-5 是卷积神经网络的开山之作,其结构简单有效,奠定了现代卷积神经网络的基础。它巧妙地结合了卷积层、池化层和全连接层,通过提取图像的局部特征并进行抽象,实现了对手写数字的有效识别,为后续的深度学习发展提供了宝贵的经验。
LeNet-5 卷积神经网络结构
简介LeNet-5 是最早的卷积神经网络之一,由 Yann LeCun 等人在1998年提出,用于手写数字识别。它奠定了现代卷积神经网络的基础,其结构简单有效,对后续的深度学习发展产生了深远影响。
结构详解LeNet-5 包含输入层在内共有7层,结构图如下:[LeNet-5 结构图] (建议插入 LeNet-5 结构图)
1. 输入层 (INPUT)* 输入数据: 32x32 的灰度图像,表示手写数字。
2. 卷积层 C1* 卷积核大小: 5x5 * 卷积核数量: 6 * 步长: 1 * 填充: 0 * 输出特征图大小: 28x28x6 * 激活函数: tanh**说明:** * C1层使用6个5x5的卷积核对输入图像进行卷积操作,提取图像的局部特征。每个卷积核生成一个特征图,因此输出6个特征图。 * 由于步长为1,填充为0,所以输出特征图的大小为 (32-5+1)x(32-5+1)=28x28。 * tanh 激活函数为每个神经元引入非线性,增强模型的表达能力。
3. 池化层 S2 (也称下采样层)* 池化窗口大小: 2x2 * 池化方式: 平均池化 * 步长: 2 * 输出特征图大小: 14x14x6**说明:** * S2层使用2x2的窗口进行平均池化,降低特征图的维度,减少计算量和参数数量。 * 步长为2,所以输出特征图的大小为 28/2 x 28/2 = 14x14。
4. 卷积层 C3* 卷积核大小: 5x5 * 卷积核数量: 16 * 步长: 1 * 填充: 0 * 输出特征图大小: 10x10x16 * 激活函数: tanh**说明:** * C3层与C1层类似,但使用了16个卷积核,进一步提取更复杂的特征。 * 输出特征图的大小为 (14-5+1)x(14-5+1)=10x10。
5. 池化层 S4* 池化窗口大小: 2x2 * 池化方式: 平均池化 * 步长: 2 * 输出特征图大小: 5x5x16**说明:** * S4层与S2层类似,对C3层的输出进行下采样。 * 输出特征图的大小为 10/2 x 10/2 = 5x5。
6. 全连接层 F5* 神经元数量: 120 * 激活函数: tanh**说明:** * F5层将S4层的所有特征图展开成一个一维向量,并连接到120个神经元上,进行非线性变换。
7. 全连接层 F6* 神经元数量: 84 * 激活函数: tanh**说明:** * F6层进一步对特征进行抽象,并将其映射到84维的空间。
8. 输出层 (OUTPUT)* 神经元数量: 10 * 激活函数: 径向基函数 (RBF)**说明:** * 输出层包含10个神经元,对应0-9十个数字类别,每个神经元输出对应类别的概率。 * 使用径向基函数作为激活函数,计算输入向量与参数向量之间的欧式距离,用于分类任务。
总结LeNet-5 是卷积神经网络的开山之作,其结构简单有效,奠定了现代卷积神经网络的基础。它巧妙地结合了卷积层、池化层和全连接层,通过提取图像的局部特征并进行抽象,实现了对手写数字的有效识别,为后续的深度学习发展提供了宝贵的经验。