vgg16网络结构图
时间: 2023-07-02 09:13:11 浏览: 127
网络结构图
以下是VGG16的网络结构图:
```
输入(Input): (224, 224, 3)
第一层(Convolutional layer): 64个卷积核,大小为3x3,步长为1,使用padding,激活函数为ReLU,输出(224, 224, 64)
第二层(Convolutional layer): 64个卷积核,大小为3x3,步长为1,使用padding,激活函数为ReLU,输出(224, 224, 64)
第三层(Pooling layer): 大小为2x2,步长为2,输出(112, 112, 64)
第四层(Convolutional layer): 128个卷积核,大小为3x3,步长为1,使用padding,激活函数为ReLU,输出(112, 112, 128)
第五层(Convolutional layer): 128个卷积核,大小为3x3,步长为1,使用padding,激活函数为ReLU,输出(112, 112, 128)
第六层(Pooling layer): 大小为2x2,步长为2,输出(56, 56, 128)
第七层(Convolutional layer): 256个卷积核,大小为3x3,步长为1,使用padding,激活函数为ReLU,输出(56, 56, 256)
第八层(Convolutional layer): 256个卷积核,大小为3x3,步长为1,使用padding,激活函数为ReLU,输出(56, 56, 256)
第九层(Convolutional layer): 256个卷积核,大小为3x3,步长为1,使用padding,激活函数为ReLU,输出(56, 56, 256)
第十层(Pooling layer): 大小为2x2,步长为2,输出(28, 28, 256)
第十一层(Convolutional layer): 512个卷积核,大小为3x3,步长为1,使用padding,激活函数为ReLU,输出(28, 28, 512)
第十二层(Convolutional layer): 512个卷积核,大小为3x3,步长为1,使用padding,激活函数为ReLU,输出(28, 28, 512)
第十三层(Convolutional layer): 512个卷积核,大小为3x3,步长为1,使用padding,激活函数为ReLU,输出(28, 28, 512)
第十四层(Pooling layer): 大小为2x2,步长为2,输出(14, 14, 512)
第十五层(Convolutional layer): 512个卷积核,大小为3x3,步长为1,使用padding,激活函数为ReLU,输出(14, 14, 512)
第十六层(Convolutional layer): 512个卷积核,大小为3x3,步长为1,使用padding,激活函数为ReLU,输出(14, 14, 512)
第十七层(Convolutional layer): 512个卷积核,大小为3x3,步长为1,使用padding,激活函数为ReLU,输出(14, 14, 512)
第十八层(Pooling layer): 大小为2x2,步长为2,输出(7, 7, 512)
第十九层(Flatten layer): 输出7x7x512=25088
第二十层(Dense layer): 4096个神经元,激活函数为ReLU,输出4096
第二十一层(Dropout layer): 以0.5的概率随机断开输入神经元,输出4096
第二十二层(Dense layer): 4096个神经元,激活函数为ReLU,输出4096
第二十三层(Dropout layer): 以0.5的概率随机断开输入神经元,输出4096
第二十四层(Dense layer): 1000个神经元,激活函数为Softmax,输出1000种类别的概率分布
输出(Output): 1000个类别的概率分布
```
阅读全文