没有合适的资源?快使用搜索试试~ 我知道了~
首页PyTorch卷积神经网络案例分析——LeNet
#LeNet 是整个卷积神经网络的开山之作,一共有七层,其实2层卷积和2层池化层交替出现, #最后输出三层全连接层得到整体的结果 import numpy as np import torch from torch.autograd import Variable from torch import nn, optim import matplotlib.pyplot as plt class LeNet(nn.Module): def __init__(self): super(LeNet, self).__init__() layer1 = nn.S
资源详情
资源评论
资源推荐

PyTorch卷积神经网络案例分析卷积神经网络案例分析——LeNet
#LeNet 是整个卷积神经网络的开山之作,一共有七层,其实2层卷积和2层池化层交替出现,
#最后输出三层全连接层得到整体的结果
import numpy as np
import torch
from torch.autograd import Variable
from torch import nn, optim
import matplotlib.pyplot as plt
class LeNet(nn.Module):
def __init__(self):
super(LeNet, self).__init__()
layer1 = nn.Sequential()
layer1.add_module('conv1', nn.Conv2d(1, 6, 3, padding=1))
layer1.add_module('pool1', nn.MaxPool2d(2, 2))
self.layer1 = layer1
layer2 = nn.Sequential()
layer2.add_module('conv2', nn.Conv2d(6, 16, 5))
layer2.add_module('pool2', nn.MaxPool2d(2, 2))
self.layer2 = layer2
layer3 = nn.Sequential()
layer3.add_module('fc1', nn.Linear(400, 120))
layer3.add_module('fc2', nn.Linear(120, 84))
layer3.add_module('fc3', nn.Linear(84, 10))
self.layer3 = layer3
def forward(self):
x = self.layer1(x)
x = self.layer2(x)
x = x.view(x.size(0), -1)
x = self.layer3(x)
return x
#这样就实现了LeNet网络,可以发现网络的层数很浅,也没有添加激活层
作者:亓逸



















weixin_38661087
- 粉丝: 3
- 资源: 979
上传资源 快速赚钱
我的内容管理 收起
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助

会员权益专享
安全验证
文档复制为VIP权益,开通VIP直接复制

评论0