self.hidden = torch.nn.Linear(1, 20)增加两个隐藏层,在前向传播时候用relu函数激活
时间: 2024-05-12 16:17:58 浏览: 125
浅析PyTorch中nn.Module的使用
5星 · 资源好评率100%
好的,你想要增加两个隐藏层,并在前向传播时使用relu函数激活,你可以这样修改代码:
```
self.hidden = torch.nn.Sequential(
torch.nn.Linear(1, 20),
torch.nn.ReLU(),
torch.nn.Linear(20, 50),
torch.nn.ReLU(),
torch.nn.Linear(50, 100),
torch.nn.ReLU()
)
```
这样就添加了两个隐藏层,并使用了ReLU函数激活。
阅读全文