dropout层和全连接层的代码
时间: 2023-09-15 10:22:28 浏览: 69
在 PyTorch 中,可以使用 `nn.Linear` 模块来定义全连接层,使用 `nn.Dropout` 模块来定义 Dropout 层。
下面是一个示例代码,定义了一个包含两个全连接层和一个 Dropout 层的神经网络:
```python
import torch.nn as nn
class MyNet(nn.Module):
def __init__(self):
super(MyNet, self).__init__()
self.fc1 = nn.Linear(in_features=100, out_features=50)
self.relu1 = nn.ReLU()
self.dropout = nn.Dropout(p=0.5)
self.fc2 = nn.Linear(in_features=50, out_features=10)
self.relu2 = nn.ReLU()
def forward(self, x):
x = self.fc1(x)
x = self.relu1(x)
x = self.dropout(x)
x = self.fc2(x)
x = self.relu2(x)
return x
```
在这个示例代码中,我们定义了一个两层的神经网络,其中包含一个全连接层、一个 Dropout 层和一个 ReLU 激活函数。在 `__init__` 函数中,我们使用 `nn.Linear` 定义了两个全连接层,其中第一个全连接层的输入维度为 100,输出维度为 50,第二个全连接层的输入维度为 50,输出维度为 10。我们使用 `nn.Dropout` 定义了一个 Dropout 层,丢弃率为 0.5。在 `forward` 函数中,我们先将输入数据传入第一个全连接层,然后使用 ReLU 激活函数进行激活,再传入 Dropout 层进行随机丢弃。最后将输出传入第二个全连接层进行计算,最终使用 ReLU 激活函数输出结果。
需要注意的是,在实际使用中,可以根据具体情况来调整每个层的参数,如丢弃率、激活函数等。
阅读全文