pytorch中的全连接层代码
时间: 2023-12-11 16:54:36 浏览: 72
关于pytorch中全连接神经网络搭建两种模式详解
5星 · 资源好评率100%
在 PyTorch 中,可以使用 `torch.nn.Linear` 类来实现全连接层。该类的构造函数有两个参数:输入特征数和输出特征数。下面是一个简单的例子:
```python
import torch.nn as nn
# 定义一个全连接层,输入特征数为100,输出特征数为10
fc = nn.Linear(100, 10)
```
可以看到,上述代码中定义了一个输入特征数为100,输出特征数为10的全连接层。
在实际使用中,可以将全连接层作为神经网络的一部分进行组合。例如:
```python
import torch.nn as nn
class MyNet(nn.Module):
def __init__(self):
super(MyNet, self).__init__()
self.fc1 = nn.Linear(100, 50)
self.fc2 = nn.Linear(50, 10)
def forward(self, x):
x = self.fc1(x)
x = nn.functional.relu(x)
x = self.fc2(x)
return x
net = MyNet()
```
上述代码中定义了一个两层的神经网络,其中第一层为全连接层,输入特征数为100,输出特征数为50;第二层也为全连接层,输入特征数为50,输出特征数为10。在 `forward` 方法中,我们首先将输入 `x` 传入第一层全连接层 `self.fc1`,然后使用 ReLU 激活函数,接着将结果传入第二层全连接层 `self.fc2`。最后返回输出结果。
阅读全文