sim = (sim*100//1).sort() #按照0.01的区分来取值 num = [] num.append([(sim == i).sum() for i in torch.arange(0,100,1)])这段代码可以怎么简化
时间: 2024-03-27 18:37:24 浏览: 29
这段代码可以简化为:
```
num = [(sim == i).sum().item() for i in range(100)]
```
这里使用了 Python 内置的 `range()` 函数代替了 PyTorch 的 `torch.arange()` 函数,并且直接使用 `.item()` 方法将张量转换为标量,从而避免了创建列表之后再使用循环的过程。
相关问题
for _, dbName := range dbNames { for _, v := range *pots { // fmt.Println(k, v) if v.Pot_Info.SignName == dbName { fmt.Println(v) DbPots = append(DbPots, v) break } else { WebPots = append(WebPots, v) // fmt.Println(v) } } }在上述代码中,如何删除第二个for循环的pots某个元素?
要删除第二个for循环的pots中的某个元素,可以使用切片的方式进行删除。具体的实现方法如下:
1. 首先找到要删除的元素在切片中的索引位置,可以使用range循环遍历切片,找到要删除元素的索引位置。
2. 使用切片的append方法,将要删除的元素前后的部分重新组合成一个新的切片,从而实现删除该元素的目的。
代码示例:
```
for i, v := range *pots {
if v.Pot_Info.SignName == dbName {
// 删除该元素,使用切片的append方法重新组合切片
*pots = append((*pots)[:i], (*pots)[i+1:]...)
DbPots = append(DbPots, v)
break
} else {
WebPots = append(WebPots, v)
}
}
```
需要注意的是,在删除元素后,切片的长度和容量都会发生变化。因此,在使用切片的append方法时,需要注意重新分配新的切片。
#encoding=utf8 import torch import torch.nn as nn from torch.autograd import Variable import torch.utils.data as Data import torchvision import os if os.path.exists('/data/workspace/course/step3/cnn.pkl'): os.remove('/data/workspace/course/step3/cnn.pkl') #加载数据 train_data = torchvision.datasets.MNIST( root='/data/workspace/course/step3/mnist', train=True, # this is training data transform=torchvision.transforms.ToTensor(), # Converts a PIL.Image or numpy.ndarray to download=False, ) #取6000个样本为训练集 train_data_tiny = [] for i in range(6000): train_data_tiny.append(train_data[i]) train_data = train_data_tiny #********* Begin *********# #********* End *********# #保存模型 torch.save(cnn.state_dict(), '/data/workspace/course/step3/cnn.pkl') 帮我补全Begin-End区域代码,实现使用pytorch搭建出卷积神经网络模型,再对模型进行训练
#encoding=utf8
import torch
import torch.nn as nn
from torch.autograd import Variable
import torch.utils.data as Data
import torchvision
import os
class CNN(nn.Module):
def __init__(self):
super(CNN, self).__init__()
self.conv1 = nn.Sequential(
nn.Conv2d(
in_channels=1,
out_channels=16,
kernel_size=5,
stride=1,
padding=2,
),
nn.ReLU(),
nn.MaxPool2d(kernel_size=2),
)
self.conv2 = nn.Sequential(
nn.Conv2d(16, 32, 5, 1, 2),
nn.ReLU(),
nn.MaxPool2d(2),
)
self.out = nn.Linear(32 * 7 * 7, 10)
def forward(self, x):
x = self.conv1(x)
x = self.conv2(x)
x = x.view(x.size(0), -1)
output = self.out(x)
return output
#加载数据
train_data = torchvision.datasets.MNIST(
root='/data/workspace/course/step3/mnist',
train=True,
transform=torchvision.transforms.ToTensor(),
download=False,
)
#取6000个样本为训练集
train_data_tiny = []
for i in range(6000):
train_data_tiny.append(train_data[i])
train_data = train_data_tiny
#实例化CNN模型
cnn = CNN()
#定义损失函数
loss_func = nn.CrossEntropyLoss()
#定义优化器
optimizer = torch.optim.Adam(cnn.parameters(), lr=0.01)
#定义数据加载器
train_loader = Data.DataLoader(dataset=train_data, batch_size=64, shuffle=True)
#开始训练
for epoch in range(10):
for step, (x, y) in enumerate(train_loader):
b_x = Variable(x)
b_y = Variable(y)
output = cnn(b_x)
loss = loss_func(output, b_y)
optimizer.zero_grad()
loss.backward()
optimizer.step()
if step % 50 == 0:
test_output = cnn(torch.unsqueeze(train_data_tiny[0][0], dim=0))
pred_y = torch.max(test_output, 1)[1].data.numpy().squeeze()
accuracy = sum(pred_y == train_data_tiny[0][1]) / float(train_data_tiny[0][1].shape[0])
print('Epoch: ', epoch, '| train loss: %.4f' % loss.data.numpy(), '| test accuracy: %.2f' % accuracy)
#保存模型
torch.save(cnn.state_dict(), '/data/workspace/course/step3/cnn.pkl')
相关推荐
![md](https://img-home.csdnimg.cn/images/20210720083646.png)
![docx](https://img-home.csdnimg.cn/images/20210720083331.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)