inputs=pd.get_dummies(inputs,dummy_na=True,dtype=int)结果还还是bool型

时间: 2024-09-19 09:08:08 浏览: 55
ZIP

hw1.zip_6hw.ent_6hw1.ent_building_structured design

当你使用pandas的`get_dummies`函数将类别变量转换为虚拟/哑变量(one-hot encoding)时,如果设置了`dummy_na=True`,它会在缺失值的地方添加一个新的虚拟列表示存在缺失。默认情况下,这些新添加的列会被赋予整数类型,通常是0代表缺失,非缺失的值会用1或其他数字标识。 如果你希望所有输出都是布尔类型(True/False),而不是整数,你需要在调用`get_dummies`之后对结果进行进一步处理。例如,你可以直接检查每个列是否等于缺失值的特殊标记(在这种情况下可能是0),然后将它们转换成布尔类型。可以这样做: ```python import pandas as pd # 假设df是包含输入数据的DataFrame dummies = pd.get_dummies(inputs, dummy_na=True, dtype=int) booleans = (dummies != 0).astype(bool) # 或者,如果你想要更简洁的方式,可以链式操作: booleans = (pd.get_dummies(inputs, dummy_na=True, dtype=int) != 0).astype(bool) ```
阅读全文

相关推荐

给你提供了完整代码,但在运行以下代码时出现上述错误,该如何解决?Batch_size = 9 DataSet = DataSet(np.array(x_train), list(y_train)) train_size = int(len(x_train)*0.8) test_size = len(y_train) - train_size train_dataset, test_dataset = torch.utils.data.random_split(DataSet, [train_size, test_size]) TrainDataloader = Data.DataLoader(train_dataset, batch_size=Batch_size, shuffle=False, drop_last=True) TestDataloader = Data.DataLoader(test_dataset, batch_size=Batch_size, shuffle=False, drop_last=True) model = Transformer(n_encoder_inputs=3, n_decoder_inputs=3, Sequence_length=1).to(device) epochs = 10 optimizer = torch.optim.Adam(model.parameters(), lr=0.0001) criterion = torch.nn.MSELoss().to(device) val_loss = [] train_loss = [] best_best_loss = 10000000 for epoch in tqdm(range(epochs)): train_epoch_loss = [] for index, (inputs, targets) in enumerate(TrainDataloader): inputs = torch.tensor(inputs).to(device) targets = torch.tensor(targets).to(device) inputs = inputs.float() targets = targets.float() tgt_in = torch.rand((Batch_size, 1, 3)) outputs = model(inputs, tgt_in) loss = criterion(outputs.float(), targets.float()) print("loss", loss) loss.backward() optimizer.step() train_epoch_loss.append(loss.item()) train_loss.append(np.mean(train_epoch_loss)) val_epoch_loss = _test() val_loss.append(val_epoch_loss) print("epoch:", epoch, "train_epoch_loss:", train_epoch_loss, "val_epoch_loss:", val_epoch_loss) if val_epoch_loss < best_best_loss: best_best_loss = val_epoch_loss best_model = model print("best_best_loss ---------------------------", best_best_loss) torch.save(best_model.state_dict(), 'best_Transformer_trainModel.pth')

class srmNeuronFunc(object): funclists = ['srm_forward<float>', 'srm_backward<float>'] cu_module = cp.RawModule(code=CU_SOURCE_CODE_RAW_STRING, options=('-std=c++11', '-I ' + _CURPATH), name_expressions=funclists) neuron_FP = cu_module.get_function(funclists[0]) neuron_BP = cu_module.get_function(funclists[1]) @staticmethod def forward(inputs: Tensor, taum: float, taus: float, e_taug: float, v_th: float) -> List[Tensor]: spikes = torch.zeros_like(inputs) delta_ut = torch.zeros_like(inputs) delta_u = torch.zeros_like(inputs) B, T, dim = *inputs.shape[:2], inputs[0][0].numel() with cp.cuda.Device(inputs.get_device()): srmNeuronFunc.neuron_FP(((B * dim + 1023) // 1024,), (1024,), ( tensor_to_cparray(inputs.contiguous()), tensor_to_cparray(spikes.contiguous()), tensor_to_cparray(delta_ut.contiguous()), tensor_to_cparray(delta_u.contiguous()), cp.float32(taum), cp.float32(taus), cp.float32(e_taug), cp.float32(v_th), cp.int32(B), cp.int32(T), cp.int32(dim) )) return spikes, delta_ut, delta_u @staticmethod def backward(grad_out: Tensor, delta_ut: Tensor, delta_u: Tensor, spikes: Tensor, epsw: Tensor, epst: Tensor) -> List[Tensor]: grad_w = torch.zeros_like(grad_out) grad_t = torch.zeros_like(grad_out) B, T, dim = *grad_out.shape[:2], grad_out[0][0].numel() with cp.cuda.Device(grad_out.get_device()): srmNeuronFunc.neuron_BP(((B * dim + 1023) // 1024,), (1024,), ( tensor_to_cparray(grad_out.contiguous()), tensor_to_cparray(delta_ut.contiguous()), tensor_to_cparray(delta_u.contiguous()), tensor_to_cparray(spikes.contiguous()), tensor_to_cparray(epsw), tensor_to_cparray(epst), tensor_to_cparray(grad_w.contiguous()), tensor_to_cparray(grad_t.contiguous()), cp.int32(B), cp.int32(T), cp.int32(dim) )) return grad_w, grad_t

LDAM损失函数pytorch代码如下:class LDAMLoss(nn.Module): def init(self, cls_num_list, max_m=0.5, weight=None, s=30): super(LDAMLoss, self).init() m_list = 1.0 / np.sqrt(np.sqrt(cls_num_list)) m_list = m_list * (max_m / np.max(m_list)) m_list = torch.cuda.FloatTensor(m_list) self.m_list = m_list assert s > 0 self.s = s if weight is not None: weight = torch.FloatTensor(weight).cuda() self.weight = weight self.cls_num_list = cls_num_list def forward(self, x, target): index = torch.zeros_like(x, dtype=torch.uint8) index_float = index.type(torch.cuda.FloatTensor) batch_m = torch.matmul(self.m_list[None, :], index_float.transpose(1,0)) # 0,1 batch_m = batch_m.view((16, 1)) # size=(batch_size, 1) (-1,1) x_m = x - batch_m output = torch.where(index, x_m, x) if self.weight is not None: output = output * self.weight[None, :] target = torch.flatten(target) # 将 target 转换成 1D Tensor logit = output * self.s return F.cross_entropy(logit, target, weight=self.weight) 模型部分参数如下:# 设置全局参数 model_lr = 1e-5 BATCH_SIZE = 16 EPOCHS = 50 DEVICE = torch.device('cuda:0' if torch.cuda.is_available() else 'cpu') use_amp = True use_dp = True classes = 7 resume = None CLIP_GRAD = 5.0 Best_ACC = 0 #记录最高得分 use_ema=True model_ema_decay=0.9998 start_epoch=1 seed=1 seed_everything(seed) # 数据增强 mixup mixup_fn = Mixup( mixup_alpha=0.8, cutmix_alpha=1.0, cutmix_minmax=None, prob=0.1, switch_prob=0.5, mode='batch', label_smoothing=0.1, num_classes=classes) # 读取数据集 dataset_train = datasets.ImageFolder('/home/adminis/hpy/ConvNextV2_Demo/RAF-DB/RAF/train', transform=transform) dataset_test = datasets.ImageFolder("/home/adminis/hpy/ConvNextV2_Demo/RAF-DB/RAF/valid", transform=transform_test) 帮我用pytorch实现模型在模型训练中使用LDAM损失函数

class srmConvFunc(torch.autograd.Function): @staticmethod def forward( ctx, inputs: Tensor, weight: Tensor, taum: float, taus: float, e_taug: float, v_th: float, epsw: Tensor, epst: Tensor, stride: Tuple[int] = (1, 1), padding: Tuple[int] = (0, 0), dilation: Tuple[int] = (1, 1), groups: int = 1 ) -> Tensor: out = torch.nn.functional.conv2d( inputs.view(-1, *inputs.shape[2:]), weight, None, stride, padding, dilation, groups ) spikes, delta_ut, delta_u = srmNeuronFunc.forward( out.view(*inputs.shape[:2], *out.shape[1:]), taum, taus, e_taug, v_th ) ctx.save_for_backward( inputs, weight, epsw, epst, delta_ut, delta_u, spikes, torch.tensor(stride, dtype=torch.int), torch.tensor(padding, dtype=torch.int), torch.tensor(dilation, dtype=torch.int), torch.tensor(groups, dtype=torch.int) ) return spikes @staticmethod def backward(ctx, grad_out: Tensor) -> List[Optional[Tensor]]: inputs, weight, epsw, epst, delta_ut, delta_u, spikes, stride, padding, dilation, groups = ctx.saved_tensors stride = tuple(stride) padding = tuple(padding) dilation = tuple(dilation) groups = int(groups) grad_w, grad_t = srmNeuronFunc.backward(grad_out, delta_ut, delta_u, spikes, epsw, epst) grad_inputs = conv_wrapper.cudnn_convolution_backward_input( inputs.view(-1, *inputs.shape[2:]).shape, grad_t.view(-1, *grad_t.shape[2:]), weight, padding, stride, dilation, groups, cudnn.benchmark, cudnn.deterministic, cudnn.allow_tf32 ) grad_inputs = grad_inputs.view(*inputs.shape) * inputs grad_weight = conv_wrapper.cudnn_convolution_backward_weight( weight.shape, grad_w.view(-1, *grad_w.shape[2:]), inputs.view(-1, *inputs.shape[2:]), padding, stride, dilation, groups, cudnn.benchmark, cudnn.deterministic, cudnn.allow_tf32 ) return grad_inputs * 0.85, grad_weight, None, None, None, None, None, None, None, None, None, None

最新推荐

recommend-type

数据分析高级培训:客户体验分析-课件

课程目标: 本课程旨在让学员了解什么是客户体验,客户服务体验的重要性以及常见指标,掌握客户体验的分析方法,学会客户问题的识别以及针对问题制定有效的解决方案。 课程大纲: 客户体验的概述 客户体验的分析方法 客户问题解决的方法论
recommend-type

【微电网潮流】分布式电源微电网潮流【Matlab仿真 7357期】.zip

CSDN Matlab武动乾坤上传的资料均有对应的代码,代码均可运行,亲测可用,适合小白; 1、代码压缩包内容 主函数:main.m; 调用函数:其他m文件;无需运行 运行结果效果图; 2、代码运行版本 Matlab 2019b;若运行有误,根据提示修改;若不会,私信博主; 3、运行操作步骤 步骤一:将所有文件放到Matlab的当前文件夹中; 步骤二:双击打开main.m文件; 步骤三:点击运行,等程序运行完得到结果; 4、仿真咨询 如需其他服务,可私信博主或扫描博客文章底部QQ名片; 4.1 博客或资源的完整代码提供 4.2 期刊或参考文献复现 4.3 Matlab程序定制 4.4 科研合作
recommend-type

Unity3d-lesson_EVAC-CITY.zip

Unity3d实例工程,供学习参考
recommend-type

BottleJS快速入门:演示JavaScript依赖注入优势

资源摘要信息:"BottleJS是一个轻量级的依赖项注入容器,用于JavaScript项目中,旨在减少导入依赖文件的数量并优化代码结构。该项目展示BottleJS在前后端的应用,并通过REST API演示其功能。" BottleJS Playgound 概述: BottleJS Playgound 是一个旨在演示如何在JavaScript项目中应用BottleJS的项目。BottleJS被描述为JavaScript世界中的Autofac,它是依赖项注入(DI)容器的一种实现,用于管理对象的创建和生命周期。 依赖项注入(DI)的基本概念: 依赖项注入是一种设计模式,允许将对象的依赖关系从其创建和维护的代码中分离出来。通过这种方式,对象不会直接负责创建或查找其依赖项,而是由外部容器(如BottleJS)来提供这些依赖项。这样做的好处是降低了模块间的耦合,提高了代码的可测试性和可维护性。 BottleJS 的主要特点: - 轻量级:BottleJS的设计目标是尽可能简洁,不引入不必要的复杂性。 - 易于使用:通过定义服务和依赖关系,BottleJS使得开发者能够轻松地管理大型项目中的依赖关系。 - 适合前后端:虽然BottleJS最初可能是为前端设计的,但它也适用于后端JavaScript项目,如Node.js应用程序。 项目结构说明: 该仓库的src目录下包含两个子目录:sans-bottle和bottle。 - sans-bottle目录展示了传统的方式,即直接导入依赖并手动协调各个部分之间的依赖关系。 - bottle目录则使用了BottleJS来管理依赖关系,其中bottle.js文件负责定义服务和依赖关系,为项目提供一个集中的依赖关系源。 REST API 端点演示: 为了演示BottleJS的功能,该项目实现了几个简单的REST API端点。 - GET /users:获取用户列表。 - GET /users/{id}:通过给定的ID(范围0-11)获取特定用户信息。 主要区别在用户路由文件: 该演示的亮点在于用户路由文件中,通过BottleJS实现依赖关系的注入,我们可以看到代码的组织和结构比传统方式更加清晰和简洁。 BottleJS 和其他依赖项注入容器的比较: - BottleJS相比其他依赖项注入容器如InversifyJS等,可能更轻量级,专注于提供基础的依赖项管理和注入功能。 - 它的设计更加直接,易于理解和使用,尤其适合小型至中型的项目。 - 对于需要高度解耦和模块化的大规模应用,可能需要考虑BottleJS以外的解决方案,以提供更多的功能和灵活性。 在JavaScript项目中应用依赖项注入的优势: - 可维护性:通过集中管理依赖关系,可以更容易地理解和修改应用的结构。 - 可测试性:依赖项的注入使得创建用于测试的mock依赖关系变得简单,从而方便单元测试的编写。 - 模块化:依赖项注入鼓励了更好的模块化实践,因为模块不需关心依赖的来源,只需负责实现其定义的接口。 - 解耦:模块之间的依赖关系被清晰地定义和管理,减少了直接耦合。 总结: BottleJS Playgound 项目提供了一个生动的案例,说明了如何在JavaScript项目中利用依赖项注入模式改善代码质量。通过该项目,开发者可以更深入地了解BottleJS的工作原理,以及如何将这一工具应用于自己的项目中,从而提高代码的可维护性、可测试性和模块化程度。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

【版本控制】:R语言项目中Git与GitHub的高效应用

![【版本控制】:R语言项目中Git与GitHub的高效应用](https://opengraph.githubassets.com/2abf032294b9f2a415ddea58f5fde6fcb018b57c719dfc371bf792c251943984/isaacs/github/issues/37) # 1. 版本控制与R语言的融合 在信息技术飞速发展的今天,版本控制已成为软件开发和数据分析中不可或缺的环节。特别是对于数据科学的主流语言R语言,版本控制不仅帮助我们追踪数据处理的历史,还加强了代码共享与协作开发的效率。R语言与版本控制系统的融合,特别是与Git的结合使用,为R语言项
recommend-type

RT-DETR如何实现在实时目标检测中既保持精度又降低计算成本?请提供其技术实现的详细说明。

为了理解RT-DETR如何在实时目标检测中保持精度并降低计算成本,我们必须深入研究其架构优化和技术细节。RT-DETR通过融合CNN与Transformer的优势,提出了一种混合编码器结构,这种结构采用了尺度内交互(AIFI)和跨尺度融合(CCFM)策略来提取和融合多尺度图像特征,这些特征能够提供丰富的视觉上下文信息,从而提升了模型的检测精度。 参考资源链接:[RT-DETR:实时目标检测中的新胜者](https://wenku.csdn.net/doc/1ehyj4a8z2?spm=1055.2569.3001.10343) 在编码器阶段,RT-DETR使用主干网络提取图像特征,然后通过
recommend-type

vConsole插件使用教程:输出与复制日志文件

资源摘要信息:"vconsole-outputlog-plugin是一个JavaScript插件,它能够在vConsole环境中输出日志文件,并且支持将日志复制到剪贴板或下载。vConsole是一个轻量级、可扩展的前端控制台,通常用于移动端网页的调试。该插件的安装依赖于npm,即Node.js的包管理工具。安装完成后,通过引入vConsole和vConsoleOutputLogsPlugin来初始化插件,之后即可通过vConsole输出的console打印信息进行日志的复制或下载操作。这在进行移动端调试时特别有用,可以帮助开发者快速获取和分享调试信息。" 知识点详细说明: 1. vConsole环境: vConsole是一个专为移动设备设计的前端调试工具。它模拟了桌面浏览器的控制台,并添加了网络请求、元素选择、存储查看等功能。vConsole可以独立于原生控制台使用,提供了一个更为便捷的方式来监控和调试Web页面。 2. 日志输出插件: vconsole-outputlog-plugin是一个扩展插件,它增强了vConsole的功能,使得开发者不仅能够在vConsole中查看日志,还能将这些日志方便地输出、复制和下载。这样的功能在移动设备上尤为有用,因为移动设备的控制台通常不易于使用。 3. npm安装: npm(Node Package Manager)是Node.js的包管理器,它允许用户下载、安装、管理各种Node.js的包或库。通过npm可以轻松地安装vconsole-outputlog-plugin插件,只需在命令行执行`npm install vconsole-outputlog-plugin`即可。 4. 插件引入和使用: - 首先创建一个vConsole实例对象。 - 然后创建vConsoleOutputLogsPlugin对象,它需要一个vConsole实例作为参数。 - 使用vConsole对象的实例,就可以在其中执行console命令,将日志信息输出到vConsole中。 - 插件随后能够捕获这些日志信息,并提供复制到剪贴板或下载的功能。 5. 日志操作: - 复制到剪贴板:在vConsole界面中,通常会有“复制”按钮,点击即可将日志信息复制到剪贴板,开发者可以粘贴到其他地方进行进一步分析或分享。 - 下载日志文件:在某些情况下,可能需要将日志信息保存为文件,以便离线查看或作为报告的一部分。vconsole-outputlog-plugin提供了将日志保存为文件并下载的功能。 6. JavaScript标签: 该插件是使用JavaScript编写的,因此它与JavaScript紧密相关。JavaScript是一种脚本语言,广泛用于网页的交互式内容开发。此插件的开发和使用都需要一定的JavaScript知识,包括对ES6(ECMAScript 2015)版本规范的理解和应用。 7. 压缩包子文件: vconsole-outputlog-plugin-main文件名可能是指该插件的压缩包或分发版本,通常包含插件的源代码、文档和可能的配置文件。开发者可以通过该文件名在项目中正确地引用和使用插件。 通过掌握这些知识点,开发者可以有效地在vConsole环境中使用vconsole-outputlog-plugin插件,提高移动端网页的调试效率和体验。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

【自然语言处理】:R语言文本挖掘与情感分析入门指南

![【自然语言处理】:R语言文本挖掘与情感分析入门指南](https://wisdomml.in/wp-content/uploads/2022/08/tokenizer-1024x512.jpg) # 1. 自然语言处理和R语言基础 自然语言处理(NLP)是计算机科学和人工智能领域的一个分支,旨在让计算机能够理解人类语言。随着大数据时代的到来,NLP在文本分析、信息检索、语音识别等方面的应用变得越来越广泛。R语言作为一种开源的统计编程语言,具有强大的数据处理和可视化功能,它在NLP领域的应用也越来越受到重视。本章将带领读者了解自然语言处理的基础知识,以及R语言在处理语言数据时的基本语法和功