建立一个传统文本二分类的卷积神经网络模型,首先对数据集进行读取,数据集分为lebal列和reveiw列,lebal列为标签,为0和1,作为分类标签,reveiw列为中文文本数据列,模型首先对数据集进行读取,随机抽取各分类的80%作为训练集,剩余为测试集,对于文本转换为数字数据则采取文本最大长度作为数据长度,其余不足长度的数据按0填充,卷积核尺寸为3,采用平均池化,一个全连接层进行二分类输出结果,模型共训练20轮,输出每轮训练的测试集和训练集的损失率和准确率结果并绘制折线图。基于pytorch对模型进行构建,给出相应代码

时间: 2023-11-12 14:04:57 浏览: 69
好的,以下是基于PyTorch构建传统文本二分类卷积神经网络模型的代码: ```python import torch import torch.nn as nn import torch.optim as optim import torch.utils.data as data import numpy as np import pandas as pd import matplotlib.pyplot as plt import jieba # 定义模型超参数 MAX_LEN = 128 # 文本最大长度 BATCH_SIZE = 64 # 批处理大小 KERNEL_SIZE = 3 # 卷积核尺寸 NUM_FILTERS = 100 # 卷积核数量 HIDDEN_SIZE = 64 # 全连接层隐藏层大小 NUM_CLASSES = 2 # 类别数 NUM_EPOCHS = 20 # 训练轮数 LEARNING_RATE = 0.001 # 学习率 EMBEDDING_SIZE = 128 # 词向量维度 # 定义数据预处理函数 def preprocess_text(text): text = jieba.lcut(text) # 分词 text = [word for word in text if len(word) > 1] # 去掉长度为1的词 text = " ".join(text) # 合并为字符串 return text # 定义数据读取类 class CustomDataset(data.Dataset): def __init__(self, data_path): self.df = pd.read_csv(data_path, sep="\t", header=None, names=["label", "review"], error_bad_lines=False) self.df["review"] = self.df["review"].apply(preprocess_text) self.tokenizer = None def __len__(self): return len(self.df) def __getitem__(self, index): label = self.df.iloc[index]["label"] review = self.df.iloc[index]["review"] if self.tokenizer is None: self.tokenizer = torchtext.vocab.FastText(language='zh').get_vecs_by_tokens(list(review)) review = [self.tokenizer.stoi.get(word, 0) for word in review.split()] # 转换为数字序列 review = review[:MAX_LEN] + [0] * (MAX_LEN - len(review)) # 填充到最大长度 return torch.LongTensor(review), torch.LongTensor([label]) # 定义卷积神经网络模型 class TextCNN(nn.Module): def __init__(self): super(TextCNN, self).__init__() self.embedding = nn.Embedding(len(CustomDataset(data_path)), EMBEDDING_SIZE) self.conv = nn.Conv1d(in_channels=EMBEDDING_SIZE, out_channels=NUM_FILTERS, kernel_size=KERNEL_SIZE) self.pool = nn.AdaptiveAvgPool1d(1) self.fc = nn.Linear(NUM_FILTERS, HIDDEN_SIZE) self.relu = nn.ReLU() self.dropout = nn.Dropout(p=0.5) self.out = nn.Linear(HIDDEN_SIZE, NUM_CLASSES) def forward(self, x): x = self.embedding(x) x = x.permute(0, 2, 1) # 将维度转换为[batch_size, embedding_size, seq_len] x = self.conv(x) x = self.pool(x).squeeze() x = self.fc(x) x = self.relu(x) x = self.dropout(x) x = self.out(x) return x # 定义训练函数 def train(model, device, train_loader, optimizer, criterion): model.train() train_loss = 0 train_acc = 0 for x, y in train_loader: x, y = x.to(device), y.to(device) optimizer.zero_grad() pred = model(x) loss = criterion(pred, y.squeeze()) loss.backward() optimizer.step() train_loss += loss.item() train_acc += (pred.argmax(dim=1) == y.squeeze()).sum().item() return train_loss / len(train_loader), train_acc / len(train_loader.dataset) # 定义测试函数 def test(model, device, test_loader, criterion): model.eval() test_loss = 0 test_acc = 0 with torch.no_grad(): for x, y in test_loader: x, y = x.to(device), y.to(device) pred = model(x) loss = criterion(pred, y.squeeze()) test_loss += loss.item() test_acc += (pred.argmax(dim=1) == y.squeeze()).sum().item() return test_loss / len(test_loader), test_acc / len(test_loader.dataset) # 定义主函数 if __name__ == "__main__": # 加载数据集 data_path = "data.csv" dataset = CustomDataset(data_path) # 划分数据集 train_size = int(len(dataset) * 0.8) test_size = len(dataset) - train_size train_dataset, test_dataset = data.random_split(dataset, [train_size, test_size]) # 创建数据加载器 train_loader = data.DataLoader(train_dataset, batch_size=BATCH_SIZE, shuffle=True) test_loader = data.DataLoader(test_dataset, batch_size=BATCH_SIZE, shuffle=True) # 定义设备 device = torch.device("cuda" if torch.cuda.is_available() else "cpu") # 创建模型 model = TextCNN().to(device) # 定义损失函数和优化器 criterion = nn.CrossEntropyLoss() optimizer = optim.Adam(model.parameters(), lr=LEARNING_RATE) # 训练模型 train_loss_list, train_acc_list, test_loss_list, test_acc_list = [], [], [], [] for epoch in range(NUM_EPOCHS): train_loss, train_acc = train(model, device, train_loader, optimizer, criterion) test_loss, test_acc = test(model, device, test_loader, criterion) train_loss_list.append(train_loss) train_acc_list.append(train_acc) test_loss_list.append(test_loss) test_acc_list.append(test_acc) print(f"Epoch {epoch + 1}: Train Loss={train_loss:.4f}, Train Acc={train_acc:.4f}, Test Loss={test_loss:.4f}, Test Acc={test_acc:.4f}") # 绘制训练过程中的损失率和准确率折线图 x = range(1, NUM_EPOCHS+1) plt.plot(x, train_loss_list, label="Train Loss") plt.plot(x, train_acc_list, label="Train Acc") plt.plot(x, test_loss_list, label="Test Loss") plt.plot(x, test_acc_list, label="Test Acc") plt.xlabel("Epochs") plt.ylabel("Loss/Accuracy") plt.legend() plt.show() ``` 以上代码中,我们首先定义了模型的超参数,包括文本最大长度、批处理大小、卷积核尺寸等;然后定义了数据预处理函数,用于将中文文本转换为数字序列;接着定义了数据读取类`CustomDataset`,用于读取数据集、进行预处理和转换为数字序列;然后定义了卷积神经网络模型`TextCNN`,包括嵌入层、卷积层、池化层、全连接层等;然后定义了训练函数和测试函数,用于训练和测试模型;最后定义了主函数,用于加载数据集、创建数据加载器、构建模型、定义损失函数和优化器、训练模型、绘制折线图等步骤。

相关推荐

最新推荐

recommend-type

2024java面试题

2024年的Java面试题可能涵盖多个方面,包括Java基础知识、面向对象编程、集合框架、多线程与并发编程、JVM与性能优化、设计模式、Spring框架等。以下是一些可能出现在2024年Java面试中的题目及其简要答案: 一、Java基础知识 面向对象的特征有哪些? 抽象:忽略主题中与当前目标无关的部分,以便更关注与当前目标有关的部分。 继承:允许新类继承现有类的属性和方法,实现代码重用。 封装:将对象的状态信息隐藏在对象内部,不允许外部直接访问,而是通过公共方法进行访问和操作。 多态性:允许不同类的对象对同一消息作出响应,实现接口重用。 作用域public, private, protected, 以及不写时的区别是什么? public:任何地方都可以访问。 private:只能在本类内部访问。 protected:可以在同一包内及不同包中的子类里访问。 不写(默认,也称为default):只能在同一包内访问。 int和Integer有什么区别? int是Java的原始数据类型,存储在栈内存中。 Integer是Java为int提供的封装类,存储在堆内存中,可以表示null。 二、
recommend-type

C课程设计之职工管理系统

C课程设计之职工管理系统 C语言开发,可以使用dev-C++或者其他C编程软件打开编译运行 喜欢的同学,可以拿去使用
recommend-type

PyOpenGL_accelerate-3.1.7-cp39-cp39-win_amd64.whl

PyOpenGL_accelerate-3.1.7-cp39-cp39-win_amd64.whl
recommend-type

【创新发文无忧】Matlab实现鲸鱼优化算法WOA-Kmean-Transformer-GRU故障诊断算法研究.rar

1.版本:matlab2014/2019a/2021a 2.附赠案例数据可直接运行matlab程序。 3.代码特点:参数化编程、参数可方便更改、代码编程思路清晰、注释明细。 4.适用对象:计算机,电子信息工程、数学等专业的大学生课程设计、期末大作业和毕业设计。 5.作者介绍:某大厂资深算法工程师,从事Matlab算法仿真工作10年;擅长智能优化算法、神经网络预测、信号处理、元胞自动机等多种领域的算法仿真实验,更多仿真源码、数据集定制私信+。 替换数据可以直接使用,注释清楚,适合新手
recommend-type

单片机控制的频率跟踪超声波电源的研究

输出频率与谐振频率不匹配,从而使清洗效果不佳。超声波电源是超声清洗机的核心部分,为实现其高效稳定的工作,需要对其工作频率进行自动跟踪控制。为此,本文设计了基于单片机PIC16F886为控制核心的超声波电源,其额定输出功率为600W,工作频率为20kHz,并实现了对频率的实时跟踪控制。
recommend-type

计算机系统基石:深度解析与优化秘籍

深入理解计算机系统(原书第2版)是一本备受推崇的计算机科学教材,由卡耐基梅隆大学计算机学院院长,IEEE和ACM双院院士推荐,被全球超过80所顶级大学选作计算机专业教材。该书被誉为“价值超过等重量黄金”的无价资源,其内容涵盖了计算机系统的核心概念,旨在帮助读者从底层操作和体系结构的角度全面掌握计算机工作原理。 本书的特点在于其起点低但覆盖广泛,特别适合大三或大四的本科生,以及已经完成基础课程如组成原理和体系结构的学习者。它不仅提供了对计算机原理、汇编语言和C语言的深入理解,还包含了诸如数字表示错误、代码优化、处理器和存储器系统、编译器的工作机制、安全漏洞预防、链接错误处理以及Unix系统编程等内容,这些都是提升程序员技能和理解计算机系统内部运作的关键。 通过阅读这本书,读者不仅能掌握系统组件的基本工作原理,还能学习到实用的编程技巧,如避免数字表示错误、优化代码以适应现代硬件、理解和利用过程调用、防止缓冲区溢出带来的安全问题,以及解决链接时的常见问题。这些知识对于提升程序的正确性和性能至关重要,使读者具备分析和解决问题的能力,从而在计算机行业中成为具有深厚技术实力的专家。 《深入理解计算机系统(原书第2版)》是一本既能满足理论学习需求,又能提供实践经验指导的经典之作,无论是对在校学生还是职业程序员,都是提升计算机系统知识水平的理想读物。如果你希望深入探究计算机系统的世界,这本书将是你探索之旅的重要伴侣。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

PHP数据库操作实战:手把手教你掌握数据库操作精髓,提升开发效率

![PHP数据库操作实战:手把手教你掌握数据库操作精髓,提升开发效率](https://img-blog.csdn.net/20180928141511915?watermark/2/text/aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80MzE0NzU5/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70) # 1. PHP数据库操作基础** PHP数据库操作是使用PHP语言与数据库交互的基础,它允许开发者存储、检索和管理数据。本章将介绍PHP数据库操作的基本概念和操作,为后续章节奠定基础。
recommend-type

vue-worker

Vue Worker是一种利用Web Workers技术的 Vue.js 插件,它允许你在浏览器的后台线程中运行JavaScript代码,而不影响主线程的性能。Vue Worker通常用于处理计算密集型任务、异步I/O操作(如文件读取、网络请求等),或者是那些需要长时间运行但不需要立即响应的任务。 通过Vue Worker,你可以创建一个新的Worker实例,并将Vue实例的数据作为消息发送给它。Worker可以在后台执行这些数据相关的操作,然后返回结果到主页面上,实现了真正的非阻塞用户体验。 Vue Worker插件提供了一个简单的API,让你能够轻松地在Vue组件中管理worker实例
recommend-type

《ThinkingInJava》中文版:经典Java学习宝典

《Thinking in Java》中文版是由知名编程作家Bruce Eckel所著的经典之作,这本书被广泛认为是学习Java编程的必读书籍。作为一本面向对象的编程教程,它不仅适合初学者,也对有一定经验的开发者具有启发性。本书的核心目标不是传授Java平台特定的理论,而是教授Java语言本身,着重于其基本语法、高级特性和最佳实践。 在内容上,《Thinking in Java》涵盖了Java 1.2时期的大部分关键特性,包括Swing GUI框架和新集合类库。作者通过清晰的讲解和大量的代码示例,帮助读者深入理解诸如网络编程、多线程处理、虚拟机性能优化以及与其他非Java代码交互等高级概念。书中提供了320个实用的Java程序,超过15000行代码,这些都是理解和掌握Java语言的宝贵资源。 作为一本获奖作品,Thinking in Java曾荣获1995年的Software Development Jolt Award最佳书籍大奖,体现了其在业界的高度认可。Bruce Eckel不仅是一位经验丰富的编程专家,还是C++领域的权威,他拥有20年的编程经历,曾在世界各地教授对象编程,包括C++和Java。他的著作还包括Thinking in C++,该书同样广受好评。 作者不仅是一位技术导师,还是一位教育家,他善于用易于理解的方式阐述复杂的编程概念,使读者能够领略到编程中的“智慧”。与其他Java教材相比,《Thinking in Java》以其成熟、连贯、严谨的风格,赢得了读者的一致赞誉,被誉为最全面且实例恰当的编程指南,是学习Java过程中不可或缺的参考资料。 此外,本书还提供了配套的CD,包含15小时的语音授课,以及可以从Bruce Eckel的官方网站www.BruceEckel.com免费获取的源码和电子版更新,确保读者能够跟随最新的技术发展保持同步。无论你是Java新手还是进阶者,《Thinking in Java》都是一次深入探索Java世界的重要旅程。