详细分析代码”import jieba import pandas as pd import random stopwords=pd.read_csv("../stopwords.txt",index_col=False,quoting=3 ,sep="\t",names=['stopword'], encoding='utf-8') stopwords=stopwords['stopword'].values def preprocess_text(content_lines,sentences,category): for line in content_lines: try: segs=jieba.lcut(line) segs = filter(lambda x:len(x)>1, segs) segs = filter(lambda x:x not in stopwords, segs) sentences.append((" ".join(segs), category)) except: print(line) continue sentences=[] preprocess_text(data_com_X_1.content.dropna().values.tolist() ,sentences ,'like') n=0 while n <20: preprocess_text(data_com_X_0.content.dropna().values.tolist() ,sentences ,'nlike') n +=1 random.shuffle(sentences) from sklearn.model_selection import train_test_split x,y=zip(*sentences) train_data,test_data,train_target,test_target=train_test_split(x, y, random_state=1234)“添加详细注释,每段代码的作用,参数代表什么

时间: 2023-12-04 21:02:35 浏览: 55
# 导入jieba分词库和pandas库 import jieba import pandas as pd # 读取停用词表 stopwords=pd.read_csv("../stopwords.txt",index_col=False,quoting=3,sep="\t",names=['stopword'], encoding='utf-8') stopwords=stopwords['stopword'].values # 定义预处理函数,将文本进行分词、去除停用词等操作 def preprocess_text(content_lines,sentences,category): for line in content_lines: try: # 使用jieba分词对文本进行分词 segs=jieba.lcut(line) # 过滤掉长度小于2的词汇 segs = filter(lambda x:len(x)>1, segs) # 过滤掉停用词 segs = filter(lambda x:x not in stopwords, segs) # 将处理后的文本及其类别添加到sentences列表中 sentences.append((" ".join(segs), category)) except: print(line) continue # 定义空列表sentences,用于保存预处理后的文本及其类别 sentences=[] # 对数据集中标记为1(喜欢)的文本进行预处理,并将其添加到sentences列表中 preprocess_text(data_com_X_1.content.dropna().values.tolist() ,sentences ,'like') # 对数据集中标记为0(不喜欢)的文本进行预处理,并将其添加到sentences列表中 n=0 while n <20: preprocess_text(data_com_X_0.content.dropna().values.tolist() ,sentences ,'nlike') n +=1 # 对sentences列表进行随机打乱,以免训练集和测试集中的数据顺序影响模型性能 random.shuffle(sentences) # 导入train_test_split函数,将sentences列表分为训练集和测试集 from sklearn.model_selection import train_test_split x,y=zip(*sentences) train_data,test_data,train_target,test_target=train_test_split(x, y, random_state=1234) 注释: 1. 导入jieba分词库和pandas库 2. 读取停用词表 3. 定义预处理函数preprocess_text,用于对文本进行分词、去除停用词等操作 4. 定义空列表sentences,用于保存预处理后的文本及其类别 5. 对数据集中标记为1(喜欢)的文本进行预处理,并将其添加到sentences列表中 6. 对数据集中标记为0(不喜欢)的文本进行预处理,并将其添加到sentences列表中 7. 对sentences列表进行随机打乱,以免训练集和测试集中的数据顺序影响模型性能 8. 导入train_test_split函数,将sentences列表分为训练集和测试集

相关推荐

import pandas as pd import matplotlib import numpy as np import matplotlib.pyplot as plt import jieba as jb import re from sklearn.feature_extraction.text import TfidfVectorizer from sklearn.feature_selection import chi2 import numpy as np from sklearn.model_selection import train_test_split from sklearn.feature_extraction.text import CountVectorizer from sklearn.feature_extraction.text import TfidfTransformer from sklearn.naive_bayes import MultinomialNB def sigmoid(x): return 1 / (1 + np.exp(-x)) import numpy as np #定义删除除字母,数字,汉字以外的所有符号的函数 def remove_punctuation(line): line = str(line) if line.strip()=='': return '' rule = re.compile(u"[^a-zA-Z0-9\u4E00-\u9FA5]") line = rule.sub('',line) return line def stopwordslist(filepath): stopwords = [line.strip() for line in open(filepath, 'r', encoding='utf-8').readlines()] return stopwords df = pd.read_csv('./online_shopping_10_cats/online_shopping_10_cats.csv') df=df[['cat','review']] df = df[pd.notnull(df['review'])] d = {'cat':df['cat'].value_counts().index, 'count': df['cat'].value_counts()} df_cat = pd.DataFrame(data=d).reset_index(drop=True) df['cat_id'] = df['cat'].factorize()[0] cat_id_df = df[['cat', 'cat_id']].drop_duplicates().sort_values('cat_id').reset_index(drop=True) cat_to_id = dict(cat_id_df.values) id_to_cat = dict(cat_id_df[['cat_id', 'cat']].values) #加载停用词 stopwords = stopwordslist("./online_shopping_10_cats/chineseStopWords.txt") #删除除字母,数字,汉字以外的所有符号 df['clean_review'] = df['review'].apply(remove_punctuation) #分词,并过滤停用词 df['cut_review'] = df['clean_review'].apply(lambda x: " ".join([w for w in list(jb.cut(x)) if w not in stopwords])) tfidf = TfidfVectorizer(norm='l2', ngram_range=(1, 2)) features = tfidf.fit_transform(df.cut_review) labels = df.cat_id X_train, X_test, y_train, y_test = train_test_split(df['cut_review'], df['cat_id'], random_state = 0) count_vect = CountVectorizer() X_train_counts = count_vect.fit_transform(X_train) tfidf_transformer = TfidfTransformer() X_train_tfidf = tfidf_transformer.fit_transform(X_train_counts) 已经写好以上代码,请补全train和test函数

from sklearn.feature_extraction.text import CountVectorizer, TfidfTransformer from sklearn.naive_bayes import MultinomialNB import jieba good_comments = [] bad_comments = [] with open('D:\PyCharmProjects\爬虫测试\好评.txt', 'r', encoding='gbk') as f: for line in f.readlines(): good_comments.append(line.strip('\n')) # print(good_comments) with open('D:\PyCharmProjects\爬虫测试\差评.txt', 'r', encoding='gbk') as f: for line in f.readlines(): bad_comments.append(line.strip('\n')) # print(bad_comments) # stopwords = [] with open('StopWords.txt', 'r', encoding='utf-8') as f: stopwords = f.read().splitlines() good_words = [] for line in good_comments: words = jieba.cut(line, cut_all=False) words = [w for w in words if w not in stopwords] good_words.append(' '.join(words)) bad_words = [] for line in bad_comments: words = jieba.cut(line, cut_all=False) words = [w for w in words if w not in stopwords] bad_words.append(' '.join(words)) # 将文本转换为向量 vectorizer = CountVectorizer() X = vectorizer.fit_transform(good_words + bad_words) y = [1] * len(good_words) + [0] * len(bad_words) # 训练模型 clf = MultinomialNB() clf.fit(X, y) # 测试模型 test_text = '味道很差,不建议购买,还有不少烂的!' test_words = ' '.join(jieba.cut(test_text, cut_all=False)) test_vec = vectorizer.transform([test_words]) pred = clf.predict(test_vec) if pred[0] == 1: print('好评') else: print('差评'),为我给这段代码增加一个输出判断结果准确率的功能

import sys import re import jieba import codecs import gensim import numpy as np import pandas as pd def segment(doc: str): stop_words = pd.read_csv('data/stopwords.txt', index_col=False, quoting=3, names=['stopword'], sep='\n', encoding='utf-8') stop_words = list(stop_words.stopword) reg_html = re.compile(r'<[^>]+>', re.S) # 去掉html标签数字等 doc = reg_html.sub('', doc) doc = re.sub('[0-9]', '', doc) doc = re.sub('\s', '', doc) word_list = list(jieba.cut(doc)) out_str = '' for word in word_list: if word not in stop_words: out_str += word out_str += ' ' segments = out_str.split(sep=' ') return segments def doc2vec(file_name, model): start_alpha = 0.01 infer_epoch = 1000 doc = segment(codecs.open(file_name, 'r', 'utf-8').read()) vector = model.docvecs[doc_id] return model.infer_vector(doc) # 计算两个向量余弦值 def similarity(a_vect, b_vect): dot_val = 0.0 a_norm = 0.0 b_norm = 0.0 cos = None for a, b in zip(a_vect, b_vect): dot_val += a * b a_norm += a ** 2 b_norm += b ** 2 if a_norm == 0.0 or b_norm == 0.0: cos = -1 else: cos = dot_val / ((a_norm * b_norm) ** 0.5) return cos def test_model(file1, file2): print('导入模型') model_path = 'tmp/zhwk_news.doc2vec' model = gensim.models.Doc2Vec.load(model_path) vect1 = doc2vec(file1, model) # 转成句子向量 vect2 = doc2vec(file2, model) print(sys.getsizeof(vect1)) # 查看变量占用空间大小 print(sys.getsizeof(vect2)) cos = similarity(vect1, vect2) print('相似度:%0.2f%%' % (cos * 100)) if __name__ == '__main__': file1 = 'data/corpus_test/t1.txt' file2 = 'data/corpus_test/t2.txt' test_model(file1, file2) 有什么问题 ,怎么解决

给以下这段代码加上结果可视化的功能:from sklearn.feature_extraction.text import CountVectorizer from sklearn.naive_bayes import MultinomialNB import jieba from sklearn.model_selection import train_test_split import numpy as np import matplotlib.pyplot as plt good_comments = [] bad_comments = [] with open('D:\PyCharmProjects\爬虫测试\好评.txt', 'r', encoding='gbk') as f: for line in f.readlines(): good_comments.append(line.strip('\n')) with open('D:\PyCharmProjects\爬虫测试\差评.txt', 'r', encoding='gbk') as f: for line in f.readlines(): bad_comments.append(line.strip('\n')) with open('StopWords.txt', 'r', encoding='utf-8') as f: stopwords = f.read().splitlines() good_words = [] for line in good_comments: words = jieba.cut(line, cut_all=False) words = [w for w in words if w not in stopwords] good_words.append(' '.join(words)) bad_words = [] for line in bad_comments: words = jieba.cut(line, cut_all=False) words = [w for w in words if w not in stopwords] bad_words.append(' '.join(words)) # 将文本转换为向量 vectorizer = CountVectorizer() X = vectorizer.fit_transform(good_words + bad_words) y = [1] * len(good_words) + [0] * len(bad_words) # 将数据分为训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2) # 训练模型 clf = MultinomialNB() clf.fit(X_train, y_train) # 测试模型并计算准确率 pred = clf.predict(X_test) accuracy = sum(pred == y_test) / len(y_test) print('准确率:{:.2%}'.format(accuracy)) # 预测新数据的类别 with open('测试评论.txt', 'r', encoding='utf-8') as f: count = 0 for line in f.readlines(): count += 1 test_text = line.strip('\n') test_words = ' '.join(jieba.cut(test_text, cut_all=False)) test_vec = vectorizer.transform([test_words]) pred = clf.predict(test_vec) if pred[0] == 1: print(count, '好评') else: print(count, '差评')

最新推荐

recommend-type

计算机模拟考试.doc

计算机
recommend-type

《单片机原理与接口技术》--试卷A及参考答案.doc

单片机
recommend-type

艾意凯2023国际制药企业的中国市场机遇分析报告英文版.pdf

医疗行业研究报告
recommend-type

胰岛素行业深度报告国产替代开拓欧美市场国产胰岛素进入新阶段.pdf

胰岛素行业深度报告国产替代开拓欧美市场国产胰岛素进入新阶段
recommend-type

药物涂层球囊临床应用中国专家共识(第二版).pdf

药物涂层球囊临床应用中国专家共识(第二版)
recommend-type

RxJS电子书:深入浅出AngularJS 2.0的Observable与Operators指南

《RxJS电子书》是一本专注于AngularJS 2.0时代的网络资源,主要讲解了RxJS(Reactive Extensions for JavaScript)这一个强大的库,用于处理异步编程和事件驱动的编程模型。RxJS的核心概念包括Observables、Observers和Subscriptions,它们构成了数据流的基石。 1.1 到1.8 部分介绍了RxJS的基本概念和术语,从Rookie primer(新手指南)开始,逐步深入到Observable(可观察对象,代表一系列值的生产者),Observer(订阅者,接收并处理这些值的接收者)以及Subscription(表示对Observable的订阅,一旦取消,就会停止接收值)。这部分还涵盖了基础操作符的介绍,如bindCallback、bindNodeCallback等,这些操作符用于连接回调函数与Observable流。 2.1 至4.27 展示了丰富的操作符集合,例如`combineLatest`(结合最新值)、`concat`(合并多个Observable)、`from`(从数组或Promise转换为Observable)等。这部分内容强调了如何通过这些操作符组合和处理数据流,使异步编程变得更加直观和简洁。 4.8 到4.27 的实例操作符部分,如`audit`(审计)、`buffer`(缓冲)和`zip`(合并)等,详细展示了如何优化数据处理,控制流的执行顺序,以及在不同时间窗口收集数据。 5.1 到5.8 提供了一些特定场景下的操作符,如`empty`(创建一个立即结束的Observable)、`interval`(定时器)和`webSocket`(WebSocket连接的Observable)等,这些都是实际应用中不可或缺的部分。 学习过程中,作者提醒读者,《RxJS-Chinese》是出于填补国内资源空白而进行的翻译,可能存在疏漏和错误,鼓励读者在遇到问题时提供反馈。同时,作者推荐结合阮一峰老师的ES6入门教程和TypeScript中文文档,以及查阅英文官方文档,以便获得更全面的理解。 《RxJS电子书》为学习者提供了深入理解和掌握RxJS的强大工具,尤其适合那些希望改进异步编程实践和提升AngularJS 2.0应用性能的开发者。通过理解和运用这些概念和操作符,开发者可以构建出高效、响应式的Web应用。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

数据库设计文档编写指南:创建清晰、全面的数据库设计文档

![数据库设计文档编写指南:创建清晰、全面的数据库设计文档](https://img-blog.csdnimg.cn/089416230bd9451db618de0b381cc2e3.png) # 1. 数据库设计文档概述 数据库设计文档是数据库设计过程中的重要组成部分,它记录了数据库设计的决策、原理和规范。一份清晰、全面的数据库设计文档对于确保数据库的有效性、可维护性和可扩展性至关重要。 本指南将提供编写数据库设计文档的全面指南,涵盖文档结构、内容、编写技巧、审核和维护流程。通过遵循本指南,数据库设计人员可以创建高质量的文档,从而为数据库开发和维护提供坚实的基础。 # 2. 数据库设计
recommend-type

wireshark自定义

Wireshark是一款强大的网络协议分析工具,它允许用户捕捉、查看和分析网络数据包。如果你想在Wireshark中进行自定义,可以做到以下几点: 1. **过滤规则**:通过创建自定义的过滤表达式,你可以指定只显示特定类型的流量,如IP地址、端口号、协议等。 2. **插件扩展**:Wireshark支持插件系统,你可以安装第三方插件来增强其功能,比如支持特定网络协议解析,或者提供新的数据分析视图。 3. **字段定制**:在捕获的数据包显示栏中,用户可以添加、删除或修改字段,以便更好地理解和解读数据。 4. **脚本编辑**:Wireshark的Dissector(解码器)模块允许
recommend-type

Python3入门:快速安装与环境配置指南

深入Python3教程 本资源旨在为初学者提供全面的Python3入门指南。首先,理解为何选择Python3对于入门至关重要。Python3是当前主流的编程语言,相比Python2,它在语法优化、兼容性提升和性能改进等方面有所进步,更适合现代项目开发。 学习路径的第一步就是安装Python3。无论你是初次接触,还是已经安装了Python,都需要确保你的环境支持Python3。如果你使用的是托管服务或ISP提供的服务器,可能已经有Python2,但可能需要检查是否包含Python3版本。对于Linux用户,尤其是那些使用流行发行版(如Ubuntu、Debian)的,Python3通常会在基础安装中预置,但有些较新的发行版可能同时提供了Python2和Python3。 在Linux和MacOSX系统中,可以通过命令行工具(如Terminal或MacOSX自带的Terminal.app)来检测Python3的存在。在终端中输入`python3`,如果系统已安装,你会看到类似的信息,表明你正在使用Python3的版本和编译信息。而对于Windows用户,虽然默认没有Python,但仍可通过Python官方网站下载并安装Python3。 如果你的虚拟主机服务商提供的服务器不包含Python3,可能需要手动下载安装,或者联系服务商询问如何配置。在安装过程中,确保遵循官方文档的指引,以避免潜在的问题。 在实际操作中,Python3的交互式shell(如上述示例中的`>>>`提示符)是一个学习和实践的好地方。通过尝试运行内置的帮助命令(如`help`),你可以了解Python的基本结构和常用功能。随着学习的深入,你可以逐步掌握变量、数据类型、控制结构、函数和模块等核心概念。 深入Python3的学习之旅不仅涉及基础安装,还包括理解和掌握编程语言的核心概念,以及如何在实际项目中运用它们。通过这个教程,初学者将建立起坚实的Python3编程基础,为未来的软件开发奠定坚实的基础。