OPPO Reno5手机体验:颜值高性能佳,65W快充实测

需积分: 36 7 下载量 198 浏览量 更新于2024-08-04 收藏 5.88MB TXT 举报
"该资源为一个分词处理的文本文件,内容主要为用户对某款OPPO Reno5系列手机的评价。用户普遍对该手机的外观设计、屏幕音效、拍照性能、运行速度和待机时间给予高度评价,并特别提到了6400万像素摄像头、65W快充技术以及星钻工艺的背部设计。" 从这个摘要中,我们可以提炼出以下几个IT相关的知识点: 1. **分词技术**: 分词是自然语言处理的基础,它将连续的文本序列分割成具有语义意义的词语。在本文件中,"comments - 分词.txt"表明内容已经过分词处理,这可能是为了进行文本分析,如情感分析或关键词提取。 2. **移动设备性能**: 手机的硬件性能是评价的重点,其中包括: - **处理器**: 提到的“骁龙765G”是高通公司的中端处理器,提供了良好的性能和功耗平衡。 - **内存和存储**: “8*128”指的是8GB RAM和128GB存储空间,提供流畅的操作体验和足够的存储空间。 - **电池容量**: “4300mAh”的电池容量意味着较长的待机和使用时间。 - **快充技术**: “65W超级快充”是OPPO的快速充电技术,可以在短时间内为手机充满电。 3. **用户体验**: 用户对手机的多个方面表示满意,这些包括: - **外观设计**: 外观华丽、时尚,采用“星钻工艺”,颜色随光线变化,提升视觉吸引力。 - **屏幕**: OLED屏幕提供清晰柔和的显示效果,窄边框设计提供更大的视野。 - **音效**: 音质好,触屏响应灵敏。 - **拍照**: 6400万像素的主摄像头提供出色的拍照效果,特别是在夜间拍摄。 - **运行速度**: 手机运行速度快,无明显延迟或卡顿。 4. **品牌信任度**: 用户对OPPO品牌的认可度高,认为其产品性价比高,质量可靠。 这些知识点反映了IT产品(尤其是智能手机)在市场上的竞争点,以及消费者在购买时关注的关键因素。对于开发者和产品经理来说,了解这些需求可以帮助他们设计更符合市场需求的产品。同时,对于市场营销人员,这些反馈可以用来定位目标受众并制定有效的营销策略。

给以下这段代码加上结果可视化的功能:from sklearn.feature_extraction.text import CountVectorizer from sklearn.naive_bayes import MultinomialNB import jieba from sklearn.model_selection import train_test_split import numpy as np import matplotlib.pyplot as plt good_comments = [] bad_comments = [] with open('D:\PyCharmProjects\爬虫测试\好评.txt', 'r', encoding='gbk') as f: for line in f.readlines(): good_comments.append(line.strip('\n')) with open('D:\PyCharmProjects\爬虫测试\差评.txt', 'r', encoding='gbk') as f: for line in f.readlines(): bad_comments.append(line.strip('\n')) with open('StopWords.txt', 'r', encoding='utf-8') as f: stopwords = f.read().splitlines() good_words = [] for line in good_comments: words = jieba.cut(line, cut_all=False) words = [w for w in words if w not in stopwords] good_words.append(' '.join(words)) bad_words = [] for line in bad_comments: words = jieba.cut(line, cut_all=False) words = [w for w in words if w not in stopwords] bad_words.append(' '.join(words)) # 将文本转换为向量 vectorizer = CountVectorizer() X = vectorizer.fit_transform(good_words + bad_words) y = [1] * len(good_words) + [0] * len(bad_words) # 将数据分为训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2) # 训练模型 clf = MultinomialNB() clf.fit(X_train, y_train) # 测试模型并计算准确率 pred = clf.predict(X_test) accuracy = sum(pred == y_test) / len(y_test) print('准确率:{:.2%}'.format(accuracy)) # 预测新数据的类别 with open('测试评论.txt', 'r', encoding='utf-8') as f: count = 0 for line in f.readlines(): count += 1 test_text = line.strip('\n') test_words = ' '.join(jieba.cut(test_text, cut_all=False)) test_vec = vectorizer.transform([test_words]) pred = clf.predict(test_vec) if pred[0] == 1: print(count, '好评') else: print(count, '差评')

2023-05-26 上传

修改 # 导入jieba模块,用于中文分词 import jieba # 导入matplotlib,用于生成2D图形 import matplotlib.pyplot as plt # 导入wordcount,用于制作词云图 from wordcloud import WordCloud, STOPWORDS, ImageColorGenerator # 获取所有评论 comments = set() # 使用 set 来去除重复项 try: with open('comments.txt', mode='r', encoding='utf-8') as f: rows = f.readlines() for row in rows: # 获取评论内容并去除空格 comment = row.split(',')[2].strip() if comment != '': comments.add(comment) except FileNotFoundError: print('文件不存在') except Exception as e: print('文件读取失败:', e) # 输出去重后的评论数量 print('评论数量:', len(comments)) # 设置分词 comment_after_split = jieba.cut(str(comments), cut_all=False) # 非全模式分词,cut_all=false words = " ".join(comment_after_split) # 以空格进行拼接 # print(words) # 设置屏蔽词 stopwords = STOPWORDS.copy() stopwords.add("电影") stopwords.add("一部") stopwords.add("一个") stopwords.add("没有") stopwords.add("什么") stopwords.add("有点") stopwords.add("这部") stopwords.add("这个") stopwords.add("不是") stopwords.add("真的") stopwords.add("感觉") stopwords.add("觉得") stopwords.add("还是") stopwords.add("但是") stopwords.add("就是") # 导入背景图 bg_image = plt.imread('xin.jpg') # 设置词云参数,参数分别表示:画布宽高、背景颜色、背景图形状、字体、屏蔽词、最大词的字体大小 wc = WordCloud(width=1024, height=768, background_color='white', mask=bg_image, font_path='simhei.ttf', stopwords=stopwords, max_font_size=400, random_state=50) # 将分词后数据传入云图 wc.generate_from_text(words) plt.imshow(wc) plt.axis('off') # 不显示坐标轴 plt.show() # 保存结果到本地 wc.to_file('词云图.jpg')

2023-06-09 上传