python评论词频统计
时间: 2023-06-28 08:05:29 浏览: 97
以下是Python代码实现评论词频统计的过程:
```python
import re
from collections import Counter
# 读取评论文件
with open('comments.txt', 'r', encoding='utf-8') as f:
comments = f.read()
# 将评论中的标点符号和特殊字符去除
comments = re.sub(r'[^\w\s]','',comments)
# 将评论转换为小写字母
comments = comments.lower()
# 将评论拆分为单词列表
words = comments.split()
# 统计每个单词出现的次数
word_counts = Counter(words)
# 输出前10个最常见的单词及它们的出现次数
for word, count in word_counts.most_common(10):
print(word, count)
```
其中,`comments.txt` 是包含评论内容的文本文件。首先读取评论文件,然后使用正则表达式去除标点符号和特殊字符,再将评论转换为小写字母。接着,将评论拆分为单词列表,并使用 `Counter` 对每个单词进行计数。最后,输出前 10 个最常见的单词及它们的出现次数。
相关问题
python评论词频统计结果保存为文件
要将Python评论词频统计结果保存到文件中,可以使用Python内置的文件操作函数。以下是一个简单的代码示例:
```python
from collections import Counter
# 读取评论数据
with open('comments.txt', 'r') as f:
comments = f.read()
# 分词统计
words = comments.split()
word_freq = Counter(words)
# 保存到文件
with open('word_freq.txt', 'w') as f:
for word, freq in word_freq.most_common():
f.write(f'{word}: {freq}\n')
```
这个代码示例假设评论数据已经保存在一个名为 `comments.txt` 的文件中。代码首先读取评论数据,然后使用 Python 的 `split()` 函数将其分词,并使用 `Counter` 对象进行词频统计。最后,代码将统计结果保存到名为 `word_freq.txt` 的文件中。
在保存文件时,我们使用了 `most_common()` 方法来获取词频最高的单词。这个方法返回一个包含元组的列表,每个元组包含单词和对应的词频。我们使用 `f.write()` 函数将每个元组写入文件中。
python中文词频统计_Python中文词频统计
在Python中进行中文词频统计,可以使用jieba库来进行中文分词。以下是一个简单的示例:
```python
import jieba
# 读取文本文件
with open("text.txt", "r", encoding="utf-8") as f:
text = f.read()
# 使用jieba分词
words = jieba.cut(text)
# 统计词频
freq = {}
for word in words:
if word in freq:
freq[word] += 1
else:
freq[word] = 1
# 输出结果
for word, count in freq.items():
print(word, count)
```
其中,先使用`jieba.cut()`方法对文本进行分词,然后使用一个字典来统计每个词出现的次数。最后遍历字典,输出结果。需要注意的是,在使用jieba库前,需要先安装和下载其所需要的字典文件。
阅读全文