使用jieba分词后统计每个词出现的次数
时间: 2023-12-19 19:05:49 浏览: 113
好的,我可以为您提供代码实现,您需要先安装jieba库。
```python
import jieba
# 读取文本数据
with open('text.txt', 'r', encoding='utf-8') as f:
text = f.read()
# 分词
words = jieba.cut(text)
# 统计词频
word_counts = {}
for word in words:
if len(word) > 1:
word_counts[word] = word_counts.get(word, 0) + 1
# 按词频排序
word_counts = sorted(word_counts.items(), key=lambda x: x[1], reverse=True)
# 输出结果
for word, count in word_counts:
print(word, count)
```
在上面的代码中,我们首先读取文本数据,然后使用jieba库进行中文分词。接着使用字典记录每个词出现的次数,最后按词频降序排列输出结果。您需要将代码中的'text.txt'替换成您的文本数据文件路径。
阅读全文