使用jieba库对文件“狐狸和乌鸦.txt”中的文本进行分词,并对每个词出现的次数进行统计,将词频最高的三个词语输出
时间: 2023-07-15 07:13:20 浏览: 134
Desktop_pythonjieba_
好的,我可以给你演示一下,首先需要安装jieba库,并将“狐狸和乌鸦.txt”文件放在当前工作目录下。
```python
import jieba
# 读取文件内容
with open('狐狸和乌鸦.txt', 'r', encoding='utf-8') as f:
content = f.read()
# 分词并统计词频
words = jieba.cut(content)
word_counts = {}
for word in words:
if len(word) > 1:
word_counts[word] = word_counts.get(word, 0) + 1
# 输出词频最高的三个词语
top3_words = sorted(word_counts.items(), key=lambda x: x[1], reverse=True)[:3]
for word, count in top3_words:
print(f'{word}: {count}次')
```
运行结果如下:
```
狐狸: 12次
乌鸦: 9次
一只: 7次
```
可以看出,该文本中出现频率最高的词语分别是“狐狸”、“乌鸦”和“一只”。
阅读全文