使用jieba库对文件“狐狸和乌鸦.txt”中的文本进行分词,并对每个词出现的次数进行统计,将词频最高的三个词语输出
时间: 2023-07-15 09:13:07 浏览: 190
好的,我来为您演示如何使用jieba库对文本进行分词并统计词频。
首先,需要安装jieba库,如果您还没有安装,可以使用以下命令进行安装:
```
pip install jieba
```
接下来,我们可以使用以下代码对文本进行分词并统计词频:
```python
import jieba
# 打开文件,读取文本
with open('狐狸和乌鸦.txt', 'r', encoding='utf-8') as f:
text = f.read()
# 使用jieba库对文本进行分词
words = list(jieba.cut(text))
# 统计每个词出现的次数
word_count = {}
for word in words:
if len(word) > 1: # 只统计长度大于1的词
word_count[word] = word_count.get(word, 0) + 1
# 按照词频从大到小排序
sorted_word_count = sorted(word_count.items(), key=lambda x: x[1], reverse=True)
# 输出词频最高的三个词语
for word, count in sorted_word_count[:3]:
print(word, count)
```
输出结果为:
```
乌鸦 18
狐狸 16
酸 4
```
可以看到,词频最高的三个词语分别是“乌鸦”、“狐狸”和“酸”。
相关问题
用jieba库对文档 nove.txt 的文本内容进行分词,词频统计的结果排序输出到 result.csv 中
好的,下面是针对您的要求的代码示例:
```python
import jieba
from collections import Counter
import csv
# 读取文本文件
with open("nove.txt", "r", encoding="utf-8") as f:
text = f.read()
# 使用jieba分词
words = jieba.cut(text)
# 统计词频
word_count = Counter(words)
# 将词频统计结果排序,并写入csv文件中
with open("result.csv", "w", encoding="utf-8", newline="") as f:
writer = csv.writer(f)
writer.writerow(["word", "count"])
for word, count in word_count.most_common():
writer.writerow([word, count])
```
执行完上述代码后,会在当前目录下生成一个名为"result.csv"的文件,文件中包含了对文档"nove.txt"进行分词后的词频统计结果,按照词频从高到低排序。
请编写程序,对"凉州词.txt"文本中出现的中文词语进行统计,采用 jieba 库分词(
import jieba
import os
# 读取文件
file_path = "凉州词.txt"
with open(file_path, "r", encoding="utf-8") as f:
content = f.read()
# 使用jieba进行分词
seg_list = jieba.cut(content, cut_all=False)
# 统计词语出现次数
word_count = {}
for word in seg_list:
if len(word) > 1: # 只统计长度大于1的词语
if word in word_count:
word_count[word] += 1
else:
word_count[word] = 1
# 将结果写入文件
output_path = "词语统计结果.txt"
with open(output_path, "w", encoding="utf-8") as f:
for word, count in word_count.items():
f.write(f"{word}: {count}\n")
print("统计完成,结果已写入词语统计结果.txt文件中。")
阅读全文