请编写程序,对"凉州词.txt"文本中出现的中文词语进行统计,采用 jieba 库分词(系统限制,本题直接给出分词结果),词语与出现次数之间用冒号:分隔,打印输出词频统计结果。参考格式如下(注意,不统计任何标点符号):。
时间: 2023-06-18 18:04:07 浏览: 242
好的,下面是使用 jieba 库对"凉州词.txt"文本中出现的中文词语进行统计的代码:
```python
import jieba
# 打开文件,读取文本内容
with open("凉州词.txt", "r", encoding="utf-8") as f:
text = f.read()
# 使用 jieba 进行分词
words = jieba.lcut(text)
# 统计词频
word_freq = {}
for word in words:
if len(word) > 1: # 只统计长度大于1的词语
if word in word_freq:
word_freq[word] += 1
else:
word_freq[word] = 1
# 打印输出词频统计结果
for word, freq in word_freq.items():
print(word + ":" + str(freq))
```
执行以上代码后,会输出词频统计结果,类似于下面的格式:
```
凉州:5
黄河:3
峡:2
烽:2
```
相关问题
请编写程序,对"凉州词.txt"文本中出现的中文词语进行统计,采用 jieba 库分词(
import jieba
import os
# 读取文件
file_path = "凉州词.txt"
with open(file_path, "r", encoding="utf-8") as f:
content = f.read()
# 使用jieba进行分词
seg_list = jieba.cut(content, cut_all=False)
# 统计词语出现次数
word_count = {}
for word in seg_list:
if len(word) > 1: # 只统计长度大于1的词语
if word in word_count:
word_count[word] += 1
else:
word_count[word] = 1
# 将结果写入文件
output_path = "词语统计结果.txt"
with open(output_path, "w", encoding="utf-8") as f:
for word, count in word_count.items():
f.write(f"{word}: {count}\n")
print("统计完成,结果已写入词语统计结果.txt文件中。")
请编写程序,对《天龙八部》文本中的中文词语进行统计,采用jieba库分词,词语出现次数之间用冒号:分割,词与词之间用逗号分隔输出保存到“天龙八部-词语统计.txt”文件中。参考格式如下(注意,不统计空格和换行符):python
好的,我理解了你的问题,以下是代码实现:
```python
import jieba
# 打开《天龙八部》文本
with open('天龙八部.txt', 'r', encoding='utf-8') as f:
text = f.read()
# 使用jieba库进行分词
words = jieba.lcut(text)
# 统计词频
word_count = {}
for word in words:
if word not in [' ', '\n']:
if word in word_count:
word_count[word] += 1
else:
word_count[word] = 1
# 将结果写入文件
with open('天龙八部-词语统计.txt', 'w', encoding='utf-8') as f:
for key, value in word_count.items():
f.write(key + ':' + str(value) + ',')
```
在运行此代码之前,需要确保已经安装jieba库,并且当前目录下有《天龙八部》文本文件。
该程序通过打开《天龙八部》文本文件,使用jieba库对文本进行分词,并统计每个词语出现的次数。最后将结果写入文件“天龙八部-词语统计.txt”中。
输出结果的格式为:“词语:出现次数,”,每个词语之间用逗号分隔。
阅读全文