python代码 设计一个程序,读出“三国演义.txt”文件中的三国演义全文,将常见人名进行去重后生成词云,并列出词频最高的10-20个词,并形成词云比如人物头像,三国地图
时间: 2023-08-07 14:04:35 浏览: 890
首先,需要安装一些必要的Python库:jieba、wordcloud和matplotlib。
```
pip install jieba wordcloud matplotlib
```
然后,可以按以下步骤进行程序设计:
1. 读取“三国演义.txt”文件中的全文内容。
2. 使用jieba分词对全文进行分词。
3. 对分词结果中的人名进行去重。
4. 统计每个人名出现的次数,并按照次数从高到低排序,取前10-20个。
5. 将结果生成词云并展示。
下面是完整的代码实现:
```python
import jieba
from collections import Counter
from wordcloud import WordCloud, ImageColorGenerator
import matplotlib.pyplot as plt
from PIL import Image
import numpy as np
# 读取文件内容
with open("三国演义.txt", "r", encoding="utf-8") as f:
text = f.read()
# 分词
words = jieba.cut(text)
# 去重
names = set()
with open("names.txt", "r", encoding="utf-8") as f:
for name in f:
name = name.strip()
if name:
names.add(name)
name_count = Counter()
for word in words:
if word in names:
name_count[word] += 1
# 排序取前10-20个
top_n = 20
name_count = name_count.most_common(top_n)
# 生成词云
mask = np.array(Image.open("map.png"))
wc = WordCloud(font_path="msyh.ttc", background_color="white", mask=mask)
wc.generate_from_frequencies(dict(name_count))
image_colors = ImageColorGenerator(mask)
plt.imshow(wc.recolor(color_func=image_colors), interpolation="bilinear")
plt.axis("off")
plt.show()
```
其中,names.txt文件是一个包含常见人名的文本文件,每行一个人名。
map.png是一张三国地图的图片,用来生成词云形状。
运行程序后,会生成一个展示词云的窗口,同时在命令行输出词频最高的10-20个人名及其出现次数。