设计一个程序,读出“三国演义.txt”文件中的三国演义全文,将常见人名进行去重后生成词云,并列出词频最高的10-20个词,并形成词云(可以有不同的形状)。
时间: 2023-04-20 07:03:59 浏览: 173
这个程序可以分为以下几个步骤:
1. 读取“三国演义.txt”文件中的全文,将其存储为一个字符串。
2. 使用正则表达式或其他方法,从全文中提取出所有的人名,并将其存储为一个列表。
3. 对人名列表进行去重,得到一个只包含常见人名的列表。
4. 统计每个人名在全文中出现的次数,得到一个人名词频字典。
5. 对人名词频字典按照词频从高到低排序,选取前10-20个词。
6. 将选取的词和其对应的词频生成词云,并将其保存为图片。
7. 可以使用不同的形状来生成词云,比如人物头像、三国地图等。
这个程序可以使用Python编写,需要用到一些第三方库,比如jieba、wordcloud、matplotlib等。
相关问题
python代码 设计一个程序,读出“三国演义.txt”文件中的三国演义全文,将常见人名进行去重后生成词云,并列出词频最高的10-20个词,并形成词云比如人物头像,三国地图
首先,需要安装一些必要的Python库:jieba、wordcloud和matplotlib。
```
pip install jieba wordcloud matplotlib
```
然后,可以按以下步骤进行程序设计:
1. 读取“三国演义.txt”文件中的全文内容。
2. 使用jieba分词对全文进行分词。
3. 对分词结果中的人名进行去重。
4. 统计每个人名出现的次数,并按照次数从高到低排序,取前10-20个。
5. 将结果生成词云并展示。
下面是完整的代码实现:
```python
import jieba
from collections import Counter
from wordcloud import WordCloud, ImageColorGenerator
import matplotlib.pyplot as plt
from PIL import Image
import numpy as np
# 读取文件内容
with open("三国演义.txt", "r", encoding="utf-8") as f:
text = f.read()
# 分词
words = jieba.cut(text)
# 去重
names = set()
with open("names.txt", "r", encoding="utf-8") as f:
for name in f:
name = name.strip()
if name:
names.add(name)
name_count = Counter()
for word in words:
if word in names:
name_count[word] += 1
# 排序取前10-20个
top_n = 20
name_count = name_count.most_common(top_n)
# 生成词云
mask = np.array(Image.open("map.png"))
wc = WordCloud(font_path="msyh.ttc", background_color="white", mask=mask)
wc.generate_from_frequencies(dict(name_count))
image_colors = ImageColorGenerator(mask)
plt.imshow(wc.recolor(color_func=image_colors), interpolation="bilinear")
plt.axis("off")
plt.show()
```
其中,names.txt文件是一个包含常见人名的文本文件,每行一个人名。
map.png是一张三国地图的图片,用来生成词云形状。
运行程序后,会生成一个展示词云的窗口,同时在命令行输出词频最高的10-20个人名及其出现次数。
用Python设计一个程序,读出“三国演义.txt”文件中的三国演义全文,将常见人名进行去重后生成词云,并列出词频最高的10-20个词,并形成词云(可以有不同的形状)。
好的,您可以使用Python的第三方库jieba和wordcloud来实现这个程序。以下是示例代码:
```python
import jieba
from wordcloud import WordCloud
import matplotlib.pyplot as plt
# 读取文件
with open('三国演义.txt', 'r', encoding='utf-8') as f:
text = f.read()
# 分词
words = jieba.lcut(text)
# 去除停用词和单个字
stopwords = [',', '。', '了', '的', '是', '在', '和', '他', '她', '它', '他们', '她们', '它们']
names = []
for word in words:
if len(word) > 1 and word not in stopwords:
names.append(word)
# 去重
names = list(set(names))
# 统计词频
freq = {}
for name in names:
freq[name] = words.count(name)
# 排序
freq_sorted = sorted(freq.items(), key=lambda x:x[1], reverse=True)
# 打印词频最高的前20个词
for item in freq_sorted[:20]:
print(item)
# 生成词云
wc = WordCloud(background_color='white', max_words=200, font_path='msyh.ttc', width=1200, height=800, mask=plt.imread('mask.png'))
wc.generate_from_frequencies(freq)
plt.imshow(wc)
plt.axis('off')
plt.show()
```
其中,'三国演义.txt'是要读取的文件名,'msyh.ttc'是字体文件名,'mask.png'是词云形状的图片文件名。您需要将这三个文件放在同一目录下。
运行程序后,它将会输出词频最高的前20个词,并显示生成的词云图。您可以根据需要修改代码中的参数,如词云的最大词数、字体、宽高等。