用Python编写一个程序,实现对一篇中文文章进行分词和统计结果用词云图展示
时间: 2024-01-24 14:17:37 浏览: 26
好的,我可以帮你实现这个任务。首先,我们需要安装一些必要的库,包括jieba、wordcloud和matplotlib。你可以在命令行中输入以下命令来安装它们:
```
pip install jieba wordcloud matplotlib
```
安装完成之后,我们可以开始编写代码。以下是一个简单的程序,可以对一篇中文文章进行分词和生成词云图:
```python
import jieba
from wordcloud import WordCloud
import matplotlib.pyplot as plt
# 读取文章内容
with open('article.txt', 'r', encoding='utf-8') as f:
text = f.read()
# 分词处理
words = jieba.cut(text)
word_list = [word for word in words if len(word) > 1]
# 统计词频
word_count = {}
for word in word_list:
if word in word_count:
word_count[word] += 1
else:
word_count[word] = 1
# 生成词云图
wc = WordCloud(background_color='white', width=800, height=600, font_path='msyh.ttc')
wc.generate_from_frequencies(word_count)
plt.imshow(wc, interpolation="bilinear")
plt.axis("off")
plt.show()
```
代码中使用了jieba库对文章进行分词处理,并使用wordcloud库生成词云图。需要注意的是,为了能够正常显示中文字符,我们需要指定字体文件路径(这里使用的是微软雅黑字体)。
另外,我们需要准备一篇中文文章,并将其保存在article.txt文件中。然后,我们就可以运行程序,生成词云图了。
希望这个程序能够对你有帮助!