jieba.analysis 词云图
时间: 2023-10-31 07:02:39 浏览: 84
要生成词云图,需要先进行文本分词,可以使用 jieba.analysis 进行中文分词。下面是一个简单的示例代码:
```python
import jieba.analyse
from wordcloud import WordCloud
import matplotlib.pyplot as plt
# 读取文本内容
with open('sample.txt', 'r', encoding='utf-8') as f:
content = f.read()
# 提取关键词
keywords = jieba.analyse.extract_tags(content, topK=100, withWeight=True)
# 生成词云图
wc = WordCloud(font_path='msyh.ttc', width=800, height=600, background_color='white')
wc.generate_from_frequencies(dict(keywords))
# 显示词云图
plt.imshow(wc, interpolation='bilinear')
plt.axis('off')
plt.show()
```
其中,`jieba.analyse.extract_tags()` 函数用于提取文本的关键词,`topK` 参数指定提取的关键词数量,`withWeight` 参数指定是否返回关键词的权重值。`WordCloud()` 类用于生成词云对象,`font_path` 参数指定词云图中文本所使用的字体文件路径,`width` 和 `height` 参数指定词云图的大小,`background_color` 参数指定词云图的背景颜色。`generate_from_frequencies()` 方法用于根据关键词及其权重值生成词云图。
上述代码需要准备一个文本文件 `sample.txt`,包含要生成词云图的文本内容。代码执行后,会生成一个词云图并显示在窗口中。可以根据需要调整参数以及词云图的外观样式。
阅读全文