python利用jieba库分析文本,并利用wordcloud库生成词云的代码
时间: 2024-01-07 14:03:34 浏览: 75
您好,以下是利用jieba库分析文本并生成词云的Python代码:
```python
import jieba
from wordcloud import WordCloud
import matplotlib.pyplot as plt
# 读取文本文件
with open('text.txt', 'r', encoding='utf-8') as f:
text = f.read()
# 使用jieba库进行分词
words = jieba.cut(text)
# 过滤掉无用的词语
stop_words = ['的', '是', '在', '了', '和', '有', '不', '也', '将', '都', '与', '为', '等']
words = [word for word in words if word not in stop_words]
# 将分词结果转换为字符串
text = ' '.join(words)
# 创建WordCloud对象
wc = WordCloud(
background_color='white', # 设置背景色为白色
max_words=200, # 设置最多显示的词数
font_path='simhei.ttf', # 设置字体
max_font_size=100, # 设置最大的字号
random_state=42 # 设置随机状态,保证每次生成的结果相同
)
# 生成词云
wc.generate(text)
# 显示词云
plt.imshow(wc, interpolation='bilinear')
plt.axis('off')
plt.show()
```
希望以上代码能帮到您,如果还有其他问题请继续提问。
阅读全文