python对文本进行jieba分词并且设定固定值,生成高频词和词频数,最后生成词云图
时间: 2023-06-01 19:05:25 浏览: 126
基于Python实现对Word文档的文本分词,词频统计输出,以及绘制词云图.zip
5星 · 资源好评率100%
非常好的问题!可以使用Python中的jieba库来对文本进行分词,并使用collections库的Counter函数生成高频词和词频数,最后使用wordcloud库生成词云图。下面是一个示例代码,你可以根据需要对固定值和文件路径进行修改:
```python
import jieba
from collections import Counter
from wordcloud import WordCloud
# 分词
text = "这是需要分词的文本"
seg_list = jieba.cut(text)
# 设定固定值
fixed_words = ["这", "是", "需要", "分词", "的", "文本"]
# 生成高频词和词频数
counter = Counter([word for word in seg_list if word in fixed_words])
freq_dict = dict(counter)
# 生成词云图
wordcloud = WordCloud(width=800, height=800, background_color="white")
wordcloud.generate_from_frequencies(freq_dict)
wordcloud.to_file("wordcloud.png")
```
希望这个回答能够帮到你!如果你还有其他问题或者需要更详细的解释,请继续提问。
阅读全文