写一段python代码,使用jieba统计段落词性频率
时间: 2024-09-14 16:03:40 浏览: 38
Python3绘制词云,同时实现 文章分析,分词统计,文本检索,并制作词云
5星 · 资源好评率100%
当然,下面是一段简单的Python代码,使用jieba库来统计段落中每个词性的词频:
```python
import jieba.analyse
from collections import Counter
# 假设你有一个段落存储在变量`paragraph`中
paragraph = "这里是一个包含中文句子的示例,我们将使用jieba进行分词和词性标注。"
# 使用jieba进行分词
words = jieba.lcut(paragraph)
# 获取词性和词频
pos_freq = jieba.analyse.extract_tags(paragraph, topK=50) # 这里我们只取前50个最常见的词性
# 使用Counter计算词性频率
word_pos_freq = dict(Counter([word[1] for word in words if word[1]]))
# 打印词性频率
for pos, freq in word_pos_freq.items():
print(f"词性: {pos}, 频率: {freq}")
# 如果你想查看特定词性的词频
# 示例:查找名词(noun)的频率
noun_freq = word_pos_freq.get('n', 0)
print(f"名词(noun)的频率: {noun_freq}")
```
这段代码首先使用jieba切分句子,然后从中提取词性,并使用Counter统计词性出现的次数。注意,你需要先安装jieba库才能运行此代码,可以通过pip install jieba命令来安装。
阅读全文