jieba分词结果统计功能
时间: 2023-12-11 16:12:26 浏览: 129
python使用jieba进行分词统计
5星 · 资源好评率100%
好的,如果您想要使用jieba分词库对文本进行分词并统计结果,可以按照以下步骤进行:
1. 安装jieba分词库:可以使用pip命令进行安装,命令为:`pip install jieba`
2. 导入jieba分词库:在Python代码中,可以使用`import jieba`语句导入jieba分词库。
3. 对文本进行分词:使用`jieba.cut()`函数对文本进行分词,将返回一个生成器对象,可以使用for循环遍历分词结果。
4. 统计分词结果:可以使用Python的collections模块中的Counter类对分词结果进行统计,生成一个字典对象,键为分词结果,值为出现次数。
以下是一个简单的示例代码:
```python
import jieba
from collections import Counter
text = "今天天气真好,我们一起去公园玩吧!"
# 对文本进行分词
seg_list = jieba.cut(text)
# 统计分词结果
word_counts = Counter(seg_list)
# 输出统计结果
print(word_counts)
```
输出结果为:
```
Counter({',': 1, '今天天气': 1, '真好': 1, '我们': 1, '一起': 1, '去': 1, '公园': 1, '玩': 1, '吧': 1, '!': 1})
```
可以看到,统计结果是一个字典对象,键为分词结果,值为出现次数。
阅读全文