jieba分词后词频统计
时间: 2023-11-10 13:05:27 浏览: 85
由于jieba分词是一个中文分词工具,因此以下是中文文本的词频统计示例:
假设有以下中文文本:
```
我爱中国,中国也爱我。
```
首先,使用jieba分词将文本分词:
```python
import jieba
text = "我爱中国,中国也爱我。"
words = jieba.lcut(text)
print(words)
```
输出结果:
```
['我', '爱', '中国', ',', '中国', '也', '爱', '我', '。']
```
接着,统计每个词出现的频率:
```python
from collections import Counter
word_counts = Counter(words)
print(word_counts)
```
输出结果:
```
Counter({'我': 2, '爱': 2, '中国': 2, ',': 1, '也': 1, '。': 1})
```
其中,Counter是Python内置的一个计数器工具,可以方便地统计每个元素出现的次数。
阅读全文