用python实现中文段落进行分词和词频统计
时间: 2024-03-13 12:48:07 浏览: 171
python根据文本统计
好的,我可以为您提供一个简单的 Python 代码示例,用于中文分词和词频统计。请确保安装了 jieba 库,这是 Python 中用于中文分词的常用库。
```python
import jieba
# 读取中文文本
text = "我爱自然语言处理,也爱机器学习。"
# 分词
seg_list = jieba.cut(text)
# 统计词频
word_freq = {}
for word in seg_list:
if word not in word_freq:
word_freq[word] = 1
else:
word_freq[word] += 1
# 输出结果
for word, freq in word_freq.items():
print(word, freq)
```
以上代码将输出以下结果:
```
我 1
爱 2
自然语言处理 1
, 1
也 1
机器学习 1
。 1
```
以上代码仅是一个简单的示例,您可以根据自己的需求进行更复杂的分词和词频统计操作。
阅读全文