利用jieba对txt中文分词
时间: 2023-11-17 18:03:12 浏览: 75
首先,需要安装jieba库。可以通过以下命令进行安装:
```
pip install jieba
```
接下来,可以使用以下代码对中文文本进行分词:
```python
import jieba
# 读取文本
with open('text.txt', 'r', encoding='utf-8') as f:
text = f.read()
# 中文分词
words = jieba.cut(text)
# 输出分词结果
print('/'.join(words))
```
其中,`jieba.cut()`函数返回一个可迭代的生成器,可以通过`join()`函数将分词结果连接成字符串进行输出。
阅读全文