利用Python中文分词组件Jieba实现中文分词 利用Python中文分词组件Pynlpir实现中文分词 利用Python中文分词组件Pyhanlp实现中文分词 利用Python中文分词组件Pyltp实现中文分词
时间: 2024-02-09 20:04:35 浏览: 226
python使用jieba实现中文分词去停用词方法示例
利用Python中文分词组件Jieba实现中文分词的方法如下:
```python
import jieba
# 精确模式分词
seg_list = jieba.cut("我来到北京清华大学", cut_all=False)
print("精确模式分词结果:", "/".join(seg_list))
# 全模式分词
seg_list = jieba.cut("我来到北京清华大学", cut_all=True)
print("全模式分词结果:", "/".join(seg_list))
# 搜索引擎模式分词
seg_list = jieba.cut_for_search("小明硕士毕业于中国科学院计算所,后在日本京都大学深造")
print("搜索引擎模式分词结果:", "/".join(seg_list))
```
输出结果如下:
```
精确模式分词结果: 我/来到/北京/清华大学
全模式分词结果: 我/来到/北京/清华/清华大学/华大/大学
搜索引擎模式分词结果: 小明/硕士/毕业/于/中国/科学/学院/科学院/中国科学院/计算/计算所/,/后/在/日本/京都/大学/日本京都大学/深造
```
阅读全文