python jieba使用方法
时间: 2023-09-04 08:13:27 浏览: 53
要使用 jieba 库进行中文分词,首先需要安装它。可以通过以下命令使用 pip 安装 jieba:
```
pip install jieba
```
安装完成后,就可以在 Python 脚本中导入并使用 jieba 库了。下面是一些常见的 jieba 使用方法示例:
1. 基本分词:
```python
import jieba
text = "我爱自然语言处理"
words = jieba.cut(text)
for word in words:
print(word)
```
这段代码将会输出分词结果:
```
我
爱
自然
语言
处理
```
2. 加载自定义词典:
```python
import jieba
jieba.load_userdict("custom_dict.txt")
text = "我爱自然语言处理"
words = jieba.cut(text)
for word in words:
print(word)
```
在上面的代码中,我们使用 `load_userdict()` 方法加载了一个自定义的词典文件 `custom_dict.txt`,其中包含了我们希望分词时使用的特定词汇。
3. 获取关键词:
```python
import jieba.analyse
text = "我爱自然语言处理"
keywords = jieba.analyse.extract_tags(text, topK=5)
print(keywords)
```
这段代码使用 `jieba.analyse.extract_tags()` 方法从文本中提取出频率较高的关键词。在上面的例子中,我们提取了频率最高的 5 个关键词。
这些是 jieba 库的一些基本使用方法。你可以根据具体的需求和场景进一步探索 jieba 库的其他功能和参数。希望对你有所帮助!如果还有其他问题,请随时提问。