jieba库文本分析
时间: 2023-11-22 13:49:15 浏览: 71
基于python gensim 库的LDA算法 对中文进行文本分析,需要安装jieba分词进行分词+源代码+文档说明
jieba库是一个中文文本分析的Python库,可以用于中文分词、词性标注、关键词提取等任务。下面是一些使用jieba库进行文本分析的例子:
1.中文分词
```python
import jieba
text = "我爱自然语言处理"
seg_list = jieba.cut(text, cut_all=False)
print(" ".join(seg_list)) # 输出:我 爱 自然语言 处理
```
2.词性标注
```python
import jieba.posseg as pseg
text = "我爱自然语言处理"
words = pseg.cut(text)
for word, flag in words:
print(word, flag)
# 输出:
# 我 r
# 爱 v
# 自然语言 l
# 处理 v
```
3.关键词提取
```python
import jieba.analyse
text = "我爱自然语言处理"
keywords = jieba.analyse.extract_tags(text, topK=2)
print(keywords) # 输出:['自然语言', '处理']
```
阅读全文