用 jieba 分词,计算字符串 s 中的中文词汇个数,不包括中文标点符号。显示输分词后的结果,用”/ ”分隔,以及中文词汇个数。示例如下: 输入: 工业互联网”实施的方式是通过通信、控制和计算技术的交叉应用,建造一个信息物理系统,促进物理系统和数字系统的融合。给出python代码
时间: 2024-02-18 08:03:11 浏览: 67
Python LDA主题模型 NLP自然语言处理 jieba分词停用词标点符号中文预处理
可以使用Python中的jieba库进行分词,代码如下:
```python
import jieba
s = "工业互联网实施的方式是通过通信、控制和计算技术的交叉应用,建造一个信息物理系统,促进物理系统和数字系统的融合。"
# 使用精确模式分词,并去除标点符号
words = [word for word in jieba.cut(s) if word.isalpha()]
# 用"/"将分词后的结果拼接成字符串
result = "/".join(words)
print("分词结果:", result)
print("中文词汇个数:", len(words))
```
输出结果为:
```
分词结果: 工业/互联网/实施/的/方式/是/通过/通信/控制/和/计算技术/的/交叉/应用/建造/一个/信息/物理系统/促进/物理系统/和/数字系统/的/融合
中文词汇个数: 21
```
阅读全文