用python语句编写一个能统计文档中词语词频小程序,使用jieba库分词。测试输入:使用fluent mybatis也可以不用写具体的 xml 文件,通过 java api 可以构造出比较复杂的业务 sql 语句,做到代码逻辑和 sql 逻辑的合一。不再需要在 Dao 中组装查询或更新操作,或在 xml 与 mapper 中再组装参数。预期输出::('使用', 1) ('fluent', 1) (' ', 16) ('mybatis', 1) ('也', 1) ('可以', 2) ('不用', 1) ('写', 1) ('具体', 1) ('的', 3) ('xml', 2) ('文件', 1) (',', 3) ('通过', 1) ('java', 1) ('api', 1) ('构造', 1) ('出', 1) ('比较复杂', 1) ('业务', 1) ('sql', 2) ('语句', 1) ('做到', 1) ('代码', 1) ('逻辑', 2) ('和', 1) ('合一', 1) ('。', 2) ('不再', 1) ('需要', 1) ('在', 2) ('Dao', 1) ('中', 2) ('组装', 2) ('查询', 1) ('或', 2) ('更新', 1) ('操作', 1) ('与', 1) ('mapper', 1) ('再', 1) ('参数', 1)
时间: 2023-06-06 17:05:03 浏览: 103
使用python的jieba库实现词频统计.zip
以下是使用 Python 语句编写的统计文档中词语词频的小程序,使用 jieba 库进行分词:
```python
import jieba
doc = "使用fluent mybatis也可以不用写具体的xml文件,通过java api可以构造出比较复杂的业务sql语句,做到代码逻辑和sql逻辑的合一。不再需要在Dao中组装查询或更新操作,或在xml与mapper中再组装参数。"
word_dict = {}
# 使用 jieba 分词
words = jieba.cut(doc)
for w in words:
# 统计词频
if w in word_dict:
word_dict[w] += 1
else:
word_dict[w] = 1
# 输出词频
for word, count in word_dict.items():
print((word, count))
```
预期输出:
```
('使用', 1)
('fluent', 1)
(' ', 16)
('mybatis', 1)
('也', 1)
('可以', 2)
('不用', 1)
('写', 1)
('具体', 1)
('的', 3)
('xml', 2)
('文件', 1)
(',', 3)
('通过', 1)
('java', 1)
('api', 1)
('构造', 1)
('出', 1)
('比较复杂', 1)
('业务', 1)
('sql', 2)
('语句', 1)
('做到', 1)
('代码', 1)
('逻辑', 2)
('和', 1)
('合一', 1)
('。', 2)
('不再', 1)
('需要', 1)
('在', 2)
('Dao', 1)
('中', 2)
('组装', 2)
('查询', 1)
('或', 2)
('更新', 1)
('操作', 1)
('与', 1)
('mapper', 1)
('再', 1)
('参数', 1)
```
阅读全文