对文档内容:s = ['文本 分词 工具 可 用于 对 文本 进行 分词 处理', '常见 的 用于 处理 文本 的 分词 处理 工具 有 很多'],进行“分词、处理”这两个关键词的词频统计并计算“分词、处理”的词频矩阵,python代码怎么写
时间: 2023-03-30 09:04:48 浏览: 115
您好,根据您的问题,我可以回答。
以下是Python代码,用于对给定文本进行分词和处理,并计算“分词”和“处理”这两个关键词的词频统计和词频矩阵:
```python
import jieba
from collections import Counter
# 给定文本
s = ['文本 分词 工具 可 用于 对 文本 进行 分词 处理', '常见 的 用于 处理 文本 的 分词 处理 工具 有 很多']
# 分词
words_list = []
for sentence in s:
words = jieba.cut(sentence)
words_list.extend(words)
# 统计词频
word_count = Counter(words_list)
# 计算“分词”和“处理”的词频
fen_ci_count = word_count['分词']
chu_li_count = word_count['处理']
# 计算“分词”和“处理”的词频矩阵
matrix = [[, ], [, ]]
for i in range(len(s)):
if '分词' in s[i]:
matrix[i][] = word_count['分词']
if '处理' in s[i]:
matrix[i][1] = word_count['处理']
print('“分词”和“处理”的词频统计:')
print('分词:', fen_ci_count)
print('处理:', chu_li_count)
print('“分词”和“处理”的词频矩阵:')
print(matrix)
```
希望能够帮助您!
阅读全文