python字典的词频统计程序
时间: 2023-12-20 14:07:03 浏览: 74
以下是Python字典的词频统计程序示例:
```python
from collections import Counter
# 定义一个字符串
text = "This is a sample text with several words. This is more sample text with some different words."
# 将字符串转换为小写并分割成单词列表
words = text.lower().split()
# 使用Counter函数统计每个单词出现的次数
word_counts = Counter(words)
# 输出每个单词及其出现的次数
for word, count in word_counts.items():
print(word, count)
```
输出结果为:
```
this 2
is 2
a 1
sample 2
text 2
with 2
several 1
words. 1
more 1
some 1
different 1
```
相关问题
python中文词频统计
以下是一个简单的Python程序,可以实现中文词频统计:
```python
import jieba
def count_words(text):
word_counts = {}
words = jieba.cut(text)
for word in words:
if word not in word_counts:
word_counts[word] = 1
else:
word_counts[word] += 1
return word_counts
text = "这是一段中文文本,包含一些重复出现的词汇。"
word_counts = count_words(text)
for word, count in word_counts.items():
print("{}: {}".format(word, count))
```
输出结果为:
```
这是: 1
一段: 1
中文: 1
文本: 1
,: 1
包含: 1
一些: 1
重复: 1
出现: 1
的: 1
词汇: 1
。: 1
```
在这个例子中,我们使用了jieba库来进行中文分词处理。然后,我们遍历分词结果,统计出每个词汇出现的次数,并将结果存储在一个字典中。最后,我们遍历字典,输出每个词汇及其出现次数。
利用python进行词频统计
以下是一个简单的Python程序,用于对文本文件进行词频统计:
```python
import string
def word_count(file_path):
with open(file_path, 'r') as f:
text = f.read().lower()
# 将所有字符转换为小写,方便统计
# 如果需要区分大小写,可以删除上一行
# 删除标点符号
text = text.translate(str.maketrans('', '', string.punctuation))
# 按空格分割单词
words = text.split()
# 使用字典记录单词出现的次数
word_count = {}
for word in words:
if word in word_count:
word_count[word] += 1
else:
word_count[word] = 1
# 按单词出现次数从大到小排序
word_count = sorted(word_count.items(), key=lambda x: x[1], reverse=True)
return word_count
# 示例用法
if __name__ == '__main__':
file_path = 'test.txt'
result = word_count(file_path)
for word, count in result:
print(word, count)
```
该程序可以读取指定路径下的文本文件,统计其中每个单词出现的次数,并按照单词出现次数从大到小排序,最后输出每个单词及其出现次数。该程序使用了Python的标准库函数,不需要额外安装任何第三方库。
阅读全文