python中文文本分析例子
时间: 2023-08-04 22:07:15 浏览: 257
下面是一个简单的Python中文文本分析的例子,它可以对一段中文文本进行分词、词频统计和可视化:
```python
import jieba
from collections import Counter
import matplotlib.pyplot as plt
# 读取文本文件
with open('text.txt', 'r', encoding='utf-8') as f:
text = f.read()
# 分词
words = jieba.cut(text)
# 统计词频
word_counts = Counter(words)
# 取出前10个出现频率最高的词
top_words = word_counts.most_common(10)
# 输出前10个出现频率最高的词
for word, count in top_words:
print(word, count)
# 生成词频柱状图
x = [word for word, count in top_words]
y = [count for word, count in top_words]
plt.bar(x, y)
plt.show()
```
在这个例子中,我们使用了jieba分词库来对中文文本进行分词,然后使用collections库的Counter类来统计词频。最后,我们使用matplotlib库生成了一个词频柱状图来直观展示分析结果。你可以将`text.txt`替换为你自己的文本文件来进行分析。
相关问题
python文本分析例子
以下是一个简单的Python文本分析的例子,用于计算一段文本中每个单词出现的频率:
```python
text = "This is a sample text for text analysis. Sample text is good for analysis."
# 将文本转换成小写,去除标点符号
text = text.lower()
text = text.translate(str.maketrans('', '', string.punctuation))
# 将文本分割成单词列表
words = text.split()
# 计算单词频率
word_freq = {}
for word in words:
if word in word_freq:
word_freq[word] += 1
else:
word_freq[word] = 1
# 输出结果
for word, freq in word_freq.items():
print(f"{word}: {freq}")
```
输出结果为:
```
this: 1
is: 2
a: 1
sample: 2
text: 2
for: 1
analysis: 2
good: 1
```
python 实现文本分析 源代码
当然可以,文本分析是Python的一大利器。以下是一个简单的例子,用来统计一篇文章中每个单词出现的次数:
```
text = "this is a sample text with several words and words repeated several times"
# 把所有单词变成小写并分割成列表
words = text.lower().split()
# 统计每个单词出现的次数
word_count = {}
for word in words:
if word in word_count:
word_count[word] += 1
else:
word_count[word] = 1
# 输出结果
for word, count in word_count.items():
print(word, count)
```
这个例子中,我们先把文章中的所有单词变成小写并分割成一个单词列表,然后遍历这个列表,用一个字典统计每个单词出现的次数。最后输出每个单词和它出现的次数即可。
阅读全文