#对读取到的文本内容进行分词 txt_list = jieba.lcut(txt) #将分词列表转成字符串,分隔符为空格 string = ''.join(txt_list) #词云图设置 wc = wordcloud.WordCloud( width=1000, height=700, background_color='white', font_path='mysh.ttc', #词云图中的文字字体 mask=py, #所使用的的词云图片 scale=15, stopwords={'的', '了'} #停用词,即不希望出现在词云图中的词 ) #给词云输入文字 wc.generate(string)报错Only supported for TrueType fonts怎么修改
时间: 2024-02-16 18:03:14 浏览: 27
这个错误是因为你使用了一个不支持的字体文件。你需要将字体文件路径改为一个支持的 TrueType 字体文件。例如,你可以使用 Windows 系统自带的 "simhei.ttf" 字体,将字体文件路径改为 "C:/Windows/Fonts/simhei.ttf"。修改的代码如下:
```python
#对读取到的文本内容进行分词
txt_list = jieba.lcut(txt)
#将分词列表转成字符串,分隔符为空格
string = ''.join(txt_list)
#词云图设置
wc = wordcloud.WordCloud(
width=1000,
height=700,
background_color='white',
font_path='C:/Windows/Fonts/simhei.ttf', #改为一个支持的 TrueType 字体文件
mask=py, #所使用的的词云图片
scale=15,
stopwords={'的', '了'} #停用词,即不希望出现在词云图中的词
)
#给词云输入文字
wc.generate(string)
```
相关问题
import matplotlib.pyplot as plt import jieba import wordcloud py = plt.imread('E:/shixun/girl.jpg') #读取预先准备的词云形状图片 f = open('E:/shixun/text.txt', encoding='utf-8') #打开预先准备的词云图文本文件 txt = f.read() #读取图文本文件中的内容#对读取到的文本内容进行分词 txt_list = jieba.lcut(txt) #将分词列表转成字符串,分隔符为空格 string = ''.join(txt_list) #词云图设置 wc = wordcloud.WordCloud( width=1000, height=700, background_color='white', font_path='mysh.ttc', #词云图中的文字字体 mask=py, #所使用的的词云图片 scale=15, stopwords={'的', '了'} #停用词,即不希望出现在词云图中的词 ) #给词云输入文字 wc.generate(string)报错Only supported for TrueType fonts怎么修改
这个错误是因为你使用了一个不支持的字体文件。你需要将字体文件路径改为一个支持的 TrueType 字体文件。例如,你可以使用 Windows 系统自带的 "simhei.ttf" 字体,将字体文件路径改为 "C:/Windows/Fonts/simhei.ttf"。修改的代码如下:
```python
import matplotlib.pyplot as plt
import jieba
import wordcloud
py = plt.imread('E:/shixun/girl.jpg') #读取预先准备的词云形状图片
f = open('E:/shixun/text.txt', encoding='utf-8') #打开预先准备的词云图文本文件
txt = f.read() #读取图文本文件中的内容
#对读取到的文本内容进行分词
txt_list = jieba.lcut(txt)
#将分词列表转成字符串,分隔符为空格
string = ''.join(txt_list)
#词云图设置
wc = wordcloud.WordCloud(
width=1000,
height=700,
background_color='white',
font_path='C:/Windows/Fonts/simhei.ttf', #改为一个支持的 TrueType 字体文件
mask=py, #所使用的的词云图片
scale=15,
stopwords={'的', '了'} #停用词,即不希望出现在词云图中的词
)
#给词云输入文字
wc.generate(string)
```
with open('filtered_dataset1.csv', 'r', encoding='utf-8') as csvfile: reader = csv.reader(csvfile) for row in reader: col1_words = jieba.lcut(row[1]) # 输出分词结果 print(col1_words) 怎么保存成csv
在你的代码中,每次对一行文本进行分词后,可以将分词结果保存到一个列表中,然后将这个列表加入到一个新的二维列表中,最后使用csv库将二维列表写入csv文件。
以下是示例代码:
```python
import csv
import jieba
# 读取原始csv文件
with open('filtered_dataset1.csv', 'r', encoding='utf-8') as csvfile:
reader = csv.reader(csvfile)
# 创建空列表,用于保存分词结果
word_list = []
for row in reader:
# 对每一行文本进行分词
col1_words = jieba.lcut(row[1])
# 将分词结果加入到列表中
word_list.append(col1_words)
# 将二维列表写入新的csv文件
with open('filtered_dataset1_wordseg.csv', 'w', encoding='utf-8', newline='') as csvfile:
writer = csv.writer(csvfile)
writer.writerows(word_list)
```
运行以上代码后,当前目录下会生成一个名为'filtered_dataset1_wordseg.csv'的文件,其中包含分词后的文本。