#对读取到的文本内容进行分词 txt_list = jieba.lcut(txt) #将分词列表转成字符串,分隔符为空格 string = ''.join(txt_list) #词云图设置 wc = wordcloud.WordCloud( width=1000, height=700, background_color='white', font_path='mysh.ttc', #词云图中的文字字体 mask=py, #所使用的的词云图片 scale=15, stopwords={'的', '了'} #停用词,即不希望出现在词云图中的词 ) #给词云输入文字 wc.generate(string)报错Only supported for TrueType fonts怎么修改
时间: 2024-02-16 18:03:14 浏览: 158
这个错误是因为你使用了一个不支持的字体文件。你需要将字体文件路径改为一个支持的 TrueType 字体文件。例如,你可以使用 Windows 系统自带的 "simhei.ttf" 字体,将字体文件路径改为 "C:/Windows/Fonts/simhei.ttf"。修改的代码如下:
```python
#对读取到的文本内容进行分词
txt_list = jieba.lcut(txt)
#将分词列表转成字符串,分隔符为空格
string = ''.join(txt_list)
#词云图设置
wc = wordcloud.WordCloud(
width=1000,
height=700,
background_color='white',
font_path='C:/Windows/Fonts/simhei.ttf', #改为一个支持的 TrueType 字体文件
mask=py, #所使用的的词云图片
scale=15,
stopwords={'的', '了'} #停用词,即不希望出现在词云图中的词
)
#给词云输入文字
wc.generate(string)
```
相关问题
import matplotlib.pyplot as plt import jieba import wordcloud py = plt.imread('E:/shixun/girl.jpg') #读取预先准备的词云形状图片 f = open('E:/shixun/text.txt', encoding='utf-8') #打开预先准备的词云图文本文件 txt = f.read() #读取图文本文件中的内容#对读取到的文本内容进行分词 txt_list = jieba.lcut(txt) #将分词列表转成字符串,分隔符为空格 string = ''.join(txt_list) #词云图设置 wc = wordcloud.WordCloud( width=1000, height=700, background_color='white', font_path='mysh.ttc', #词云图中的文字字体 mask=py, #所使用的的词云图片 scale=15, stopwords={'的', '了'} #停用词,即不希望出现在词云图中的词 ) #给词云输入文字 wc.generate(string)报错Only supported for TrueType fonts怎么修改
这个错误是因为你使用了一个不支持的字体文件。你需要将字体文件路径改为一个支持的 TrueType 字体文件。例如,你可以使用 Windows 系统自带的 "simhei.ttf" 字体,将字体文件路径改为 "C:/Windows/Fonts/simhei.ttf"。修改的代码如下:
```python
import matplotlib.pyplot as plt
import jieba
import wordcloud
py = plt.imread('E:/shixun/girl.jpg') #读取预先准备的词云形状图片
f = open('E:/shixun/text.txt', encoding='utf-8') #打开预先准备的词云图文本文件
txt = f.read() #读取图文本文件中的内容
#对读取到的文本内容进行分词
txt_list = jieba.lcut(txt)
#将分词列表转成字符串,分隔符为空格
string = ''.join(txt_list)
#词云图设置
wc = wordcloud.WordCloud(
width=1000,
height=700,
background_color='white',
font_path='C:/Windows/Fonts/simhei.ttf', #改为一个支持的 TrueType 字体文件
mask=py, #所使用的的词云图片
scale=15,
stopwords={'的', '了'} #停用词,即不希望出现在词云图中的词
)
#给词云输入文字
wc.generate(string)
```
mport jieba import jieba.posseg as pseg from utils.dbutils import * from question_answer.获取天气情况 import * import re from utils.user_base import * jieba.enable_paddle() def get_loc_list(text): per_list = [] # 人名列表 word_list = jieba.lcut(text) # print(word_list) for word in word_list: if len(word)==1: # 不加判断会爆 continue words = pseg.cut(word, use_paddle=True) # paddle模式 # print(list(words)) word, flag = list(words)[0] if flag=='LOC': # 这里写成LOC是地名 per_list.append(word) per_list = list(set(per_list)) print(per_list) if len(per_list)==0: per_list.append(word_list[0]) return per_list
这段代码是一个函数,用于从文本中提取出地名列表。它使用了jieba库对文本进行分词,并使用了PaddlePaddle深度学习库来进行词性标注。具体来说,它首先将文本进行分词,然后对每个词进行词性标注,最后将词性为“LOC”的词(即地名)加入到一个列表中。如果没有找到地名,则默认使用文本的第一个词作为地名。
阅读全文