tokens = [token for token in tokens if ((token not in stopwords) and len(token) > 1)] return tokens #当地址是根路径时,就调用下面的函数 @app.route('/') def index(): df = pd.read_csv("./球鞋.csv", encoding='gbk', header=None) # 数据清洗 df.columns = ["评论内容", 'user'] df.drop_duplicates(subset="评论内容", inplace=True) df.dropna(inplace=True) # 创建一个空的语料库列表 corpus = [] for text in df['评论内容'].values: # 预处理函数 preprocess_text() 的实现未知 tokens = preprocess_text(text) corpus.append(tokens) # 绘制词云图 dict_ = pd.DataFrame(_flatten(corpus)).value_counts().to_dict() dict_ = {i[0]: dict_[i] for i in dict_} data=[{"name":i,"value":dict_[i]} for i in dict_] print(data) return render_template("index.html",data=data) #启动web服务器 if __name__ == '__main__': app.run()
时间: 2023-06-25 21:04:51 浏览: 108
DecodeIdToken:通过JWT解码ID TOKEN
这段代码是一个使用 Flask 框架搭建的 web 服务器,读取了一个名为 "球鞋.csv" 的文件,进行数据清洗并生成词云图展示在网页上。具体步骤如下:
1. 使用 pandas 库读取 csv 文件,并给列名命名为 "评论内容" 和 "user"。
2. 对 "评论内容" 列进行去重和去空值操作。
3. 定义了一个预处理函数 preprocess_text(),用于对每个评论内容进行分词、去停用词等操作,返回一个 token 列表。
4. 遍历 "评论内容" 列,对每个评论内容调用 preprocess_text() 函数,将处理后的 token 列表添加到 corpus 列表中。
5. 对 corpus 列表进行扁平化处理,并使用 pandas 库的 value_counts() 函数统计每个词出现的次数,返回一个词频字典。
6. 将词频字典转换成一个格式为 [{"name":i,"value":dict_[i]}] 的列表,用于在网页上展示词云图。
7. 在网页上渲染 index.html 模板,并将词云图数据传递给模板。
8. 启动 web 服务器,监听客户端请求。
阅读全文