flaskuser_info = session.get('user_info')显示use_info中的信息
时间: 2024-05-16 08:16:32 浏览: 117
`session.get('user_info')` 会从会话(session)中获取名为 'user_info' 的值,并将其返回。如果 'user_info' 不存在于会话中,则返回 None。因此,如果您的 `flaskuser_info` 变量包含了 `session.get('user_info')` 的返回值,那么它将会是一个包含用户信息的对象(例如字典),或者是 None。
要查看 `flaskuser_info` 中的信息,您可以使用类似以下的代码:
```python
flaskuser_info = session.get('user_info')
if flaskuser_info:
print(flaskuser_info) # 或者使用其他方法显示信息
else:
print("没有找到用户信息")
```
这段代码首先获取 `session` 中名为 'user_info' 的值,然后检查它是否存在。如果存在,则打印信息;否则,打印一条消息表明找不到用户信息。
相关问题
user_info = session.get('user_info')显示use_info中的信息
这段代码是从 session 中获取名为 user_info 的数据,并将其存储在变量 user_info 中。如果 user_info 存在,那么可以通过访问 user_info 的属性或字典键来访问其中的数据。例如,如果 user_info 包含一个名为 "name" 的键和对应的值为 "John",那么可以通过 user_info['name'] 或 user_info.name 来访问该值。如果 user_info 不存在,那么尝试访问其属性或字典键将会导致 KeyError 或 AttributeError 异常。
import re import json import time import requests import datetime import pymysql import selenium from bs4 import BeautifulSoup from selenium import webdriver from selenium.webdriver.support.ui import WebDriverWait from sqlalchemy import create_engine, Column, Integer, String, Text, DateTime from sqlalchemy.orm import sessionmaker from sqlalchemy.ext.declarative import declarative_base from selenium.webdriver import Edge, EdgeOptions # 创建浏览器对象 options = EdgeOptions() options.use_chromium = True options.binary_location = r'C:\Users\邓枫林\PycharmProjects\pythonProject\edgedriver_win64\msedgedriver.exe' browser = Edge(options=options) wait = WebDriverWait(browser, 10) # 打开微博话题页面 url = 'https://weibo.com/n/%E4%B8%AD%E5%9B%BD%E9%A3%9F%E5%93%81%E5%8D%AB%E7%94%9F?from=feed&loc=at&nick=%E4%B8%AD%E5%9B%BD%E9%A3%9F%E5%93%81%E5%8D%AB%E7%94%9F&order=hot' browser.get(url) # 等待页面加载完成 wait.until(lambda driver: driver.execute_script("return document.readyState") == "complete") browser = selenium.webdriver.Edge(executable_path='C:/Users/邓枫林/PycharmProjects/pythonProject/edgedriver_win64/msedgedriver.exe') wait = selenium.webdriver.support.ui.WebDriverWait(browser, 10) # 监测页面是否包含“高校类”敏感词汇 if '高校类' in browser.page_source: # 获取原始微博 weibo = browser.find_element_by_css_selector('.WB_feed_detail .WB_text.W_f14').text # 获取转发该微博的用户昵称和转发内容 reposts = [] repost_items = browser.find_elements_by_css_selector('.list_ul .list_li') for item in repost_items: nickname = item.find_element_by_css_selector('.WB_text.W_f14').text content = item.find_element_by_css_selector('.WB_text.W_f14 + .comment_txt').text reposts.append({'nickname': nickname, 'content': content}) # 关闭浏览器 browser.quit() # 将微博和转发内容存入MySQL数据库中 Base = declarative_base() class Weibo(Base): __tablename__ = 'weibo_user' id = Column(Integer, primary_key=True) content = Column(Text) create_time = Column(DateTime) class Repost(Base): __tablename__ = 'weibo_repost' id = Column(Integer, primary_key=True) weibo_id = Column(Integer) nickname = Column(String(50)) content = Column(Text) engine = create_engine('mysql+pymysql://root:root@hostname:port/weibo?charset=utf8mb4') Session = sessionmaker(bind=engine) session = Session() now = datetime.datetime.now() weibo_obj = Weibo(content=weibo, create_time=now) session.add(weibo_obj) session.commit() for repost in reposts: repost_obj = Repost(weibo_id=weibo_obj.id, nickname=repost['nickname'], content=repost['content']) session.add(repost_obj) session.commit() session.close() else: # 关闭浏览器 browser.quit()
这是一个使用 Selenium 和 Python 进行微博爬虫的代码,通过打开指定的微博话题页面,判断页面是否包含“高校类”敏感词汇,如果包含敏感词汇,则获取原始微博和转发该微博的用户昵称和转发内容,并将这些信息存入 MySQL 数据库中。如果不包含敏感词汇,则直接关闭浏览器。在使用代码前,需要安装相关的 Python 库以及浏览器驱动程序,并且要将代码中的数据库连接信息修改为自己的信息。需要注意的是,爬虫行为需要遵守相关法律法规和网站的规定,不得用于非法用途。
阅读全文