优化一下这个代码,添加使用 find_elements_by_xpath 方法查找页面中所有 class 为 data 的 div 元素下的 href 属性为 span元素,将这个元素的文本内容存储到 list_text 列表中,并将列表打印出来。:xlSpider = Blueprint('xlSpider', name) url = 'https://s.weibo.com/top/summary?Refer=top_hot&topnav=1&wvr=6' # 将ChromeDriver的路径添加到系统环境变量中 executable_path = 'E:\chromedriver_win32\chromedriver.exe' browser = webdriver.Chrome(executable_path=executable_path) # 访问目标页面并等待页面加载完成 browser.get(url) time.sleep(5) # 等待页面加载完成,时间可以根据实际情况调整 # tweet = browser.find_elements_by_xpath("//div[@class='data']//a[@href]") # browser.find_elements(by=By.XPATH) tweet = browser.find_elements(By.XPATH, "//div[@class='data']//a[@href]") list_text = [element.text for element in tweet] print(list_text)
时间: 2023-06-19 15:07:06 浏览: 62
下面是优化后的代码,使用了 `find_elements_by_xpath` 方法查找页面中所有 class 为 data 的 div 元素下的 href 属性为 span 元素,并将这个元素的文本内容存储到 `list_text` 列表中,最后将列表打印出来:
```python
from selenium.webdriver.common.by import By
xlSpider = Blueprint('xlSpider', name)
url = 'https://s.weibo.com/top/summary?Refer=top_hot&topnav=1&wvr=6'
# 将 ChromeDriver 的路径添加到系统环境变量中
executable_path = 'E:\chromedriver_win32\chromedriver.exe'
browser = webdriver.Chrome(executable_path=executable_path)
# 访问目标页面并等待页面加载完成
browser.get(url)
time.sleep(5) # 等待页面加载完成,时间可以根据实际情况调整
# 使用 find_elements_by_xpath 方法查找页面中所有 class 为 data 的 div 元素下的 href 属性为 span 元素
tweets = browser.find_elements_by_xpath("//div[@class='data']//a[@href]/span")
# 将元素的文本内容存储到 list_text 列表中
list_text = [tweet.text for tweet in tweets]
# 打印列表
print(list_text)
```