用python的selenium获取这个https://www.11467.com/shenzhen/co/92284.htm网站的公司简介
时间: 2023-05-20 15:05:46 浏览: 60
可以使用以下代码获取该网站的公司简介:
```python
from selenium import webdriver
# 创建浏览器对象
browser = webdriver.Chrome()
# 打开网页
browser.get('https://www.11467.com/shenzhen/co/92284.htm')
# 获取公司简介
company_intro = browser.find_element_by_xpath('//div[@class="compIntro"]/p').text
# 输出公司简介
print(company_intro)
# 关闭浏览器
browser.quit()
```
相关问题
pychram用selenium爬取https://fangjia.gotohui.com/房价信息保存为house.csv
好的,首先需要安装selenium和chromedriver。可以通过以下命令在命令行中安装:
```
pip install selenium
```
然后下载对应版本的chromedriver,下载地址:https://sites.google.com/a/chromium.org/chromedriver/downloads
将下载的chromedriver.exe文件放在你的Python环境变量中的Scripts目录下。
接下来就可以使用以下代码来爬取https://fangjia.gotohui.com/网站的房价信息,保存为house.csv文件:
```python
from selenium import webdriver
import csv
# 设置Chrome浏览器驱动的路径
driver_path = r"C:\Users\Administrator\AppData\Local\Programs\Python\Python38-32\Scripts\chromedriver.exe"
# 创建Chrome浏览器驱动
driver = webdriver.Chrome(driver_path)
# 打开网页
driver.get("https://fangjia.gotohui.com/")
# 获取表格数据
table = driver.find_element_by_xpath('//table[@class="table table-bordered table-hover"]')
rows = table.find_elements_by_xpath('.//tr')
# 保存数据到CSV文件
with open('house.csv', mode='w', newline='') as file:
writer = csv.writer(file)
for row in rows:
cols = row.find_elements_by_xpath('.//td')
row_data = []
for col in cols:
row_data.append(col.text)
writer.writerow(row_data)
# 关闭浏览器
driver.quit()
```
运行上述代码,将会在当前路径下生成一个名为house.csv的文件,里面包含了网站上的房价信息。
用python写登录https://account.aliyun.com/login/login.htm后跳转到一个页面下载文件
这个需要用到web自动化和requests库。
首先,使用selenium库打开登录页面,并手动输入账号密码进行登录。
```python
from selenium import webdriver
driver = webdriver.Chrome()
driver.get("https://account.aliyun.com/login/login.htm")
# 手动输入账号密码并点击登录按钮
# ...
```
登录成功后,我们可以使用requests库来模拟访问下载页面并保存文件。
```python
import requests
# 获取登录后的cookies
cookies = driver.get_cookies()
cookies_dict = {}
for cookie in cookies:
cookies_dict[cookie['name']] = cookie['value']
# 设置请求头
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.150 Safari/537.36',
'Referer': 'https://account.aliyun.com/login/login.htm',
}
# 访问下载页面并保存文件
url = 'https://xxxxxx.aliyun.com/download.htm'
response = requests.get(url, headers=headers, cookies=cookies_dict)
with open('file.zip', 'wb') as f:
f.write(response.content)
```
需要注意的是,下载页面的URL需要替换成实际的URL,并且请求头和cookies需要根据实际情况进行设置。