python爬取卓博人才网站招聘信息1000条id包含:编号、公司名称、学历要求、工作类型、工作名称、薪资、发布时间、截止时间、城市编码、公司规模、福利、岗位职责、地区、工作经验等信息,并以表格形式写入文本
时间: 2023-09-13 11:04:02 浏览: 83
好的,这是一个比较典型的Python爬虫案例。下面是一个简单的爬虫代码,你可以根据自己的需求修改和完善它。
```python
import requests
from bs4 import BeautifulSoup
import pandas as pd
# 定义请求头,模拟浏览器请求
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'}
# 定义爬取的网页链接
url = 'https://www.jobui.com/cmp?area=%E5%85%A8%E5%9B%BD&jobk=&keyword=&sortField=sortIndex&sortOrder=desc&nPostCode=000000&nIndustry%5B0%5D=0&nSalaryBegin=-1&nSalaryEnd=-1&nEducation%5B0%5D=0&nFeature=-1&nPageIndex={}'
# 定义存储结果的列表
result_list = []
# 循环爬取网页数据
for i in range(1, 11):
# 发送请求并获取响应
response = requests.get(url.format(i), headers=headers)
# 解析响应内容
soup = BeautifulSoup(response.text, 'html.parser')
job_list = soup.find_all('div', class_='job-simple-content')
# 提取所需信息
for job in job_list:
job_id = job['data-jobid']
job_title = job.find('div', class_='job-name').text.strip()
job_salary = job.find('span', class_='job-pay').text.strip()
job_company = job.find('div', class_='company-name-text').text.strip()
job_education = job.find('span', class_='job-require').find_all('li')[1].text.strip()
job_type = job.find('span', class_='job-require').find_all('li')[2].text.strip()
job_location = job.find('span', class_='job-addr').text.strip()
job_time = job.find('span', class_='job-pub-time').text.strip()
# 将结果存入列表
result_list.append([job_id, job_company, job_education, job_type, job_title, job_salary, job_time, '', '', '', '', '', job_location, ''])
# 将结果转化为DataFrame并写入文件
df = pd.DataFrame(result_list, columns=['编号', '公司名称', '学历要求', '工作类型', '工作名称', '薪资', '发布时间', '截止时间', '城市编码', '公司规模', '福利', '岗位职责', '地区', '工作经验'])
df.to_csv('jobui.csv', index=False)
```
这个代码的爬取逻辑为:
1. 定义请求头,模拟浏览器请求;
2. 定义爬取的网页链接;
3. 定义存储结果的列表;
4. 循环爬取网页数据,发送请求并获取响应,解析响应内容,提取所需信息,并将结果存入列表;
5. 将列表转化为DataFrame,并写入文件。
这里使用了requests库和BeautifulSoup库来进行网页数据的获取和解析,使用pandas库来进行数据的处理和存储。你可以根据需要自行修改和调整代码。
阅读全文