python爬取智联招聘网_python爬取智联招聘数据分析师工作岗位信息
时间: 2023-09-27 08:04:08 浏览: 284
好的,以下是一个示例代码,用于爬取智联招聘网站上的数据分析师工作岗位信息:
```python
import requests
from bs4 import BeautifulSoup
url = 'https://fe-api.zhaopin.com/c/i/sou?start=0&pageSize=60&cityId=489&industry=10100&salary=0,0&workExperience=-1&education=-1&companyType=-1&employmentType=-1&jobWelfareTag=-1&kw=数据分析师&kt=3&_v=0.97530866&x-zp-page-request-id=8d3f7b1e6c9a4c8e9dc8a2a6bb605d4e-1626243117597-609241'
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36 Edge/16.16299'
}
response = requests.get(url, headers=headers)
soup = BeautifulSoup(response.content, 'html.parser')
job_list = soup.find_all('div', {'class': 'job-list'})
for job in job_list:
job_name = job.find('a', {'target': '_blank', 'data-jid': True}).text.strip()
job_salary = job.find('span', {'class': 'salary'}).text.strip()
job_company = job.find('a', {'class': 'company-name'}).text.strip()
job_location = job.find('span', {'class': 'job-area'}).text.strip()
job_experience = job.find('span', {'class': 'job-exp'}).text.strip()
print(job_name, job_salary, job_company, job_location, job_experience)
```
在这个示例代码中,我们设置了筛选条件,只爬取了数据分析师工作岗位的信息。同时,我们使用了 requests 库向智联招聘网站发送了一个 HTTP 请求,并设置了请求头部信息,以避免被网站识别为爬虫。然后,我们使用 BeautifulSoup 库解析了页面内容,并从中提取出了工作岗位信息。
您可以根据自己的需求修改代码中的参数和条件,以获得您需要的工作岗位信息。注意,爬取网站信息时要遵守相关法律法规和网站规定,不要过度频繁地请求网站,以免对网站造成影响。
阅读全文