print(city_list[i],company_list[i],jobname_list[i],salary_list[i],worktime_list[i])将print中的内容存入文件
时间: 2023-12-09 07:07:06 浏览: 76
好的,可以通过文件操作将print输出的内容保存到文件中,这里使用Python的文件操作来实现。
```python
# 打开文件,如果文件不存在则会自动创建
with open('job_info.txt', 'w', encoding='utf-8') as f:
# 遍历每个职位信息,将信息写入文件
for i in range(len(city_list)):
job_info = f"{city_list[i]} | {company_list[i]} | {jobname_list[i]} | {salary_list[i]} | {worktime_list[i]}\n"
f.write(job_info)
print('数据已保存至job_info.txt文件中')
```
上述代码中,我们使用了`with open()`语句打开一个名为`job_info.txt`的文件,并指定了编码方式为`utf-8`。接着,我们遍历每个职位信息,将信息拼接成一个字符串并写入文件。在字符串中,我们使用了`|`来分隔不同的职位信息,使用`\n`来表示换行。最后,我们使用`print()`函数输出一条提示信息,告知用户数据已保存至文件中。
相关问题
生成一个爬取51job上含python职位信息的python爬虫代码带中文注释
以下是一个简单的爬取 51job 上含有 Python 职位信息的 Python 爬虫代码,带有中文注释:
```python
import requests
from bs4 import BeautifulSoup
# 定义爬虫函数
def get_jobs(keyword, city):
# 定义请求 URL,将关键词和城市参数拼接到 URL 上
url = f'https://search.51job.com/list/{city},000000,0000,00,9,99,{keyword},2,1.html'
# 发起 GET 请求
response = requests.get(url)
# 解析 HTML
soup = BeautifulSoup(response.text, 'html.parser')
# 找到包含职位信息的标签
job_list = soup.find_all('div', {'class': 'el'})
# 遍历标签列表,提取职位信息并打印
for job in job_list:
# 提取职位名称
job_name = job.find('a', {'class': 'jobname'}).text.strip()
# 提取公司名称
company_name = job.find('a', {'class': 'comname'}).text.strip()
# 提取工作地点
location = job.find('span', {'class': 't3'}).text.strip()
# 提取薪资
salary = job.find('span', {'class': 't4'}).text.strip()
# 打印职位信息
print(f'职位名称:{job_name}\n公司名称:{company_name}\n工作地点:{location}\n薪资:{salary}\n\n')
# 测试爬虫函数
get_jobs('python', '北京')
```
该爬虫函数通过调用 requests 库发送 GET 请求,使用 Beautiful Soup 进行 HTML 解析,并提取出包含职位信息的标签。然后遍历标签列表,提取出职位名称、公司名称、工作地点和薪资等信息并打印。
python爬取boss直聘全国python开发岗位
要爬取Boss直聘全国的Python开发岗位,你可以使用Python的爬虫库来实现。以下是一个简单的示例代码,可以帮助你开始:
```python
import requests
import json
def get_job_list():
url = 'https://www.zhipin.com/wapi/zpgeek/common/data/city.json'
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.182 Safari/537.36'
}
response = requests.get(url, headers=headers)
cities = json.loads(response.text)['zpData']['cityList']
for city in cities:
city_code = city['code']
city_name = city['name']
job_url = f'https://www.zhipin.com/wapi/zpgeek/job/list/job/query.json?city={city_code}&query=python&page=1&pageSize=10'
response = requests.get(job_url, headers=headers)
job_data = json.loads(response.text)['zpData']['data']['list']
for job in job_data:
job_name = job['jobName']
company_name = job['company']['name']
salary = job['salary']
print(f"城市:{city_name},公司:{company_name},职位:{job_name},薪资:{salary}")
get_job_list()
```
这段代码首先发送一个请求获取城市列表,然后遍历每个城市,发送请求获取该城市的Python开发岗位信息。最后,打印出每个岗位的城市、公司、职位和薪资信息。
请注意,这只是一个简单的示例代码,实际爬取过程中可能需要处理反爬机制、分页等问题。另外,爬取网站数据时请遵守网站的使用规则,不要频繁发送请求以免对网站造成负担。