print(city_list[i],company_list[i],jobname_list[i],salary_list[i],worktime_list[i])将print中的内容存入文件
时间: 2023-12-09 12:07:06 浏览: 93
好的,可以通过文件操作将print输出的内容保存到文件中,这里使用Python的文件操作来实现。
```python
# 打开文件,如果文件不存在则会自动创建
with open('job_info.txt', 'w', encoding='utf-8') as f:
# 遍历每个职位信息,将信息写入文件
for i in range(len(city_list)):
job_info = f"{city_list[i]} | {company_list[i]} | {jobname_list[i]} | {salary_list[i]} | {worktime_list[i]}\n"
f.write(job_info)
print('数据已保存至job_info.txt文件中')
```
上述代码中,我们使用了`with open()`语句打开一个名为`job_info.txt`的文件,并指定了编码方式为`utf-8`。接着,我们遍历每个职位信息,将信息拼接成一个字符串并写入文件。在字符串中,我们使用了`|`来分隔不同的职位信息,使用`\n`来表示换行。最后,我们使用`print()`函数输出一条提示信息,告知用户数据已保存至文件中。
相关问题
生成一个爬取51job上含python职位信息的python爬虫代码带中文注释
以下是一个简单的爬取 51job 上含有 Python 职位信息的 Python 爬虫代码,带有中文注释:
```python
import requests
from bs4 import BeautifulSoup
# 定义爬虫函数
def get_jobs(keyword, city):
# 定义请求 URL,将关键词和城市参数拼接到 URL 上
url = f'https://search.51job.com/list/{city},000000,0000,00,9,99,{keyword},2,1.html'
# 发起 GET 请求
response = requests.get(url)
# 解析 HTML
soup = BeautifulSoup(response.text, 'html.parser')
# 找到包含职位信息的标签
job_list = soup.find_all('div', {'class': 'el'})
# 遍历标签列表,提取职位信息并打印
for job in job_list:
# 提取职位名称
job_name = job.find('a', {'class': 'jobname'}).text.strip()
# 提取公司名称
company_name = job.find('a', {'class': 'comname'}).text.strip()
# 提取工作地点
location = job.find('span', {'class': 't3'}).text.strip()
# 提取薪资
salary = job.find('span', {'class': 't4'}).text.strip()
# 打印职位信息
print(f'职位名称:{job_name}\n公司名称:{company_name}\n工作地点:{location}\n薪资:{salary}\n\n')
# 测试爬虫函数
get_jobs('python', '北京')
```
该爬虫函数通过调用 requests 库发送 GET 请求,使用 Beautiful Soup 进行 HTML 解析,并提取出包含职位信息的标签。然后遍历标签列表,提取出职位名称、公司名称、工作地点和薪资等信息并打印。
阅读全文