python爬虫代码requests
时间: 2024-09-19 07:14:38 浏览: 47
`requests`是一个流行的Python库,用于发送HTTP请求,包括GET、POST等,并处理响应结果。它简化了网络数据抓取的过程,使得开发者能够方便地与Web服务器进行交互。
在Python爬虫中,`requests`的基本用法通常包括以下几个步骤:
1. **导入模块**:首先需要在你的脚本中导入`requests`模块,使用`import requests`。
```python
import requests
```
2. **发起请求**:创建一个`requests.get()`(对于GET请求)或`requests.post()`(对于POST请求)的对象,并传入目标URL作为参数。
```python
response = requests.get('https://example.com')
# 或者
data = {'key': 'value'}
response = requests.post('https://api.example.com', data=data)
```
3. **获取响应**:`response`对象包含了服务器的响应信息,如状态码、内容等。可以使用`.status_code`检查请求是否成功,`.text`或`.json()`获取响应的内容。
```python
if response.status_code == 200:
content = response.text
# 或者如果是JSON响应
json_content = response.json()
else:
print(f"请求失败: {response.status_code}")
```
4. **处理错误**:`requests`可能会抛出异常,例如网络连接问题或解析错误,你可以使用`try-except`结构捕获并处理这些异常。
```python
try:
response.raise_for_status() # 如果状态码不是200,会自动抛出异常
except requests.exceptions.RequestException as e:
print(f"请求出错: {e}")
```
阅读全文