Python爬虫伪装一个浏览器的代码
时间: 2024-09-09 11:08:46 浏览: 41
Python反爬虫伪装浏览器进行爬虫
5星 · 资源好评率100%
在Python中,可以使用`requests`库和`headers`来模拟一个浏览器进行网络爬虫操作。以下是一个简单的示例代码,展示了如何使用Python发送请求,并通过设置User-Agent来伪装成浏览器:
```python
import requests
# 设置伪装的浏览器头部信息
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'}
# 目标网址
url = 'http://www.example.com/'
# 发送请求
response = requests.get(url, headers=headers)
# 检查请求是否成功
if response.status_code == 200:
print(response.text)
else:
print('请求失败,状态码:', response.status_code)
```
在这段代码中,`requests.get`函数用于发送GET请求到指定的URL。`headers`字典中包含了一个User-Agent字段,该字段的值是一个常见的浏览器标识字符串,用于模拟请求是来自该浏览器的。服务器会根据这些头部信息来判断请求是否来自一个正常的浏览器。
需要注意的是,伪装成浏览器只是避免了一些基本的反爬虫检测,并不能保证爬虫一定能够绕过所有的反爬机制。一些网站可能会进行更复杂的检测,例如检查请求的频率、JavaScript执行结果、Cookie处理等。
阅读全文