用Python写一段爬虫代码
时间: 2023-08-31 09:39:46 浏览: 120
### 回答1:
下面是一段简单的Python爬虫代码:import requests
from bs4 import BeautifulSoupurl = 'https://www.example.com'
response = requests.get(url)
soup = BeautifulSoup(response.text, 'html.parser')
links = soup.find_all('a')for link in links:
print(link.get('href'))
### 回答2:
爬虫是一种自动获取互联网上数据的技术,Python是一种广泛应用于爬虫开发的编程语言。下面是一段用Python编写的基本爬虫代码:
```python
import requests
from bs4 import BeautifulSoup
# 设置请求头,模拟浏览器发送请求
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'
}
# 发送HTTP请求,获取网页内容
def get_html(url):
response = requests.get(url, headers=headers)
if response.status_code == 200:
return response.text
else:
return None
# 解析网页内容,提取所需信息
def parse_html(html):
soup = BeautifulSoup(html, 'html.parser')
# 假设需要提取网页中的所有链接
links = soup.find_all('a')
for link in links:
print(link['href'])
# 主函数,用于控制程序流程
def main():
url = 'https://example.com' # 网络爬取目标的URL
html = get_html(url)
if html:
parse_html(html)
else:
print('Failed to get HTML.')
if __name__ == '__main__':
main()
```
以上代码中,我们首先导入了所需的requests和BeautifulSoup库,然后设置请求头,模拟浏览器的请求。接着定义了 `get_html()` 函数,用于发送HTTP请求,获取网页内容。再定义了 `parse_html()` 函数,用于解析网页内容,提取所需的信息,这里假设需要提取网页中的所有链接。最后定义了 `main()` 函数,用于控制程序流程,首先调用 `get_html()` 获取网页内容,然后调用 `parse_html()` 解析网页内容,提取链接信息并输出。如果获取网页内容失败,则在控制台输出失败提示。最后,在程序最后一行使用 `__name__ == '__main__'` 来判断是否为主程序,并调用 `main()` 函数启动程序。
需要注意的是,以上代码中只是一个简单示例,实际的爬虫代码会更加复杂,需要根据不同的需求进行设计和调整。还需要考虑反爬机制、数据存储和处理、访问频率等因素,以保证爬虫的稳定性和合法性。
阅读全文