使用requests库爬取https://www.xynu.edu.cn/
时间: 2023-08-10 14:02:28 浏览: 59
好的,以下是使用requests库爬取https://www.xynu.edu.cn/的示例代码:
```python
import requests
url = 'https://www.xynu.edu.cn/'
response = requests.get(url)
if response.status_code == 200:
print(response.text)
else:
print('请求失败')
```
这段代码会发送一个GET请求到https://www.xynu.edu.cn/,并将响应内容打印出来。如果请求成功,响应状态码会是200,否则就会输出"请求失败"。你可以根据自己的需要对这段代码进行修改和扩展。
相关问题
使用requests库爬取https://www.xytc.edu.cn/
好的,以下是Python代码示例:
```python
import requests
# 设置请求头
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'}
# 设置目标URL
url = 'https://www.xytc.edu.cn/'
# 发送请求
response = requests.get(url, headers=headers, verify=False)
# 输出结果
print(response.text)
```
这段代码使用requests库发送了一个HTTP GET请求,请求的URL是信阳师范学院的主页,设置了一个User-Agent的请求头,以模拟浏览器发送请求。由于该网站使用了HTTPS协议,因此需要设置verify参数为False,以忽略SSL证书验证。接着,获取响应内容,最后输出响应的HTML文本。
python爬虫爬取https://www.zut.edu.cn/
可以使用 Python 的 requests 库和 BeautifulSoup 库来实现爬取 https://www.zut.edu.cn/ 网站的内容。
以下是一个简单的示例代码:
```python
import requests
from bs4 import BeautifulSoup
url = 'https://www.zut.edu.cn/'
response = requests.get(url)
soup = BeautifulSoup(response.content, 'html.parser')
# 获取网页标题
title = soup.title.string
print('网页标题:', title)
# 获取新闻列表
news_list = soup.select('.index_news a')
for news in news_list:
print(news.text.strip(), news['href'])
```
该代码会输出网页标题和新闻列表。你可以根据自己的需求修改代码。注意,爬虫应该遵守网站的 robots.txt 文件,并且不要频繁访问同一个网站,以免给网站带来负担。