http://admission.scut.edu.cn/30821/list.html
时间: 2023-08-14 16:06:42 浏览: 117
802.1d-1998/2003和802.1q.pdf
好的,我已经了解了您的需求,以下是我为您编写的爬虫程序,可以爬取该页面的所有年份、省份、类别、科类名称、专业名称、最高分、最低分、平均分数据:
```python
import requests
from bs4 import BeautifulSoup
url = 'http://admission.scut.edu.cn/30821/list.html'
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'}
response = requests.get(url, headers=headers)
soup = BeautifulSoup(response.text, 'html.parser')
# 获取表格中的数据
table = soup.find('table', class_='ArticleTable')
tbody = table.find('tbody')
rows = tbody.find_all('tr')
# 遍历每一行数据,并将数据存储到列表中
data_list = []
for row in rows:
cols = row.find_all('td')
row_data = []
for col in cols:
row_data.append(col.get_text().strip())
data_list.append(row_data)
# 打印每一行数据
for data in data_list:
print(data)
```
运行程序后,将会输出该页面的所有年份、省份、类别、科类名称、专业名称、最高分、最低分、平均分数据。
阅读全文