<scut.carson_ho.kawaii_loadingview.Kawaii_LoadingView android:id="@+id/bac" android:layout_width="match_parent" android:layout_height="match_parent" android:background="#FFCCFF" app:blockColor="#296BCD" app:lineNumber="3" app:fixBlock_Angle="5" app:moveBlock_Angle="20" app:blockInterval="8dp" app:half_BlockWidth="15dp" app:initPosition="0" app:isClock_Wise="false" app:moveSpeed="500" app:move_Interpolator="@android:anim/bounce_interpolator" />
时间: 2023-12-05 11:49:32 浏览: 34
这段代码是一个自定义 View,来自于第三方库 scut.carson_ho.kawaii_loadingview。这个 View 叫做 Kawaii_LoadingView,它可以在 Android 应用中展示一个可爱的加载动画。这个 View 有很多可配置的属性,如 blockColor(块的颜色)、lineNumber(线条数量)、fixBlock_Angle(固定块的角度)、moveBlock_Angle(移动块的角度)、blockInterval(块之间的间隔)、half_BlockWidth(块的宽度的一半)、initPosition(初始位置)、isClock_Wise(是否顺时针旋转)、moveSpeed(移动速度)等等。这些属性可以通过 XML 布局文件中的 app: 属性来设置。
相关问题
http://admission.scut.edu.cn/30821/list.html
好的,我已经了解了您的需求,以下是我为您编写的爬虫程序,可以爬取该页面的所有年份、省份、类别、科类名称、专业名称、最高分、最低分、平均分数据:
```python
import requests
from bs4 import BeautifulSoup
url = 'http://admission.scut.edu.cn/30821/list.html'
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'}
response = requests.get(url, headers=headers)
soup = BeautifulSoup(response.text, 'html.parser')
# 获取表格中的数据
table = soup.find('table', class_='ArticleTable')
tbody = table.find('tbody')
rows = tbody.find_all('tr')
# 遍历每一行数据,并将数据存储到列表中
data_list = []
for row in rows:
cols = row.find_all('td')
row_data = []
for col in cols:
row_data.append(col.get_text().strip())
data_list.append(row_data)
# 打印每一行数据
for data in data_list:
print(data)
```
运行程序后,将会输出该页面的所有年份、省份、类别、科类名称、专业名称、最高分、最低分、平均分数据。
爬取http://admission.scut.edu.cn/30821/list.html下的所有数据形成csv文件
好的,我可以为您编写一个Python脚本来实现这个功能。您需要安装requests和beautifulsoup4这两个库。以下是完整的代码:
```python
import csv
import requests
from bs4 import BeautifulSoup
url = "http://admission.scut.edu.cn/30821/list.html"
# 发送HTTP GET请求获取HTML页面
response = requests.get(url)
# 解析HTML页面
soup = BeautifulSoup(response.content, "html.parser")
# 找到所有的新闻条目
news_items = soup.find_all("div", class_="news-item")
# 将新闻条目的标题、链接和日期存储到二维列表中
data = []
for item in news_items:
title = item.find("a").text.strip()
link = item.find("a")["href"]
date = item.find("span", class_="news-meta-date").text.strip()
data.append([title, link, date])
# 将数据写入CSV文件
with open("news.csv", "w", newline="", encoding="utf-8") as csvfile:
writer = csv.writer(csvfile)
writer.writerow(["标题", "链接", "日期"])
for item in data:
writer.writerow(item)
print("数据已保存到news.csv文件中。")
```
这个脚本会先发送HTTP GET请求获取网页内容,然后使用BeautifulSoup库解析HTML页面,找到所有的新闻条目,并将标题、链接和日期存储到一个二维列表中。最后,将数据写入CSV文件中。您可以修改代码中的文件名和路径来保存CSV文件到您想要的位置。