如何用Python爬虫B站粉丝数前100的up主的ID,并保存到本地文件夹中
时间: 2024-03-17 12:46:43 浏览: 29
首先,我们需要用到 Python 的 requests 和 BeautifulSoup 库,来发送 HTTP 请求并解析 HTML 页面。然后,我们可以通过 B 站的 API 接口获取到粉丝数前 100 的 up 主的信息,包括他们的 UID 和昵称。最后,我们将这些 UID 保存到本地文件夹中。
以下是代码实现:
```python
import requests
from bs4 import BeautifulSoup
# 发送 HTTP 请求并解析 HTML 页面
url = 'https://www.bilibili.com/ranking/fans/1/0/100'
response = requests.get(url)
soup = BeautifulSoup(response.text, 'html.parser')
# 获取前 100 个 up 主的 UID 和昵称
uids = []
for item in soup.select('.rank-item'):
uid = item.select('.info a')[0]['href'].split('/')[-1]
name = item.select('.info a')[0].text
uids.append(uid)
print(uid, name)
# 将 UID 保存到本地文件夹中
with open('uids.txt', 'w') as f:
for uid in uids:
f.write(uid + '\n')
```
运行以上代码后,将会在当前目录下生成一个名为 `uids.txt` 的文件,其中包含了粉丝数前 100 的 up 主的 UID。
相关推荐
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)