根据如下的情况,写出获取百度,微博,知乎热点标题,后保存到hot.txt,每30分钟自动执行一次获取保存过程:接口地址: http://api.bossdoit.com/api/hotnews 返回格式: JSON 请求方式: GET 请求示例: http://api.bossdoit.com/api/hotnews?type=zhihu 请求参数说明: 名称 必填 类型 说明 type 是 string 热点类型:zhihu为知乎热榜API,weibo为微博热搜API,baidu为百度热点API
时间: 2023-06-26 13:09:09 浏览: 248
以下是Python的代码实现:
```python
import requests
import json
import time
while True:
types = ["zhihu", "weibo", "baidu"]
for t in types:
url = "http://api.bossdoit.com/api/hotnews?type=" + t
response = requests.get(url)
data = json.loads(response.text)
hot_titles = [d['title'] for d in data]
with open('hot.txt', 'a', encoding='utf-8') as f:
f.write(f"{t}热点标题:\n")
for title in hot_titles:
f.write(f"{title}\n")
f.write("\n")
time.sleep(1800) # 每30分钟执行一次
```
代码解释:
1. 导入所需的库:requests用于发送HTTP请求,json用于解析JSON格式的数据,time用于延时执行。
2. 设置一个死循环,不断获取并保存热点标题。
3. 定义热点类型列表。
4. 遍历每个热点类型,发送GET请求获取数据。
5. 解析JSON格式的响应数据,提取出热点标题。
6. 将热点标题写入hot.txt文件中,并在每个标题前加上对应的热点类型。
7. 延时30分钟后再次执行。
阅读全文