请你写一个程序,获取裁判文书网数据的JSON格式
时间: 2024-10-14 13:12:00 浏览: 22
获取裁判文书网的数据通常需要使用网络爬虫技术,因为裁判文书网的数据通常是通过API提供给开发者还是公开网页的形式存在。以下是一个基本的Python示例,使用requests库和BeautifulSoup库去抓取HTML页面,然后解析JSON数据。注意实际操作时你需要遵守网站的robots.txt规则以及可能的使用协议。
```python
import requests
from bs4 import BeautifulSoup
import json
def get_judicial_data(url):
# 发送GET请求
response = requests.get(url)
# 检查是否成功
if response.status_code == 200:
# 解析HTML
soup = BeautifulSoup(response.text, 'html.parser')
# 找到包含JSON数据的部分(这依赖于具体的网页结构)
data_div = soup.find('div', class_='data-container') # 根据实际情况更改选择器
# 提取并转换为JSON
if data_div:
raw_data = data_div.text
json_data = json.loads(raw_data)
else:
print("未找到JSON数据部分")
json_data = None
return json_data
else:
print(f"请求失败,状态码:{response.status_code}")
return None
# 替换为裁判文书网的实际URL
url = "https://wenshu.court.gov.cn/search/"
json_data = get_judicial_data(url)
if json_data:
# 处理和保存JSON数据
with open('judicial_data.json', 'w', encoding='utf-8') as f:
json.dump(json_data, f, ensure_ascii=False, indent=4)
print("数据已保存至json文件")
else:
print("未能获取JSON数据")
阅读全文