用python脚本巡检在内网服务器巡检网址并把结果用排列的方法导入到excel里
时间: 2023-05-16 09:06:22 浏览: 123
可以使用Python的requests库来发送HTTP请求,然后使用BeautifulSoup库来解析HTML页面,最后使用openpyxl库将结果写入Excel文件中。以下是一个简单的示例代码:
```python
import requests
from bs4 import BeautifulSoup
from openpyxl import Workbook
# 巡检的网址列表
urls = ['http://example.com', 'http://example.org']
# 发送HTTP请求并解析HTML页面
results = []
for url in urls:
response = requests.get(url)
soup = BeautifulSoup(response.text, 'html.parser')
title = soup.title.string
results.append((url, title))
# 将结果按照网址排序
results.sort()
# 将结果写入Excel文件
wb = Workbook()
ws = wb.active
for i, (url, title) in enumerate(results):
ws.cell(row=i+1, column=1, value=url)
ws.cell(row=i+1, column=2, value=title)
wb.save('results.xlsx')
```
这段代码会将巡检结果按照网址排序后写入Excel文件中。你可以根据实际需求修改代码。
阅读全文