用python脚本巡检在内网服务器巡检网址并把结果用排列的方法导入到excel里
时间: 2023-05-16 16:06:44 浏览: 122
可以使用Python中的requests库来发送HTTP请求,使用BeautifulSoup库来解析HTML页面,使用openpyxl库来操作Excel文件。以下是一个简单的示例代码:
```python
import requests
from bs4 import BeautifulSoup
from openpyxl import Workbook
# 要巡检的网址列表
urls = ['http://example.com', 'http://example.org']
# 发送HTTP请求并解析HTML页面
results = []
for url in urls:
response = requests.get(url)
soup = BeautifulSoup(response.text, 'html.parser')
title = soup.title.string
results.append((url, title))
# 将结果导入到Excel文件中
wb = Workbook()
ws = wb.active
for i, result in enumerate(sorted(results)):
ws.cell(row=i+1, column=1, value=result[0])
ws.cell(row=i+1, column=2, value=result[1])
wb.save('results.xlsx')
```
这段代码会将巡检结果按照网址的字典序排列,并导入到名为"results.xlsx"的Excel文件中。
阅读全文