用python脚本巡检在内网服务器巡检网址并把结果用排列整齐的方法导入到excel里
时间: 2023-05-16 15:06:42 浏览: 45
可以使用Python的requests库来发送HTTP请求,然后使用BeautifulSoup库来解析HTML页面,最后使用openpyxl库将结果写入Excel文件中。以下是一个简单的示例代码:
```python
import requests
from bs4 import BeautifulSoup
from openpyxl import Workbook
# 要巡检的网址列表
urls = ['http://example.com', 'http://example.org']
# 发送HTTP请求并解析HTML页面
results = []
for url in urls:
response = requests.get(url)
soup = BeautifulSoup(response.text, 'html.parser')
title = soup.title.string
results.append((url, title))
# 将结果写入Excel文件
wb = Workbook()
ws = wb.active
ws.append(['URL', 'Title'])
for result in results:
ws.append(result)
wb.save('results.xlsx')
```
这个脚本会将每个网址的标题写入Excel文件中,每行包含URL和标题两个字段。你可以根据需要修改代码来适应不同的巡检需求。