McAfee EPO 4.5 安装指南

需积分: 10 0 下载量 43 浏览量 更新于2024-07-24 收藏 480KB PDF 举报
McAfee EPO 4.5 安装手册 McAfee ePolicy Orchestrator (EPO) 4.5 是一款强大的安全管理平台,用于集中管理和部署McAfee的安全产品。此安装手册详细介绍了如何在目标环境中正确安装和配置EPO 4.5系统,包括必要的组件、环境要求以及具体的安装步骤。 1. **安装组件**: - EPO服务器:这是核心组件,负责处理策略管理、报告和设备通信。 - 代理程序:安装在各个受管设备上,用于接收并执行服务器发送的策略和更新。 - 数据库:存储ePO服务器的数据,如设备信息、策略和日志记录。 - 控制台:用于管理员与ePO服务器交互的图形界面。 2. **安装环境**: - 服务器和代理处理器要求:确保服务器硬件和网络环境满足最低配置,代理程序兼容多种操作系统。 - 数据库要求:可能需要特定版本的数据库软件(如SQL Server)来存储ePO数据。 - 支持的产品和组件:确认计划集成的McAfee产品与EPO 4.5兼容。 - 操作系统语言支持:检查ePO 4.5是否支持目标操作系统语言。 3. **安装步骤**: - 安装前准备:确保系统满足所有系统要求,包括硬件、软件和网络配置。 - 首次安装:首先安装ePO服务器,配置数据库连接和基本设置。 - 安装代理程序:在需要管理的设备上部署代理,使它们能够与ePO服务器通信。 - 升级:如果已有旧版本的ePO,需要按照特定步骤进行升级,如从3.6.1或4.0升级到4.5。 - 安装后任务:完成初次安装后,可能需要配置额外的设置,如添加用户、创建策略、设置自动更新等。 安装过程中,许可信息和协议非常重要,用户必须同意许可协议才能继续安装。许可归属声明通常包含关于软件使用权限和限制的详细信息。在升级或卸载不使用的组件时,需注意备份现有数据以防止数据丢失。 在实际操作中,遵循手册的指导是确保成功安装的关键。每个阶段都应仔细检查并遵循最佳实践,以确保系统的稳定运行和全面保护。在遇到问题时,可以查阅McAfee提供的技术支持资源或社区论坛寻求帮助。

def train(): # 训练 print('Start training ===========================================>') best_epo = -1 max_pck = -1 cur_lr = learning_rate print('Learning Rate: {}'.format(learning_rate)) for epoch in range(1, epochs + 1): print('Epoch[{}/{}] ==============>'.format(epoch, epochs)) model.train() train_loss = [] for step, (img, label, img_name, w, h) in enumerate(train_loader): label = torch.stack([label] * 6, dim=1) # bz * 6 * 21 * 46 * 46 if cuda: img = img.cuda() label = label.cuda() optimizer.zero_grad() pred_maps = model(img) # (FloatTensor.cuda) size:(bz,6,21,46,46) loss = sum_mse_loss(pred_maps, label) # total loss loss.backward() optimizer.step() if step % 100 == 0: print('STEP: {} LOSS {}'.format(step, loss.item())) loss_final = sum_mse_loss(pred_maps[:, -1, ...].cpu(), label[:, -1, ...].cpu()) train_loss.append(loss_final) # save sample image **** save_images(label[:, -1, ...].cpu(), pred_maps[:, -1, ...].cpu(), epoch, img_name, save_dir) # eval model after one epoch eval_loss, cur_pck = eval(epoch, mode='valid') print('EPOCH {} Valid PCK {}'.format(epoch, cur_pck)) print('EPOCH {} TRAIN_LOSS {}'.format(epoch, sum(train_loss)/len(train_loss))) print('EPOCH {} VALID_LOSS {}'.format(epoch, eval_loss)) if cur_pck > max_pck: torch.save(model.state_dict(), os.path.join(save_dir, 'best_model.pth')) max_pck = cur_pck best_epo = epoch print('Current Best EPOCH is : {}\n**************\n'.format(best_epo)) torch.save(model.state_dict(), os.path.join(save_dir, 'final_epoch.pth')) if epoch % lr_decay_epoch == 0: cur_lr /= 2 update_lr(optimizer, cur_lr) print('Train Done!') print('Best epoch is {}'.format(best_epo))

2023-03-27 上传