yolov5 6.1 增加anchors

时间: 2023-08-06 14:02:46 浏览: 104
根据引用[1]中的信息,Yolov5在配置文件中默认保存了一些针对coco数据集的预设锚定框。以yolov5s.yaml为例,预设的锚定框尺寸如下: - [10,13, 16,30, 33,23] # P3/8 - [30,61, 62,45, 59,119] # P4/16 - [116,90, 156,198, 373,326] # P5/32 如果你想在Yolov5 6.1版本中增加anchors,你可以手动修改配置文件中的anchors部分,添加你想要的锚定框尺寸。这样可以根据你的需求来调整锚定框的大小和数量。请确保你的锚定框尺寸符合你的数据集和目标的特点。
相关问题

ResRep 剪枝方法 YOLOv5 6.1中的应用,完整详细代码复现

ResRep 剪枝方法是一种基于残差网络的剪枝方法,可以有效地减少神经网络模型的参数和计算量,同时保持模型的精度。 在 YOLOv5 6.1 版本中,已经应用了 ResRep 剪枝方法,可以通过以下步骤进行完整详细代码复现: 1. 下载 YOLOv5 6.1 版本的代码,并安装相关依赖。 ``` git clone https://github.com/ultralytics/yolov5.git cd yolov5/ pip install -r requirements.txt ``` 2. 下载 COCO 数据集,并将其放在 `data/` 文件夹中。 ``` mkdir data/ cd data/ wget https://github.com/ultralytics/yolov5/releases/download/v6.0/coco128.zip unzip coco128.zip cd .. ``` 3. 在 `models/yolov5s.yaml` 文件中,修改模型的 `anchors`、`nc` 和 `depth_multiple` 参数。 ``` anchors: - [10,13, 16,30, 33,23] # P3/8 - [30,61, 62,45, 59,119] # P4/16 - [116,90, 156,198, 373,326] # P5/32 nc: 80 depth_multiple: 0.33 ``` 4. 在 `train.py` 文件中,修改训练参数,包括 `epochs`、`batch-size` 和 `img-size` 等。 ``` python train.py --img 640 --batch 16 --epochs 300 --data coco.yaml --cfg models/yolov5s.yaml --weights '' --name yolov5s_resrep ``` 5. 在 `models/yolo.py` 文件中,添加 ResRep 剪枝方法的相关代码,包括 `resrep_prune()` 和 `forward` 函数的修改。 ``` import torch.nn as nn import torch.nn.functional as F from models.common import Conv, Bottleneck, SPP, DWConv, Focus, Concat from utils.torch_utils import time_synchronized class ResRep(nn.Module): def __init__(self, model, prune_idx): super(ResRep, self).__init__() self.model = model self.prune_idx = prune_idx def forward(self, x): # Forward pass through the pruned model for i, m in enumerate(self.model): x = m(x) if i == self.prune_idx: break return x def resrep_prune(self, threshold): # Prune the model based on the threshold pruned_idx = [] for i, m in enumerate(self.model): if isinstance(m, Bottleneck): if m.bn3.weight is not None: mask = m.bn3.weight.data.abs().ge(threshold).float().cuda() m.bn3.weight.data.mul_(mask) m.bn3.bias.data.mul_(mask) m.conv3.weight.data.mul_(mask.view(-1, 1, 1, 1)) pruned_idx.append(i) elif isinstance(m, Conv): if m.bn.weight is not None: mask = m.bn.weight.data.abs().ge(threshold).float().cuda() m.bn.weight.data.mul_(mask) m.bn.bias.data.mul_(mask) m.conv.weight.data.mul_(mask.view(-1, 1, 1, 1)) pruned_idx.append(i) self.prune_idx = max(pruned_idx) class YOLOLayer(nn.Module): def __init__(self, anchors, nc, img_size, yolo_idx): super(YOLOLayer, self).__init__() self.anchors = torch.Tensor(anchors) self.na = self.anchors.shape[0] # number of anchors self.nc = nc # number of classes self.no = self.nc + 5 # number of outputs per anchor self.img_size = img_size self.grid_size = 0 # grid size self.stride = 0 # stride self.grid = self.create_grid(img_size) self.scaled_anchors = torch.Tensor([(a_w / self.stride, a_h / self.stride) for a_w, a_h in self.anchors]) self.anchor_w = self.scaled_anchors[:, 0:1].view((1, self.na, 1, 1)) self.anchor_h = self.scaled_anchors[:, 1:2].view((1, self.na, 1, 1)) self.yolo_idx = yolo_idx def forward(self, x): # Residual block x = self.residual(x, 1) # Feature extraction x = self.extract(x, 2) # Pruning x = self.prune(x, 3) # Detection x = self.detect(x, 4) return x def residual(self, x, n): for i in range(n): x = self.m[i](x) + x return x def extract(self, x, n): for i in range(n): x = self.m[i](x) return x def prune(self, x, n): self.resrep.resrep_prune(threshold=0.1) x = self.resrep(x) return x def detect(self, x, n): # Predict on center io = x.clone()[:, :, self.grid_size[1] // 2:self.grid_size[1] // 2 + 1, self.grid_size[0] // 2:self.grid_size[0] // 2 + 1] io[..., 4] += self.grid_x io[..., 5] += self.grid_y io[..., :2] = self.sigmoid(io[..., :2]) * 2. - 0.5 + self.grid.to(x.device) io[..., 2:4] = (self.sigmoid(io[..., 2:4]) * 2) ** 2 * self.anchor_wh[self.anchor_vec == self.yolo_idx] io[..., :4] *= self.stride return io.view(io.shape[0], -1, self.no), x class Model(nn.Module): def __init__(self, cfg='models/yolov5s.yaml', ch=3, nc=None): super(Model, self).__init__() self.model, self.save = parse_model(deepcopy(yaml.load(open(cfg, 'r')))) self.stride = torch.tensor([32, 16, 8]) self.ch = ch self.nc = nc self.hyper_params = self.model.pop('hyper_params') self.init_weights() def forward(self, x): y, dt = [], [] for i, m in enumerate(self.model): x = m(x) if i in [2, 4, 6]: y.append(x) dt.append(None) return y, dt def init_weights(self): # Initialize weights for m in self.modules(): t = type(m) if t is Conv: pass # nn.init.kaiming_normal_(m.conv.weight, mode='fan_out', nonlinearity='relu') elif t is DWConv: pass # nn.init.kaiming_normal_(m.conv.weight, mode='fan_out', nonlinearity='relu') m.bn.weight.data.fill_(1.0) m.bn.bias.data.fill_(0) elif t is nn.BatchNorm2d: m.eps = 1e-3 m.momentum = 0.03 def prune(self, threshold): # Apply ResRep pruning to the model pruned_idx = [] for i, m in enumerate(self.model): if isinstance(m, Bottleneck): if m.bn3.weight is not None: mask = m.bn3.weight.data.abs().ge(threshold).float().cuda() m.bn3.weight.data.mul_(mask) m.bn3.bias.data.mul_(mask) m.conv3.weight.data.mul_(mask.view(-1, 1, 1, 1)) pruned_idx.append(i) elif isinstance(m, Conv): if m.bn.weight is not None: mask = m.bn.weight.data.abs().ge(threshold).float().cuda() m.bn.weight.data.mul_(mask) m.bn.bias.data.mul_(mask) m.conv.weight.data.mul_(mask.view(-1, 1, 1, 1)) pruned_idx.append(i) elif isinstance(m, YOLOLayer): m.resrep = ResRep(m.m, self.prune_idx) m.resrep.resrep_prune(threshold=0.1) pruned_idx.append(i) self.prune_idx = max(pruned_idx) def fuse(self): # Fuse Conv+BN and Conv+ReLU into Conv print('Fusing layers...') for m in self.modules(): if type(m) is Conv and type(m.bn) is nn.BatchNorm2d: m.conv = fuse_conv_bn(m.conv, m.bn) delattr(m, 'bn') elif type(m) is nn.Sequential: for i, v in enumerate(m): if type(v) is Conv and type(v.bn) is nn.BatchNorm2d: v.conv = fuse_conv_bn(v.conv, v.bn) delattr(v, 'bn') elif type(v) is Conv and hasattr(m[i + 1], 'act'): v.conv = fuse_conv_relu(v.conv, m[i + 1].act) delattr(m[i + 1], 'act') elif type(v) is nn.BatchNorm2d and hasattr(m[i + 1], 'act'): delattr(m[i + 1], 'act') elif type(m) is nn.BatchNorm2d: if not hasattr(m, 'act'): m.act = nn.ReLU(inplace=True) def info(self, verbose=False): # Print model information model_info(self, verbose) def parse_model(d, ch=3, nc=None): # model_dict, input_channels, num_classes anchors, nc = d['anchors'], d['nc'] na = (len(anchors[0]) // 2) if isinstance(anchors, list) else anchors layers, save, c2 = [], [], ch for i, (f, n, m, args) in enumerate(d['backbone'] + d['head']): m = eval(m) if isinstance(m, str) else m # eval strings for j, a in enumerate(args): try: args[j] = eval(a) if isinstance(a, str) else a # eval strings except: pass n = '' if n == 1 else n if m in [Conv, DWConv, Focus, Bottleneck, SPP, Concat, Detect]: c1, c2 = c2, args[0] if isinstance(c2, list): c2 = [ch] + c2 elif c2 == 'same': c2 = c1 elif c2 == -1: c2 = [256, 512, 1024, 2048][max(2 + i - len(d['backbone']), 0)] elif c2 == -2: c2 = c1 // 2 elif c2 == -3: c2 = c1 // 3 elif c2 == -4: c2 = c1 // 4 else: c2 = int(c2) args = [c1, c2, *args[1:]] if m in [Bottleneck, SPP]: args.insert(2, n) n = '' elif m is nn.BatchNorm2d: args = [c2] elif m is nn.Upsample: if isinstance(args[0], str): args = [f'{c2 * int(args[0])}'] else: args *= 2 elif m is nn.Linear: args = [nc, args[0]] if n == 'head': args[0] = args[0] * na * (nc + 5) n = '' elif m is Detect: args.append([anchors[i] for i in d['anchor_idx'][f]]) args.append(nc) args.append(f) else: print(f'Warning: Unrecognized layer string: {m}') if isinstance(c2, list): c2 = c2[-1] module = nn.Sequential(*[m(*args) if m is not Detect else Detect(*args[:3]).to(f'cuda:{args[3]}') for m in [m]]) module.nc = nc # attach number of classes to Detect() module.stride = torch.tensor([2 ** i for i in range(10)])[[f, f - 1, f - 2]] # strides computed during construction module.anchor_vec = d['anchor_idx'][f] module.training = False layers.append(module) if n: save.append(n) return nn.Sequential(*layers), sorted(save) def fuse_conv_bn(conv, bn): # https://tehnokv.com/posts/fusing-batchnorm-and-conv/ with torch.no_grad(): # init fusedconv = Conv( conv.in_channels, conv.out_channels, kernel_size=conv.kernel_size, stride=conv.stride, padding=conv.padding, groups=conv.groups, bias=True, dilation=conv.dilation) fusedconv.weight.data = conv.weight.data.clone().reshape( fusedconv.weight.data.shape) # copy conv weights # prepare filters bnmean = bn.running_mean bnstd = torch.sqrt(bn.running_var + bn.eps) if conv.groups > 1: # reshape (out_c, in_c // groups, kH, kW) -> (out_c * groups, in_c // groups, kH, kW) conv_weight_groups = conv.weight.data.reshape( conv.out_channels * conv.groups, -1, conv.kernel_size[0], conv.kernel_size[1]) # reshape bn params (out_c) -> (out_c * groups) bnmean = bnmean.repeat(conv.groups) bnstd = bnstd.repeat(conv.groups) else: conv_weight_groups = conv.weight.data # fuse fusedconv.bias.data = bn.bias.data + (bn.weight.data / bnstd) * (conv.bias.data - bnmean) scale = (bn.weight.data / bnstd) fusedconv.weight.data *= scale.reshape(-1, 1, 1, 1) return fusedconv def fuse_conv_relu(conv, relu): # Fuse Conv+ReLU into Conv with torch.no_grad(): # init fusedconv = Conv( conv.in_channels, conv.out_channels, kernel_size=conv.kernel_size, stride=conv.stride, padding=conv.padding, groups=conv.groups, bias=True, dilation=conv.dilation) fusedconv.weight.data = conv.weight.data.clone().reshape( fusedconv.weight.data.shape) # copy conv weights # fuse fusedconv.bias.data = conv.bias.data fusedconv.weight.data *= relu.inplace_slope.reshape(-1, 1, 1, 1) return fusedconv ``` 6. 在 `train.py` 文件中,添加 ResRep 剪枝方法的调用。 ``` # ResRep pruning if epoch == 100: model.prune(threshold=0.1) print(f'Pruned model to {count_parameters(model)[0] / 1e6:.3g}M parameters') ``` 7. 运行训练命令,开始训练。 ``` python train.py --img 640 --batch 16 --epochs 300 --data coco.yaml --cfg models/yolov5s.yaml --weights '' --name yolov5s_resrep ``` 完成以上步骤后,即可得到应用了 ResRep 剪枝方法的 YOLOv5 6.1 版本的模型,并进行训练。
阅读全文

相关推荐

大家在看

recommend-type

中国移动5G规模试验测试规范--核心网领域--SA基础网元性能测试分册.pdf

目 录 前 言............................................................................................................................ 1 1. 范围........................................................................................................................... 2 2. 规范性引用文件....................................................................................................... 2 3. 术语、定义和缩略语............................................................................................... 2 3.1. 测试对象........................................................................................................ 3 4. 测试对象及网络拓扑............................................................................................... 3 ................................................................................................................................ 3 4.1. 测试组网........................................................................................................ 3 5. 业务模型和测试方法............................................................................................... 6 5.1. 业务模型........................................................................................................ 6 5.2. 测试方法........................................................................................................ 7 6. 测试用例................................................................................................................... 7 6.1. AMF性能测试................................................................................................ 7 6.1.1. 注册请求处理能力测试..................................................................... 7 6.1.2. 基于业务模型的单元容量测试.........................................................9 6.1.3. AMF并发连接管理性能测试........................................................... 10 6.2. SMF性能测试............................................................................................... 12 6.2.1. 会话创建处理能力测试................................................................... 12 6.2.2. 基
recommend-type

CAN分析仪 解析 DBC uds 源码

CANas分析软件.exe 的源码,界面有些按钮被屏蔽可以自行打开,5分下载 绝对惊喜 意想不到的惊喜 仅供学习使用
recommend-type

MIPI-D-PHY-specification-v1.1.pdf

MIPI® Alliance Specification for D-PHY Version 1.1 – 7 November 2011
recommend-type

收放卷及张力控制-applied regression analysis and generalized linear models3rd

5.3 收放卷及张力控制 收放卷及张力控制需要使用 TcPackALv3.0.Lib,此库需要授权并安装: “\BeckhoffDVD_2009\Software\TwinCAT\Supplement\TwinCAT_PackAl\” 此库既可用于浮动辊也可用于张力传感器,但不适用于主轴频繁起停且主从轴之间没有缓 冲区间的场合。 5.3.1 功能块 PS_DancerControl 此功能块控制从轴跟随 Dancer 耦合的主轴运动。主轴可以是实际的运动轴,也可以是虚拟 轴。功能块通过 Dancer-PID 调节主轴和从轴之间的齿轮比实现从轴到主轴的耦合。 提示: 此功能块的目的是,依据某一 Dancer 位置,产生一个恒定表面速度(外设速度)相对于主 轴速度的调节量。主轴和从轴之间的张力可以表示为一个位置信号(即 Dancer 位置信号)。 功能块执行的每个周期都会扫描实际张力值,而其它输入信号则仅在 Enable 信号为 True 的第一个周期读取。
recommend-type

彩虹聚合DNS管理系统V1.3+搭建教程

彩虹聚合DNS管理系统,可以实现在一个网站内管理多个平台的域名解析,目前已支持的域名平台有:阿里云、腾讯云、华为云、西部数码、CloudFlare。本系统支持多用户,每个用户可分配不同的域名解析权限;支持API接口,支持获取域名独立DNS控制面板登录链接,方便各种IDC系统对接。 部署方法: 1、运行环境要求PHP7.4+,MySQL5.6+ 2、设置网站运行目录为public 3、设置伪静态为ThinkPHP 4、访问网站,会自动跳转到安装页面,根据提示安装完成 5、访问首页登录控制面板

最新推荐

recommend-type

Kotlin开发的播放器(默认支持MediaPlayer播放器,可扩展VLC播放器、IJK播放器、EXO播放器、阿里云播放器)

基于Kotlin开发的播放器,默认支持MediaPlayer播放器,可扩展VLC播放器、IJK播放器、EXO播放器、阿里云播放器、以及任何使用TextureView的播放器, 开箱即用,欢迎提 issue 和 pull request
recommend-type

【创新无忧】基于斑马优化算法ZOA优化极限学习机ELM实现乳腺肿瘤诊断附matlab代码.rar

1.版本:matlab2014/2019a/2024a 2.附赠案例数据可直接运行matlab程序。 3.代码特点:参数化编程、参数可方便更改、代码编程思路清晰、注释明细。 4.适用对象:计算机,电子信息工程、数学等专业的大学生课程设计、期末大作业和毕业设计。 替换数据可以直接使用,注释清楚,适合新手
recommend-type

全套S7-1200一拖三恒压供水程序样例+PID样例+触摸屏样例 1、此程序采用S7-1200PLC和KTP1000PN触摸屏人机执行PID控制变频器实现恒压供水. 包括plc程序,触摸屏程序

全套S7-1200一拖三恒压供水程序样例+PID样例+触摸屏样例 。 1、此程序采用S7-1200PLC和KTP1000PN触摸屏人机执行PID控制变频器实现恒压供水. 包括plc程序,触摸屏程序,项目图纸(重要) 2.程序为实际操作项目案例程序,程序带有注释说明。 PLC程序打开软件版本为西门子博图V13以上均可打开。 实际工程已验证
recommend-type

AkariBot-Core:可爱AI机器人实现与集成指南

资源摘要信息: "AkariBot-Core是一个基于NodeJS开发的机器人程序,具有kawaii(可爱)的属性,与名为Akari-chan的虚拟角色形象相关联。它的功能包括但不限于绘图、处理请求和与用户的互动。用户可以通过提供山脉的名字来触发一些预设的行为模式,并且机器人会进行相关的反馈。此外,它还具有响应用户需求的能力,例如在用户感到口渴时提供饮料建议。AkariBot-Core的代码库托管在GitHub上,并且使用了git版本控制系统进行管理和更新。 安装AkariBot-Core需要遵循一系列的步骤。首先需要满足基本的环境依赖条件,包括安装NodeJS和一个数据库系统(MySQL或MariaDB)。接着通过克隆GitHub仓库的方式获取源代码,然后复制配置文件并根据需要修改配置文件中的参数(例如机器人认证的令牌等)。安装过程中需要使用到Node包管理器npm来安装必要的依赖包,最后通过Node运行程序的主文件来启动机器人。 该机器人的应用范围包括但不限于维护社区(Discord社区)和执行定期处理任务。从提供的信息看,它也支持与Mastodon平台进行交互,这表明它可能被设计为能够在一个开放源代码的社交网络上发布消息或与用户互动。标签中出现的"MastodonJavaScript"可能意味着AkariBot-Core的某些功能是用JavaScript编写的,这与它基于NodeJS的事实相符。 此外,还提到了另一个机器人KooriBot,以及一个名为“こおりちゃん”的虚拟角色形象,这暗示了存在一系列类似的机器人程序或者虚拟形象,它们可能具有相似的功能或者在同一个项目框架内协同工作。文件名称列表显示了压缩包的命名规则,以“AkariBot-Core-master”为例子,这可能表示该压缩包包含了整个项目的主版本或者稳定版本。" 知识点总结: 1. NodeJS基础:AkariBot-Core是使用NodeJS开发的,NodeJS是一个基于Chrome V8引擎的JavaScript运行环境,广泛用于开发服务器端应用程序和机器人程序。 2. MySQL数据库使用:机器人程序需要MySQL或MariaDB数据库来保存记忆和状态信息。MySQL是一个流行的开源关系数据库管理系统,而MariaDB是MySQL的一个分支。 3. GitHub版本控制:AkariBot-Core的源代码通过GitHub进行托管,这是一个提供代码托管和协作的平台,它使用git作为版本控制系统。 4. 环境配置和安装流程:包括如何克隆仓库、修改配置文件(例如config.js),以及如何通过npm安装必要的依赖包和如何运行主文件来启动机器人。 5. 社区和任务处理:该机器人可以用于维护和管理社区,以及执行周期性的处理任务,这可能涉及定时执行某些功能或任务。 6. Mastodon集成:Mastodon是一个开源的社交网络平台,机器人能够与之交互,说明了其可能具备发布消息和进行社区互动的功能。 7. JavaScript编程:标签中提及的"MastodonJavaScript"表明机器人在某些方面的功能可能是用JavaScript语言编写的。 8. 虚拟形象和角色:Akari-chan是与AkariBot-Core关联的虚拟角色形象,这可能有助于用户界面和交互体验的设计。 9. 代码库命名规则:通常情况下,如"AkariBot-Core-master"这样的文件名称表示这个压缩包包含了项目的主要分支或者稳定的版本代码。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

CC-LINK远程IO模块AJ65SBTB1现场应用指南:常见问题快速解决

# 摘要 CC-LINK远程IO模块作为一种工业通信技术,为自动化和控制系统提供了高效的数据交换和设备管理能力。本文首先概述了CC-LINK远程IO模块的基础知识,接着详细介绍了其安装与配置流程,包括硬件的物理连接和系统集成要求,以及软件的参数设置与优化。为应对潜在的故障问题,本文还提供了故障诊断与排除的方法,并探讨了故障解决的实践案例。在高级应用方面,文中讲述了如何进行编程与控制,以及如何实现系统扩展与集成。最后,本文强调了CC-LINK远程IO模块的维护与管理的重要性,并对未来技术发展趋势进行了展望。 # 关键字 CC-LINK远程IO模块;系统集成;故障诊断;性能优化;编程与控制;维护
recommend-type

switch语句和for语句的区别和使用方法

`switch`语句和`for`语句在编程中用于完全不同的目的。 **switch语句**主要用于条件分支的选择。它基于一个表达式的值来决定执行哪一段代码块。其基本结构如下: ```java switch (expression) { case value1: // 执行相应的代码块 break; case value2: // ... break; default: // 如果expression匹配不到任何一个case,则执行default后面的代码 } ``` - `expres
recommend-type

易语言实现程序启动限制的源码示例

资源摘要信息:"易语言禁止直接运行程序源码" 易语言是一种简体中文编程语言,其设计目标是使中文用户能更容易地编写计算机程序。易语言以其简单易学的特性,在编程初学者中较为流行。易语言的代码主要由中文关键字构成,便于理解和使用。然而,易语言同样具备复杂的编程逻辑和高级功能,包括进程控制和系统权限管理等。 在易语言中禁止直接运行程序的功能通常是为了提高程序的安全性和版权保护。开发者可能会希望防止用户直接运行程序的可执行文件(.exe),以避免程序被轻易复制或者盗用。为了实现这一点,开发者可以通过编写特定的代码段来实现这一目标。 易语言中的源码示例可能会包含以下几点关键知识点: 1. 使用运行时环境和权限控制:易语言提供了访问系统功能的接口,可以用来判断当前运行环境是否为预期的环境,如果程序在非法或非预期环境下运行,可以采取相应措施,比如退出程序。 2. 程序加密与解密技术:在易语言中,开发者可以对关键代码或者数据进行加密,只有在合法启动的情况下才进行解密。这可以有效防止程序被轻易分析和逆向工程。 3. 使用系统API:易语言可以调用Windows系统API来管理进程。例如,可以使用“创建进程”API来启动应用程序,并对启动的进程进行监控和管理。如果检测到直接运行了程序的.exe文件,可以采取措施阻止其执行。 4. 签名验证:程序在启动时可以验证其签名,确保它没有被篡改。如果签名验证失败,程序可以拒绝运行。 5. 隐藏可执行文件:开发者可以在程序中隐藏实际的.exe文件,通过易语言编写的外壳程序来启动实际的程序。外壳程序可以检查特定的条件或密钥,满足条件时才调用实际的程序执行。 6. 线程注入:通过线程注入技术,程序可以在其他进程中创建一个线程来执行其代码。这样,即便直接运行了程序的.exe文件,程序也可以控制该进程。 7. 时间锁和硬件锁:通过设置程序只在特定的时间段或者特定的硬件环境下运行,可以进一步限制程序的使用范围。 8. 远程验证:程序可以通过网络连接到服务器进行验证,确保它是在正确的授权和许可下运行。如果没有得到授权,程序可以停止运行。 9. 利用易语言的模块化和封装功能:通过模块化设计,把程序逻辑分散到多个模块中,只有在正确的启动流程下,这些模块才会被加载和执行。 需要注意的是,尽管上述方法可以在一定程度上限制程序的直接运行,但没有任何一种方法能够提供绝对的安全保证。高级的黑客可能会使用更复杂的技术来绕过这些限制措施。因此,设计这样的安全机制时,开发者需要综合考虑多种因素,并结合实际情况来选择最合适的技术方案。 在实际应用中,易语言提供的各种函数和模块可以组合使用,创建出复杂多样的保护机制。上述知识点可以作为构建禁止直接运行程序功能的理论基础,并结合易语言的具体编程实践进行实施。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

CC-LINK远程IO模块在环境监控中的应用:技术与案例探讨

![CC-LINK](https://www.mitsubishielectric.com/fa/products/cnt/plcnet/pmerit/cclink_ie/concept/img/main_img.jpg) # 摘要 CC-LINK远程IO模块作为一种先进的工业通信技术,在环境监控系统中具有广泛应用。本文首先概述了CC-LINK远程IO模块的基本概念及其在环境监控系统中的基础理论,包括硬件组成、软件架构及技术优势。随后,详细介绍了其在实时监控与远程控制、系统集成与配置、安全维护方面的具体实践应用。案例分析部分深入探讨了CC-LINK模块在不同环境监控场景中的应用效果与技术解决