MAX_ITERATIONS = 300 iteration = 0 while sp_obj <= -tol:#就是如果子问题的目标函数值小于0,人家才会迭代的意思吗?np.abs(reduced_cost) <= TOL or reduced_cost >= 0 route_sequence.append(new_path) pi,obj,include,route_cost=rmp(customer_number,route_sequence) sp_obj,new_path,new_path_cost,x_mat =sp(customer_number,vertex_number,ready_time,due_time,vehicle_capacity, vehicle_number,demand,B,pi) iteration += 1 print('目前的迭代次数为:',iteration) if iteration == MAX_ITERATIONS: print("Reached maximum number of iterations.")这个代码中为什么if函数不起作用

时间: 2024-03-05 20:47:20 浏览: 33
根据你提供的代码,if函数应该是起作用的。但是需要注意的是,if函数仅在while循环结束后执行一次,而不是在每次循环迭代时都执行。因此,如果在循环中想要查看if函数的执行情况,需要在循环内部添加一些打印语句来观察。同时,你可以检查一下MAX_ITERATIONS和tol的值是否合理,以及reduced_cost的计算是否正确。
相关问题

帮我写段python代码在这段代码while sp_obj < 0:#就是如果子问题的目标函数值小于0,人家才会迭代的意思吗? route_sequence.append(new_path) pi,obj= rmp(customer_number,route_sequence) sp_obj,new_path,new_path_cost,x_mat =sp(customer_number,vertex_number,ready_time,due_time,vehicle_capacity, vehicle_number,demand,B,pi) 上加上当迭代次数为1000次时,停止,输出结果

是的,您的理解是正确的。当子问题的目标函数值小于0时,代码会继续迭代。 以下是加入迭代次数限制的代码: ```python MAX_ITERATIONS = 1000 iteration = 0 while sp_obj < 0 and iteration < MAX_ITERATIONS: route_sequence.append(new_path) pi, obj = rmp(customer_number, route_sequence) sp_obj, new_path, new_path_cost, x_mat = sp(customer_number, vertex_number, ready_time, due_time, vehicle_capacity, vehicle_number, demand, B, pi) iteration += 1 if iteration == MAX_ITERATIONS: print("Reached maximum number of iterations.") else: # Output results print("SP objective function value: ", sp_obj) print("New path: ", new_path) print("New path cost: ", new_path_cost) print("x_mat: ", x_mat) ``` 此代码将在子问题的目标函数值小于0和迭代次数小于1000时继续迭代。如果达到迭代次数限制,代码将输出“Reached maximum number of iterations.”,否则将输出计算得到的结果。

如何对上述代码进行修改,要求通过max_iterations = 1000 # 最大迭代次数 tolerance = 1e-6 # 目标函数值的变化量阈值 mean_tol = 1e-6 # 均值向量变化量阈值 sigma_tol = 1e-6 # 标准差变化量阈值上述标准终止计算

要对上述代码进行修改以实现标准终止计算,需要在optimizer.optimize()方法中添加终止条件。修改后的代码如下: ```python from cmaes import CMA import numpy as np def main(): # X坐标束条件 Min_pump_zcjj = 26 Max_pump_zcjj = 51 # Y坐标约束条件 Min_pump_bdljd = 26 Max_pump_bdljd = 51 # 靶点位置约束条件 Min_pump_bdwz = 0 Max_pump_bdwz = 1 # 射孔厚度约束条件 Min_pump_skhd = 1 Max_pump_skhd = 5 bounds = np.array([[Min_pump_zcjj, Max_pump_zcjj], [Min_pump_bdljd, Max_pump_bdljd],[Min_pump_bdwz, Max_pump_bdwz],[Min_pump_skhd, Max_pump_skhd]]) optimizer = CMA(mean=np.mean(bounds, axis=1), sigma=1, bounds=bounds, seed=0) max_iterations = 1000 # 最大迭代次数 tolerance = 1e-6 # 目标函数值的变化量阈值 mean_tol = 1e-6 # 均值向量变化量阈值 sigma_tol = 1e-6 # 标准差变化量阈值 best_fitness = float("inf") best_solution = None for i in range(max_iterations): solutions = optimizer.ask() fitness_list = [] for solution in solutions: # 计算目标函数的值 fitness = objective_function(solution) fitness_list.append(fitness) if fitness < best_fitness: best_fitness = fitness best_solution = solution optimizer.tell(solutions, fitness_list) # 判断是否满足终止条件 if abs(best_fitness - fitness_list[0]) < tolerance and optimizer.mean_diff < mean_tol and optimizer.sigma < sigma_tol: break print("优化完成!") print("最优解为:", best_solution) print("最优解的目标函数值为:", best_fitness) def objective_function(solution): # 计算目标函数的值 return # 目标函数的值,根据实际情况进行定义 if __name__ == '__main__': main() ``` 在修改后的代码中,使用了一个for循环来进行优化搜索,而不是直接使用optimizer.optimize()方法。在每次迭代中,都会计算出当前所有解的目标函数的值,并将最优解和最优解的目标函数值进行更新。 在每次迭代中,会检查是否满足终止条件。如果满足,则跳出循环,否则继续进行下一次迭代。需要注意的是,在本例中,终止条件的设置可能需要根据实际情况进行微调。

相关推荐

将下面这段源码转换为伪代码:def bfgs(fun, grad, x0, iterations, tol): """ Minimization of scalar function of one or more variables using the BFGS algorithm. Parameters ---------- fun : function Objective function. grad : function Gradient function of objective function. x0 : numpy.array, size=9 Initial value of the parameters to be estimated. iterations : int Maximum iterations of optimization algorithms. tol : float Tolerance of optimization algorithms. Returns ------- xk : numpy.array, size=9 Parameters wstimated by optimization algorithms. fval : float Objective function value at xk. grad_val : float Gradient value of objective function at xk. grad_log : numpy.array The record of gradient of objective function of each iteration. """ fval = None grad_val = None x_log = [] y_log = [] grad_log = [] x0 = asarray(x0).flatten() # iterations = len(x0) * 200 old_fval = fun(x0) gfk = grad(x0) k = 0 N = len(x0) I = np.eye(N, dtype=int) Hk = I old_old_fval = old_fval + np.linalg.norm(gfk) / 2 xk = x0 x_log = np.append(x_log, xk.T) y_log = np.append(y_log, fun(xk)) grad_log = np.append(grad_log, np.linalg.norm(xk - x_log[-1:])) gnorm = np.amax(np.abs(gfk)) while (gnorm > tol) and (k < iterations): pk = -np.dot(Hk, gfk) try: alpha, fc, gc, old_fval, old_old_fval, gfkp1 = _line_search_wolfe12(fun, grad, xk, pk, gfk, old_fval, old_old_fval, amin=1e-100, amax=1e100) except _LineSearchError: break x1 = xk + alpha * pk sk = x1 - xk xk = x1 if gfkp1 is None: gfkp1 = grad(x1) yk = gfkp1 - gfk gfk = gfkp1 k += 1 gnorm = np.amax(np.abs(gfk)) grad_log = np.append(grad_log, np.linalg.norm(xk - x_log[-1:])) x_log = np.append(x_log, xk.T) y_log = np.append(y_log, fun(xk)) if (gnorm <= tol): break if not np.isfinite(old_fval): break try: rhok = 1.0 / (np.dot(yk, sk)) except ZeroDivisionError: rhok = 1000.0 if isinf(rhok): rhok = 1000.0 A1 = I - sk[:, np.newaxis] * yk[np.newaxis, :] * rhok A2 = I - yk[:, np.newaxis] * sk[np.newaxis, :] * rhok Hk = np.dot(A1, np.dot(Hk, A2)) + (rhok * sk[:, np.newaxis] * sk[np.newaxis, :]) fval = old_fval grad_val = grad_log[-1] return xk, fval, grad_val, x_log, y_log, grad_log

解释:def steepest_descent(fun, grad, x0, iterations, tol): """ Minimization of scalar function of one or more variables using the steepest descent algorithm. Parameters ---------- fun : function Objective function. grad : function Gradient function of objective function. x0 : numpy.array, size=9 Initial value of the parameters to be estimated. iterations : int Maximum iterations of optimization algorithms. tol : float Tolerance of optimization algorithms. Returns ------- xk : numpy.array, size=9 Parameters wstimated by optimization algorithms. fval : float Objective function value at xk. grad_val : float Gradient value of objective function at xk. grad_log : numpy.array The record of gradient of objective function of each iteration. """ fval = None grad_val = None x_log = [] y_log = [] grad_log = [] x0 = asarray(x0).flatten() # iterations = len(x0) * 200 old_fval = fun(x0) gfk = grad(x0) k = 0 old_old_fval = old_fval + np.linalg.norm(gfk) / 2 xk = x0 x_log = np.append(x_log, xk.T) y_log = np.append(y_log, fun(xk)) grad_log = np.append(grad_log, np.linalg.norm(xk - x_log[-1:])) gnorm = np.amax(np.abs(gfk)) while (gnorm > tol) and (k < iterations): pk = -gfk try: alpha, fc, gc, old_fval, old_old_fval, gfkp1 = _line_search_wolfe12(fun, grad, xk, pk, gfk, old_fval, old_old_fval, amin=1e-100, amax=1e100) except _LineSearchError: break xk = xk + alpha * pk k += 1 grad_log = np.append(grad_log, np.linalg.norm(xk - x_log[-1:])) x_log = np.append(x_log, xk.T) y_log = np.append(y_log, fun(xk)) if (gnorm <= tol): break fval = old_fval grad_val = grad_log[-1] return xk, fval, grad_val, x_log, y_log, grad_log

将这段代码转换为伪代码:def levenberg_marquardt(fun, grad, jacobian, x0, iterations, tol): """ Minimization of scalar function of one or more variables using the Levenberg-Marquardt algorithm. Parameters ---------- fun : function Objective function. grad : function Gradient function of objective function. jacobian :function function of objective function. x0 : numpy.array, size=9 Initial value of the parameters to be estimated. iterations : int Maximum iterations of optimization algorithms. tol : float Tolerance of optimization algorithms. Returns ------- xk : numpy.array, size=9 Parameters wstimated by optimization algorithms. fval : float Objective function value at xk. grad_val : float Gradient value of objective function at xk. grad_log : numpy.array The record of gradient of objective function of each iteration. """ fval = None # y的最小值 grad_val = None # 梯度的最后一次下降的值 x_log = [] # x的迭代值的数组,n*9,9个参数 y_log = [] # y的迭代值的数组,一维 grad_log = [] # 梯度下降的迭代值的数组 x0 = asarray(x0).flatten() if x0.ndim == 0: x0.shape = (1,) # iterations = len(x0) * 200 k = 1 xk = x0 updateJ = 1 lamda = 0.01 old_fval = fun(x0) gfk = grad(x0) gnorm = np.amax(np.abs(gfk)) J = [None] H = [None] while (gnorm > tol) and (k < iterations): if updateJ == 1: x_log = np.append(x_log, xk.T) yk = fun(xk) y_log = np.append(y_log, yk) J = jacobian(x0) H = np.dot(J.T, J) H_lm = H + (lamda * np.eye(9)) gfk = grad(xk) pk = - np.linalg.inv(H_lm).dot(gfk) pk = pk.A.reshape(1, -1)[0] # 二维变一维 xk1 = xk + pk fval = fun(xk1) if fval < old_fval: lamda = lamda / 10 xk = xk1 old_fval = fval updateJ = 1 else: updateJ = 0 lamda = lamda * 10 gnorm = np.amax(np.abs(gfk)) k = k + 1 grad_log = np.append(grad_log, np.linalg.norm(xk - x_log[-1:])) fval = old_fval grad_val = grad_log[-1] return xk, fval, grad_val, x_log, y_log, grad_log

将下面这段源码转换为伪代码:def levenberg_marquardt(fun, grad, jacobian, x0, iterations, tol): """ Minimization of scalar function of one or more variables using the Levenberg-Marquardt algorithm. Parameters ---------- fun : function Objective function. grad : function Gradient function of objective function. jacobian :function function of objective function. x0 : numpy.array, size=9 Initial value of the parameters to be estimated. iterations : int Maximum iterations of optimization algorithms. tol : float Tolerance of optimization algorithms. Returns ------- xk : numpy.array, size=9 Parameters wstimated by optimization algorithms. fval : float Objective function value at xk. grad_val : float Gradient value of objective function at xk. grad_log : numpy.array The record of gradient of objective function of each iteration. """ fval = None # y的最小值 grad_val = None # 梯度的最后一次下降的值 x_log = [] # x的迭代值的数组,n*9,9个参数 y_log = [] # y的迭代值的数组,一维 grad_log = [] # 梯度下降的迭代值的数组 x0 = asarray(x0).flatten() if x0.ndim == 0: x0.shape = (1,) # iterations = len(x0) * 200 k = 1 xk = x0 updateJ = 1 lamda = 0.01 old_fval = fun(x0) gfk = grad(x0) gnorm = np.amax(np.abs(gfk)) J = [None] H = [None] while (gnorm > tol) and (k < iterations): if updateJ == 1: x_log = np.append(x_log, xk.T) yk = fun(xk) y_log = np.append(y_log, yk) J = jacobian(x0) H = np.dot(J.T, J) H_lm = H + (lamda * np.eye(9)) gfk = grad(xk) pk = - np.linalg.inv(H_lm).dot(gfk) pk = pk.A.reshape(1, -1)[0] # 二维变一维 xk1 = xk + pk fval = fun(xk1) if fval < old_fval: lamda = lamda / 10 xk = xk1 old_fval = fval updateJ = 1 else: updateJ = 0 lamda = lamda * 10 gnorm = np.amax(np.abs(gfk)) k = k + 1 grad_log = np.append(grad_log, np.linalg.norm(xk - x_log[-1:])) fval = old_fval grad_val = grad_log[-1] return xk, fval, grad_val, x_log, y_log, grad_log

最新推荐

recommend-type

基于单片机的瓦斯监控系统硬件设计.doc

"基于单片机的瓦斯监控系统硬件设计" 在煤矿安全生产中,瓦斯监控系统扮演着至关重要的角色,因为瓦斯是煤矿井下常见的有害气体,高浓度的瓦斯不仅会降低氧气含量,还可能引发爆炸事故。基于单片机的瓦斯监控系统是一种现代化的监测手段,它能够实时监测瓦斯浓度并及时发出预警,保障井下作业人员的生命安全。 本设计主要围绕以下几个关键知识点展开: 1. **单片机技术**:单片机(Microcontroller Unit,MCU)是系统的核心,它集成了CPU、内存、定时器/计数器、I/O接口等多种功能,通过编程实现对整个系统的控制。在瓦斯监控器中,单片机用于采集数据、处理信息、控制报警系统以及与其他模块通信。 2. **瓦斯气体检测**:系统采用了气敏传感器来检测瓦斯气体的浓度。气敏传感器是一种对特定气体敏感的元件,它可以将气体浓度转换为电信号,供单片机处理。在本设计中,选择合适的气敏传感器至关重要,因为它直接影响到检测的精度和响应速度。 3. **模块化设计**:为了便于系统维护和升级,单片机被设计成模块化结构。每个功能模块(如传感器接口、报警系统、电源管理等)都独立运行,通过单片机进行协调。这种设计使得系统更具有灵活性和扩展性。 4. **报警系统**:当瓦斯浓度达到预设的危险值时,系统会自动触发报警装置,通常包括声音和灯光信号,以提醒井下工作人员迅速撤离。报警阈值可根据实际需求进行设置,并且系统应具有一定的防误报能力。 5. **便携性和安全性**:考虑到井下环境,系统设计需要注重便携性,体积小巧,易于携带。同时,系统的外壳和内部电路设计必须符合矿井的安全标准,能抵抗井下潮湿、高温和电磁干扰。 6. **用户交互**:系统提供了灵敏度调节和检测强度调节功能,使得操作员可以根据井下环境变化进行参数调整,确保监控的准确性和可靠性。 7. **电源管理**:由于井下电源条件有限,瓦斯监控系统需具备高效的电源管理,可能包括电池供电和节能模式,确保系统长时间稳定工作。 通过以上设计,基于单片机的瓦斯监控系统实现了对井下瓦斯浓度的实时监测和智能报警,提升了煤矿安全生产的自动化水平。在实际应用中,还需要结合软件部分,例如数据采集、存储和传输,以实现远程监控和数据分析,进一步提高系统的综合性能。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

:Python环境变量配置从入门到精通:Win10系统下Python环境变量配置完全手册

![:Python环境变量配置从入门到精通:Win10系统下Python环境变量配置完全手册](https://img-blog.csdnimg.cn/20190105170857127.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3FxXzI3Mjc2OTUx,size_16,color_FFFFFF,t_70) # 1. Python环境变量简介** Python环境变量是存储在操作系统中的特殊变量,用于配置Python解释器和
recommend-type

electron桌面壁纸功能

Electron是一个开源框架,用于构建跨平台的桌面应用程序,它基于Chromium浏览器引擎和Node.js运行时。在Electron中,你可以很容易地处理桌面环境的各个方面,包括设置壁纸。为了实现桌面壁纸的功能,你可以利用Electron提供的API,如`BrowserWindow` API,它允许你在窗口上设置背景图片。 以下是一个简单的步骤概述: 1. 导入必要的模块: ```javascript const { app, BrowserWindow } = require('electron'); ``` 2. 在窗口初始化时设置壁纸: ```javas
recommend-type

基于单片机的流量检测系统的设计_机电一体化毕业设计.doc

"基于单片机的流量检测系统设计文档主要涵盖了从系统设计背景、硬件电路设计、软件设计到实际的焊接与调试等全过程。该系统利用单片机技术,结合流量传感器,实现对流体流量的精确测量,尤其适用于工业过程控制中的气体流量检测。" 1. **流量检测系统背景** 流量是指单位时间内流过某一截面的流体体积或质量,分为瞬时流量(体积流量或质量流量)和累积流量。流量测量在热电、石化、食品等多个领域至关重要,是过程控制四大参数之一,对确保生产效率和安全性起到关键作用。自托里拆利的差压式流量计以来,流量测量技术不断发展,18、19世纪出现了多种流量测量仪表的初步形态。 2. **硬件电路设计** - **总体方案设计**:系统以单片机为核心,配合流量传感器,设计显示单元和报警单元,构建一个完整的流量检测与监控系统。 - **工作原理**:单片机接收来自流量传感器的脉冲信号,处理后转化为流体流量数据,同时监测气体的压力和温度等参数。 - **单元电路设计** - **单片机最小系统**:提供系统运行所需的电源、时钟和复位电路。 - **显示单元**:负责将处理后的数据以可视化方式展示,可能采用液晶显示屏或七段数码管等。 - **流量传感器**:如涡街流量传感器或电磁流量传感器,用于捕捉流量变化并转换为电信号。 - **总体电路**:整合所有单元电路,形成完整的硬件设计方案。 3. **软件设计** - **软件端口定义**:分配单片机的输入/输出端口,用于与硬件交互。 - **程序流程**:包括主程序、显示程序和报警程序,通过流程图详细描述了每个程序的执行逻辑。 - **软件调试**:通过调试工具和方法确保程序的正确性和稳定性。 4. **硬件电路焊接与调试** - **焊接方法与注意事项**:强调焊接技巧和安全事项,确保电路连接的可靠性。 - **电路焊接与装配**:详细步骤指导如何组装电路板和连接各个部件。 - **电路调试**:使用仪器设备检查电路性能,排除故障,验证系统功能。 5. **系统应用与意义** 随着技术进步,单片机技术、传感器技术和微电子技术的结合使得流量检测系统具备更高的精度和可靠性,对于优化工业生产过程、节约资源和提升经济效益有着显著作用。 6. **结论与致谢** 文档结尾部分总结了设计成果,对参与项目的人表示感谢,并可能列出参考文献以供进一步研究。 7. **附录** 包含程序清单和电路总图,提供了具体实现细节和设计蓝图。 此设计文档为一个完整的机电一体化毕业设计项目,详细介绍了基于单片机的流量检测系统从概念到实施的全过程,对于学习单片机应用和流量测量技术的读者具有很高的参考价值。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

:Python环境变量配置实战:Win10系统下Python环境变量配置详解

![python配置环境变量win10](https://img-blog.csdnimg.cn/20190105170857127.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3FxXzI3Mjc2OTUx,size_16,color_FFFFFF,t_70) # 1. Python环境变量配置概述 环境变量是计算机系统中存储和管理配置信息的特殊变量。在Python中,环境变量用于指定Python解释器和库的安装路径,以及其他影响
recommend-type

ps -ef|grep smon

`ps -ef|grep smon` 是在Linux或Unix系统中常用的命令组合,它用于检查当前系统的进程状态(process status)。当你运行这个命令时,`ps -ef` 部分会列出所有活跃的进程(包括用户、PID、进程名称、CPU和内存使用情况等),`grep smon` 部分则会对这些结果进行筛选,只显示包含 "smon" 这个字符串的进程行。 `smon` 往往指的是Oracle数据库中的System Monitor守护进程,这个进程负责监控数据库的性能和资源使用情况。如果你看到这个进程,说明Oracle数据库正在运行,并且该进程是正常的一部分。
recommend-type

基于单片机的继电器设计.doc

基于单片机的继电器设计旨在探索如何利用低成本、易于操作的解决方案来优化传统继电器控制,以满足现代自动控制装置的需求。该设计项目选用AT89S51单片机作为核心控制器,主要关注以下几个关键知识点: 1. **单片机的作用**:单片机在控制系统中的地位日益提升,它不仅因为其广泛的应用领域和经济性,还因为它改变了传统设计的思维方式,使得控制功能可以通过软件实现,如PID调节、模糊控制和自适应控制。这些技术降低了对硬件电路的依赖,提高了系统的性能。 2. **电路设计原理**:设计的核心是通过单片机的P2.0和P2.1引脚控制三极管Q1和Q2,进而控制继电器的工作状态。当单片机输出低(高)电平时,三极管导通(截止),继电器线圈得到(失去)电源,实现继电器的吸合(释放)和触点的闭合(断开)。这展示了单片机作为弱控制信号源对强执行电路(如电机)的强大驱动能力。 3. **技术发展趋势**:随着微控制技术的发展,单片机朝着高性能、低功耗、小型化和集成度高的方向发展。例如,CMOS技术的应用使得设备尺寸减小,功耗降低,而外围电路的设计也更加精简。此外,继电器在现代工业自动化和控制领域的广泛应用,使其成为电子元件市场的重要产品。 4. **市场竞争与创新**:继电器市场竞争激烈,企业不断推出创新产品,以满足不同领域的高级技术性能需求。继电器不再仅限于基本的开关功能,而是作为自动化和控制系统中的关键组件,扩展了其在复杂应用场景中的作用。 5. **技术挑战与解决方案**:课题的目标是设计一个投资少、操作简单的解决方案,解决对继电器的传统控制方式。通过巧妙地结合单片机和电子电路,实现了电动机正反转的控制,这是对传统继电器控制模式的革新尝试。 基于单片机的继电器设计是一种集成了先进技术的低成本控制方案,通过简化操作和提升系统性能,为现代自动控制装置提供了有效且高效的解决方案。
recommend-type

关系数据表示学习

关系数据卢多维奇·多斯桑托斯引用此版本:卢多维奇·多斯桑托斯。关系数据的表示学习机器学习[cs.LG]。皮埃尔和玛丽·居里大学-巴黎第六大学,2017年。英语。NNT:2017PA066480。电话:01803188HAL ID:电话:01803188https://theses.hal.science/tel-01803188提交日期:2018年HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaireUNIVERSITY PIERRE和 MARIE CURIE计算机科学、电信和电子学博士学院(巴黎)巴黎6号计算机科学实验室D八角形T HESIS关系数据表示学习作者:Ludovic DOS SAntos主管:Patrick GALLINARI联合主管:本杰明·P·伊沃瓦斯基为满足计算机科学博士学位的要求而提交的论文评审团成员:先生蒂埃里·A·退休记者先生尤尼斯·B·恩