第 37 卷 第 4 期 自 动 化 学 报 Vol. 37, No. 4
2011 年 4 月 ACTA AUTOMATICA SINICA April, 2011
具有反馈信息的迭代学习控制律在
Lebesgue-p
p
p 范数意义下的收敛性
阮小娥
1
连建帮
1
吴慧卓
1
摘 要 针对 一类 线性 时不变系统, 提出了具有反馈信息的 PD-型
(Proportional-derivative-type) 迭代学习控制律, 利用卷积的推广的
Young 不等式, 分析了控制律在 Lebesgue-p 范数意义下的单调收敛
性. 分析表明, 收敛性不但决定于系统的输入输出矩阵和控制律的微分
学习增益, 而且依赖于系统的状态矩阵和控制律的比例学习增益; 进一
步, 当适当选取反馈增益时, 反馈信息可加快典型的 PD-型迭代学习控
制律的单调收敛性. 数值仿真验证了理论分析的正确性和控制律的有效
性.
关键词 迭代学习控制, 反馈, Lebesgue-p 范数, 单调收敛
DOI 10.3724/SP.J.1004.2011.00513
Convergence of Iterative Learning
Control with Feedback Information
in the Sense of Lebesgue- p
p
p Norm
RUAN Xiao-E
1
LIAN Jian-Bang
1
WU Hui-Zhuo
1
Abstract This paper addresses a kind of proportional-
derivative-type (PD-type) iterative learning control updating
law with feedback information for a class of linear time-invariant
systems. By taking advantage of the generalized Young inequal-
ity of convolution integral, monotone convergence of the updat-
ing law is analyzed in the sense of Lebesgue-p norm. The analysis
indicates that the convergence is determined not only by the sys-
tem input-output matrix and the derivative learning gain, but
also by the system state matrix and the proportional learning
gain. It is further shown that the feedback information may
speed up the convergence of the typical PD-type rule when the
feedback gains are properly chosen. Numerical simulation ex-
hibits the validity and the effectiveness.
Key words Iterative learning control, feedback, Lebesgue-p
norm, monotone convergence
上世纪 80 年代, Arimito 针对机器人手臂尝试多次重
复跟踪某一理想轨线问题, 提出了迭代学习控制 (Iterative
learning control) 方法
[1]
. 其基本控制机理是利用系统当前
运行时的跟踪误差信息, 修正其控制输入, 以得到系统下次
运行时的控制输入. 随着系统运行次数的不断递增, 迭代学
习控制单元将产生一递推型控制输入序列. 其控制目标是:
当该序列依次激励系统时, 系统的输出轨线越来越逼近理想
轨线, 最终实现完全跟踪理想轨线. 由于构建迭代学习控制
律不依赖于系统的动力学知识, 迭代学习控制方法和研究受
到了众多学者的青睐, 已经发展为最主要的智能控制方法之
一
[2−5]
.
收稿日期 2010-06-02 录用日期 2010-10-13
Manuscript received June 2, 2010; accepted October 13, 2010
国家自然科学基金 (F030114-60974140) 资助
Supported by National Natural Science Foundation of China
(F030114-60974140)
1. 西安交通大学理学院数学系 西安 710049
1. Department of Mathematics, Faculty of Science, Xi
0
an Jiaotong
University, Xi
0
an 710049
在迭代学习控制研究中, 为了保证控制律的可靠性, 一
个最基本的问题是理论分析学习控制律的收敛性. 在现有的
迭代学习控制研究文献中, 绝大部分的研究采用了 λ- 范数度
量跟踪误差 (其定义见第 1 节). 可以看出, λ- 范数是一种负
指数函数加权型的上确界范数. 那么, 在系统运行过程中, 运
行时刻越接近于运行区间的上界, 加权系数越小. 这时, 即使
在某时刻的跟踪误差很大, 误差的 λ- 范数值也不一定在该
时刻取得. 因此, λ- 范数在某种程度上不能客观地量化跟踪
误差的本质特征. 而且, 在 λ- 范数度量意义下的收敛性证明
过程中, 当 λ 充分大时才能保证控制律的收敛性
[1−8]
. 然而,
Lee 和 Bien 已经观察到, 当参数 λ 的取值较大时, 尽管在理
论上能保证学习控制律在 λ- 范数意义下的单调收敛性, 但
在系统的初始重复性运行阶段, 其暂态跟踪误差的上确界值
会超出实际工程系统的误差容许范围, 从而导致系统瘫痪
[9]
.
为了避免 λ- 范数的这一缺陷, Park 和 Bien 研究了基于跟
踪误差的典型的 PD-型 (Proportional-derivative-type) 迭代
学习控制律在上确界范数意义下的收敛性
[10]
. 分析表明, 在
上确界范数意义下, 控制律的单调收敛性只能在某一子区间
内得到保证, 该子区间的上界由系统动力学和学习增益确定,
而在系统的整个运行区间上的收敛性态不得而知. 进一步,
Park 和 Bien 研究了运行区间可调整的迭代学习控制机制和
控制律可子区间化修正的迭代学习控制策略, 以保证学习控
制律在上确界范数意义下的单调收敛性
[10−11]
. 但其控制律
算法结构非常复杂, 很难应用于实际工程系统. 从工程的可
应用性角度讲, 只有结构简单, 而且在通常度量意义下, 如误
差平方积分度量意义下, 单调收敛的学习控制律才是可执行
的.
无论是在理论研究中还是在实际应用中, Lebesgue-p 范
数是一个很好的度量方法. 它不但考虑了函数 f 在整个运
行区间上的上确界值, 而且考虑了 f 在整个运行区间上各
个运行时刻的函数值的 p 次方积分, 从而能更合理地量化和
反映函数 f 的性态. 譬如, 在实际工程应用中, p = 2 时的
Leb esgue-2 范数常常用来量化信号函数 f 的能量等. 目前为
止, 只有极少数学者采用 Lebesgue-p 范数研究迭代学习控制
的跟踪行为, 但未涉及算法的单调收敛性态
[12−13]
. 而且, 最
新的研究成果采用了 Lebesgue-2 范数评估迭代学习控制律
跟踪性态
[14]
. 但该控制律的算法结构、应用对象以及分析方
法与本文相应的内容有所不同.
由于基于跟踪误差的典型的 PD-型迭代学习控制律的算
法结构简单, 而且其比例和导数项有明确的物理意义, 因而受
到许多学者的追捧. 但其收敛性分析中, 以上所述的不足使
得其在实际工程中的可执行性受到质疑. 然而, 作者在多次
数值仿真中观察到, 在典型的 PD-型迭代学习控制律中, 如
果适当选取学习增益, 系统的跟踪误差在 Lebesgue-p 范数度
量意义下是单调收敛的, 因而在实际应用中是可执行的; 而
且, 在该控制律中, 引入系统运行中的反馈信息可加快学习
过程的收敛性. 因此, 理论论证具有反馈信息的 PD-型迭代
学习控制律在 Lebesgue- p 范数度量意义下的单调收敛性是
至关重要的.
本文针对具有反馈信息的 PD-型迭代学习控制律, 利用
卷积的推广的 Young 不等式分析其在 Lebesgue-p 范数意义
下的单调收敛性. 同时, 讨论典型的 PD-型迭代学习控制律
的单调收敛性, 确定学习增益和系统动力学对控制律的收敛
性的主导作用.