基于 EM 参数估计的 GMM 模型建模
高斯混合模型是有效的描述数据集合分布的手段,高斯混合模型中各个单
高斯模型的均值、方差和权重的估计,实际上是样本空间下的参数估计问题。
参数估计的方法有很多,相比较而言,EM 算法是 MLE(Maximum Likelihood
Estimation)原理下的针对不完备数据集合的回归分析算法,它是由 E 步和 M
步迭代循环,直至误差小于给定门限为止。因此本文采用了一种基于 EM 方法
的高斯混合模型参数估计的方法对运动人体姿态进行建模,可以较准确的对模
型进行参数估计。对典型姿态建模之后还可以解决对姿态的识别问题。
3.2 EM 算法
3.2.1 EM 算法的含义
在统计学的研究领域中,主要存在着两大类的计算问题
[33]
,一类是极大似
然估计计算,另一类是贝叶斯计算。由于极大似然估计的计算,与贝叶斯的后
验众数的计算相类似,因此,可以从贝叶斯的角度来介绍统计的计算方法。
贝叶斯的计算方法大体上可以分成两类。其中一类是直接运用后验分布,
以得到后验均值或后验众数的估计,以及这种估计的渐进方差或者其近似值。
另一类则可以统称为数据添加算法,这也是最近发展很快,且应用很广的一种
算法,它不是直接对复杂的后验分布进行极大化或者模拟,而是在观察数据的
基础上,去添加一些“潜在数据”,从而使计算简化,并完成了一系列简单易行
的极大化或者模拟。
EM 算法是一种迭代算法,1977 年,Dempster 等人提出的求参数极大似然
估计值的一种方法,它可以从非完整数据集中对参数进行极大似然估计,因此
它也成为了一种非常简单实用的学习算法
[34]
。这种方法可以广泛地应用在处理
截尾数据、缺损数据、带有讨厌数据等所谓的不完全数据中。 EM 算法就是一
种从“不完全数据”中,求模型参数的极大似然估计的方法。 不完全数据,一般
分两种情况:一种是因为观察本身的限制或者错误,造成观察数据成为错漏的
不完全数据,另一种是由于参数的似然函数直接优化十分困难,而引入额外的
参数后就变得比较容易优化。所以,如果定义原始观察数据再加上额外数据组
成“完全数据”,原始观察数据自然而然也就成为了“不完全数据”。
EM 算法的每一步迭代中都包括一个 E 步--期望步(Expectation Step),一
个 M 步--极大似然步(Maximum Likelihood Step)。此种算法的优点在于,它
在一定意义下可以可靠地收敛到局部极大值,也就是说,在一般的条件下每次
迭代都可以增加似然函数值,当似然函数值为有界的条件下,迭代序列收敛到
评论5