请证明在EM算法的迭代过程中, 已观测数据关于当前参数$\Theta^t$的对数“边际似然”单调非减, 即 \begin{align*} LL(\Theta^{t+1} \given \X) \geq LL(\Theta^t \given \X). \end{align*}
时间: 2023-08-25 16:15:00 浏览: 78
基于EM算法的对数正态参数估计
在EM算法中,每一次迭代都分为两个步骤:E步和M步。其中,E步根据当前参数$\Theta^t$,计算关于未观测数据的“边际似然”$LL(\Theta^t \given \X, \Z)$,即给定观测数据$\X$,对未观测数据$\Z$的边际概率密度函数的对数。M步则是根据上一步计算得到的边际似然,更新参数$\Theta^{t+1}$。
因此,我们只需要证明在E步和M步中,已观测数据关于当前参数$\Theta^t$的对数“边际似然”单调非减即可。
首先,在E步中,我们需要计算给定观测数据$\X$时,对未观测数据$\Z$的边际概率密度函数的对数。由于$log$函数是凹函数,因此根据Jensen不等式,我们有:
\begin{align*}
LL(\Theta^t \given \X) &= log \left( \sum_{\Z} p(\X, \Z \given \Theta^t) \right) \\
&\geq \sum_{\Z} p(\Z \given \X, \Theta^t) log \left( \frac{p(\X, \Z \given \Theta^t)}{p(\Z \given \X, \Theta^t)} \right) \\
&= \sum_{\Z} p(\Z \given \X, \Theta^t) log \left( p(\X \given \Z, \Theta^t) \right) \\
&= LL(\Theta^t \given \X, \Z)
\end{align*}
其中,$p(\Z \given \X, \Theta^t)$是给定观测数据$\X$和当前参数$\Theta^t$时,未观测数据$\Z$的后验概率;$p(\X \given \Z, \Theta^t)$是在给定未观测数据$\Z$和当前参数$\Theta^t$的条件下,观测数据$\X$的概率密度函数。
因此,我们可以得到在E步中,已观测数据关于当前参数$\Theta^t$的对数“边际似然”单调非减,即$LL(\Theta^{t+1} \given \X) \geq LL(\Theta^t \given \X)$。
接下来,在M步中,我们需要根据上一步计算得到的边际似然,更新参数$\Theta^{t+1}$。由于我们要最大化边际似然,因此在M步中,我们将$\Theta^{t+1}$设为使得$LL(\Theta \given \X)$最大化的值,即
\begin{align*}
LL(\Theta^{t+1} \given \X) &= \sum_{\Z} p(\Z \given \X, \Theta^t) log \left( \frac{p(\X, \Z \given \Theta^{t+1})}{p(\Z \given \X, \Theta^t)} \right) \\
&\geq \sum_{\Z} p(\Z \given \X, \Theta^t) log \left( p(\X, \Z \given \Theta^{t+1}) \right) \\
&= LL(\Theta^{t+1} \given \X, \Z)
\end{align*}
因此,在M步中,已观测数据关于当前参数$\Theta^t$的对数“边际似然”单调非减,即$LL(\Theta^{t+1} \given \X) \geq LL(\Theta^t \given \X)$。
综上所述,在EM算法的迭代过程中,已观测数据关于当前参数$\Theta^t$的对数“边际似然”单调非减。
阅读全文