信息熵、交叉熵、互信熵
时间: 2023-10-07 12:11:50 浏览: 104
熵与信息熵
信息熵、交叉熵和互信息熵都是信息论中常用的概念,它们都是用来度量信息的不确定性和随机性的。
信息熵是用来度量一个随机变量的不确定性,它的定义为:$H(X)=-\sum_{i=1}^{n}p(x_i)\log_2p(x_i)$,其中 $p(x_i)$ 表示随机变量 $X$ 取值为 $x_i$ 的概率,$n$ 表示 $X$ 的取值个数。信息熵的单位是比特(bit)或纳特(nat)。
交叉熵是用来比较两个概率分布之间的差异,它的定义为:$H(p,q)=-\sum_{i=1}^{n}p(x_i)\log_2q(x_i)$,其中 $p$ 和 $q$ 分别表示两个概率分布,$n$ 表示分布的取值个数。交叉熵可以用来衡量一个模型的预测值与真实值之间的差异。
互信息熵是用来度量两个随机变量之间的相关性,它的定义为:$I(X;Y)=\sum_{x\in X}\sum_{y\in Y}p(x,y)\log_2\frac{p(x,y)}{p(x)p(y)}$,其中 $p(x,y)$ 表示 $X$ 和 $Y$ 同时取值为 $x$ 和 $y$ 的概率,$p(x)$ 和 $p(y)$ 分别表示 $X$ 和 $Y$ 分别取值为 $x$ 和 $y$ 的概率。互信息熵可以用来衡量两个随机变量之间的相关性,当互信息熵为正时,表示两个变量之间存在相关性,当互信息熵为零时,表示两个变量之间不存在相关性。
阅读全文