信息技术中的信息理论:信源熵与信息量

需积分: 49 64 下载量 82 浏览量 更新于2024-08-08 收藏 2.95MB PDF 举报
"该资源是一本关于TCP/IP协议的书籍,第二版,书中涉及信息论的相关习题。" 在信息论中,信源熵(H(S))是衡量信源输出序列不确定性的一个重要概念,表示平均每个符号携带的信息量。在【5.1】题中,信源按照P(0) = 和P(1) = 的概率产生二元序列,通过计算得出信源熵H(S) = 0.811比特/符号。题目的目标是找到一个阈值N0,使得当N大于N0时,信源序列的自信息I(a i)与熵的差值满足一定条件,即P * I(a i) - H(S) ≥ 0.05。自信息I(si)是表示一个特定事件发生的信息量,它的方差D[I(si)]计算得到为0.4715。等长码编码定理指出,自信息的期望减去熵的平方根与错误率e和最小相对熵d有关。这里,e = 0.05,d = 0.99,解这个不等式可以找出N0。 在【2.1】题中,信息论被应用于解决找假币的问题。有12枚硬币,其中一枚假币的重量未知,可能是轻也可能是重。要找出假币,至少需要称量3次。每次称量消除不确定性的信息量为I=log3比特。根据信息论,为了确定哪一枚是假币,需要消除所有12种可能中的不确定性,即需要消除I=log12+log2=log24比特的信息。因此,称量次数等于总信息量除以每次称量的信息量,约为2.9次,向上取整为3次。 【2.2】题考察了不同事件的信息量计算。扔一对骰子,出现“两骰子点数之和为2”、“点数之和为8”和“点数是3和4”这三种情况分别对应不同的概率和信息量。例如,“两骰子点数之和为2”的概率是1/36,信息量为约5.17比特;“点数之和为8”的概率是5/36,信息量约为4.17比特;“点数是3和4”的概率是2/36,信息量约为4.17比特。 【2.3】题中,询问“明天是星期几”这个问题在不同情况下提供的信息量不同。如果不知道今天是星期几,答案有7种可能,信息量为2.807比特;如果已知今天是星期四,答案只有一种,所以信息量为0比特。 【2.4】题探讨的是条件概率和信息量。如果知道一个身高1.6米以上的女孩是大学生,这个信息提供了多少信息量。根据题目给出的概率,25%的女孩是大学生,75%的女大学生身高超过1.6米,而女孩中身高1.6米以上的占50%。如果某女孩身高超过1.6米且是大学生,这一信息提供了有关她是否大学生的额外确认,但具体信息量没有直接给出,需要计算这些条件概率的交叉部分。 这些习题展示了信息论在实际问题中的应用,如编码理论、概率计算以及不确定性消除等方面。通过解决这些问题,我们可以更好地理解信息熵、自信息、条件概率和信息量等概念。