用c++语言编写:以变量形式表达一个离散无记忆不等概率分布的信源 ,建议消息数取值范围: 7~10; 度量各消息的自信息量、该信源的信源熵和冗余度 ; 对该信源进行费诺编码、哈夫曼编码和香农编码; 分别计算上述信源编码的编码效率和码冗余度。 设置两组不同消息数和概率分布的信源对上述编程进 行测试,并作出结果分析。
时间: 2024-03-25 22:40:38 浏览: 140
好的,我会按照您的要求进行回答。
首先,以变量形式表达一个离散无记忆不等概率分布的信源,我们可以使用一个数组来存储每个消息的概率值。假设这个数组为`double prob[10]`,其中`prob[i]`表示第i个消息的概率值。在代码实现中,需要保证`prob`数组中所有元素之和等于1。
自信息量的计算公式为`log2(1/p)`,其中p表示消息的概率。可以用以下代码来计算第i个消息的自信息量:
```c++
double self_info = -log2(prob[i]);
```
信源熵的计算公式为`-Σp*log2(p)`,其中Σ表示对所有消息概率求和。可以用以下代码来计算信源熵:
```c++
double entropy = 0.0;
for(int i=0; i<num_msg; i++){
entropy -= prob[i] * log2(prob[i]);
}
```
冗余度的计算公式为`(Hmax - H)/Hmax`,其中Hmax表示消息数的最大熵,即使用等概率分布时的信源熵,计算公式为`log2(num_msg)`。可以用以下代码来计算冗余度:
```c++
double Hmax = log2(num_msg);
double redundancy = (Hmax - entropy) / Hmax;
```
费诺编码的实现比较简单,只需要按照概率从大到小排序,将概率较大的消息用较短的编码表示,概率较小的消息用较长的编码表示。可以用以下代码来实现:
```c++
sort(prob, prob+num_msg, greater<double>());
string fano_code[num_msg];
fano_encode(0, num_msg-1, prob, fano_code);
```
其中`fano_encode`函数为费诺编码的递归实现。
哈夫曼编码的实现和费诺编码类似,只需要使用哈夫曼树来构建编码。可以用以下代码来实现:
```c++
huffman_node* root = huffman_build(prob, num_msg);
string huffman_code[num_msg];
huffman_encode(root, "", huffman_code);
```
其中`huffman_build`函数用来构建哈夫曼树,`huffman_encode`函数用来递归实现哈夫曼编码。
香农编码和哈夫曼编码类似,只是使用了不同的编码树。可以用以下代码来实现:
```c++
shannon_fano_node* sf_tree = shannon_fano_build(prob, num_msg);
string sf_code[num_msg];
shannon_fano_encode(sf_tree, "", sf_code);
```
其中`shannon_fano_build`函数用来构建香农编码树,`shannon_fano_encode`函数用来递归实现香农编码。
编码效率的计算公式为`Σ(pi*|ci|)`,其中pi表示第i个消息的概率,|ci|表示第i个消息的编码长度。可以用以下代码来计算编码效率:
```c++
double fano_efficiency = 0.0, huffman_efficiency = 0.0, sf_efficiency = 0.0;
for(int i=0; i<num_msg; i++){
fano_efficiency += prob[i] * fano_code[i].length();
huffman_efficiency += prob[i] * huffman_code[i].length();
sf_efficiency += prob[i] * sf_code[i].length();
}
```
码冗余度的计算公式为`(L-H)/L`,其中L表示平均码长,即`Σ(pi*|ci|)`,H表示信源熵。可以用以下代码来计算码冗余度:
```c++
double fano_redundancy = (fano_efficiency - entropy) / fano_efficiency;
double huffman_redundancy = (huffman_efficiency - entropy) / huffman_efficiency;
double sf_redundancy = (sf_efficiency - entropy) / sf_efficiency;
```
最后,对两组不同消息数和概率分布的信源进行编码并进行测试,可以得出不同编码方法的编码效率和码冗余度。可以对比不同编码方法的优劣性。
希望以上内容能够帮助您完成相关的编程任务。
阅读全文