信源编码 百科内容来自于: 百度百科

为了减少信源输出符号序列中的剩余度、提高符号的平均信息量,对信源输出的符号序列所施行的变换。具体说,就是针对信源输出符号序列的统计特性来寻找某种方法,把信源输出符号序列变换为最短的码字序列,使后者的各码元所载荷的平均信息量最大,同时又能保证无失真地恢复原来的符号序列。

信源编码

对输入信息进行编码,优化信息和压缩信息并且打成符合标准的数据包

作用

信源编码的作用之一是设法减少码元数目和降低码元速率,即通常所说的数据压缩;作用之二是将信源的模拟信号转化成数字信号,以实现模拟信号的数字化传输。

信源编码方式

最原始的信源编码就是莫尔斯电码,另外还有ASCII码和电报码都是信源编码。但现代通信应用中常见的信源编码方式有:Huffman编码、算术编码、L-Z编码,这三种都是无损编码,另外还有一些有损的编码方式。信源编码的目标就是使信源减少冗余,更加有效、经济地传输,最常见的应用形式就是压缩。
另外,在数字电视领域,信源编码包括 通用的MPEG—2编码和H.264(MPEG—Part10 AVC)编码等
相应地,信道编码是为了对抗信道中的噪音和衰减,通过增加冗余,如校验码等,来提高抗干扰能力以及纠错能力。

通信系统模型

[信源]->[信源编码]->[信道编码]->[信道传输+噪声]->[信道解码]->[信源解码]->[信宿]
一般信息论的书上都会有信源编码和信道编码的具体讲解,包括具体的编码方法。

专业表述

既然信源编码的基本目的是提高码字序列中码元的平均信息量,那么,一切旨在减少剩余度而对信源输出符号序列所施行的变换或处理,都可以在这种意义下归入信源编码的范畴,例如过滤、预测、域变换和数据压缩等。当然,这些都是广义的信源编码。
一般来说,减少信源输出符号序列中的剩余度、提高符号平均信息量的基本途径有两个:①使序列中的各个符号尽可能地互相独立;②使序列中各个符号的出现概率尽可能地相等。前者称为解除相关性,后者称为概率均匀化。
信源编码的一般问题可以表述如下:
信源编码

信源编码

若某信源的输出为长度等于 M的符号序列集合 式中符号 A为信源符号表,它包含着 K个不同的符号, A={ ɑk|k=1,…,K},这个信源至多可以输出 KM个不同的符号序列。记‖U‖=KM。所谓对这个信源的输出
信源编码

信源编码

进行编码,就是用一个新的符号表B的符号序列集合V来表示信源输出的符号序列集合U。若V的各个序列的长度等于 N,即 式中新的符号表 B共含 L个符号, B={ bl|l=1,…,L}。它总共可以编出 LN个不同的码字。类似地,记‖V‖=LN。为了使信源的每个输出符号序列都能分配到一个独特的码字与之对应,至少应满足关系 ‖ V‖= LN≥‖U‖=KM
或者 N/ M≥log K/log L
假若编码符号表 B的符号数 L与信源符号表 A的符号数 K相等,则编码后的码字序列的长度 N必须大于或等于信源输出符号序列的长度 M;反之,若有 N= M,则必须有 LK。只有满足这些条件,才能保证无差错地还原出原来的信源输出符号序列(称为码字的唯一可译性)。可是,在这些条件下,码字序列的每个码元所载荷的平均信息量不但不能高于,反而会低于信源输出序列的每个符号所载荷的平均信息量。这与编码的基本目标是直接相矛盾的。下面的几个编码定理,提供了解决这个矛盾的方法。它们既能改善信息载荷效率,又能保证码字唯一可译。
离散无记忆信源的定长编码定理
对于任意给定的 ε>0,只要满足条件 N/ M≥( H( U)+ ε)/log L
那么,当 M足够大时,上述编码几乎没有失真;反之,若这个条件不满足,就不可能实现无失真的编码。式中 H( U)是信源输出序列的符号熵。
信源编码

信源编码

通常,信源的符号熵 H( U)<log K,因此,上述条件还可以表示为 【 H( U)+ ε】/log LN/ M≤log K/log L
特别,若有 K= L,那么,只要 H( U)<log K,就可能有 N< M,从而提高信息载荷的效率。由上面这个条件可以看出, H( U)离log K越远,通过编码所能获得的效率改善就越显著。实质上,定长编码方法提高信息载荷能力的关键是利用了渐近等分性,通过选择足够大的 M,把本来各个符号概率不等[因而 H( U)<log K]的信源输出符号序列变换为概率均匀的典型序列,而码字的唯一可译性则由码字的定长性来解决。
离散无记忆信源的变长编码定理
变长编码是指 V的各个码字的长度不相等。只要 V中各个码字的长度 N i( i=1,…,‖ V‖)满足克拉夫特不等式 这 ‖ V‖个码字就能唯一地正确划分和译码。离散无记忆信源的变长编码定理指出:若离散无记忆信源的输出符号序列为, 式中 A={ ɑk|k=1,…,K},符号熵为 H( U),对 U进行唯一可译的变长编码,编码字母表 B的符号数为 L,即 B={ bl|l=1,…,L},那么必定存在一种编码方法,使编出的码字 V i=( vi1,…, viNi),( i=1,…,‖ V‖),具有平均长度嚻: M H( U)/log L≤嚻< M H( U)/log L+1
L= K,则当 H( U)<log K=log L时,必有嚻< MH( U)离log K越远,则嚻越小于 M
具体实现唯一可译变长编码的方法很多,但比较经典的方法还是仙农编码法、费诺编码法和霍夫曼编码法。其他方法都是这些经典方法的变形和发展。所有这些经典编码方法,都是通过以短码来表示常出现的符号这个原则来实现概率的均匀化,从而得到高的信息载荷效率;同时,通过遵守克拉夫特不等式关系来实现码字的唯一可译。
霍夫曼编码方法的具体过程是:首先把信源的各个输出符号序列按概率递降的顺序排列起来,求其中概率最小的两个序列的概率之和,并把这个概率之和看作是一个符号序列的概率,再与其他序列依概率递降顺序排列(参与求概率之和的这两个序列不再出现在新的排列之中),然后,对参与概率求和的两个符号序列分别赋予二进制数字0和1。继续这样的操作,直到剩下一个以1为概率的符号序列。最后,按照与编码过程相反的顺序读出各个符号序列所对应的二进制数字组,就可分别得到各该符号序列的码字。
例如,某个离散无记忆信源的输出符号序列及其对应的概率分布为
信源编码

信源编码

对这些输出符号序列进行霍夫曼编码的具体步骤和结果如表。
信源编码

信源编码

由表中可以看出,在码字序列中码元0和1的概率分别为10/21和11/21,二者近乎相等,实现了概率的均匀化。同时,由于码字序列长度满足克拉夫特不等式 2×2-2+3×2-3+2×2-4=1
因而码字是唯一可译的,不会在长的码字序列中出现划错码字的情况。
以上几个编码定理,在有记忆信源或连续信源的情形也有相应的类似结果。在实际工程应用中,往往并不追求无差错的信源编码和译码,而是事先规定一个译码差错率的容许值,只要实际的译码差错率不超过这个容许值即认为满意(见信息率-失真理论和多用户信源编码)。
$firstVoiceSent
- 来自原声例句
小调查
请问您想要如何调整此模块?

感谢您的反馈,我们会尽快进行适当修改!
进来说说原因吧 确定
小调查
请问您想要如何调整此模块?

感谢您的反馈,我们会尽快进行适当修改!
进来说说原因吧 确定