信息论与编码理论 百科内容来自于: 百度百科

《信息论与编码理论》图书1

内容简介
《信息论与编码理论》系统地讲述了信息论与编码论的基础理论与技术。其内容包括信息及信息的度量、信道及其容量、无失真信源编码、率失真理论与有失真信源编码、信道编码与信道编码定理、线性分组码、循环码、卷积码、Turbo码等。《信息论与编码理论》还介绍了编码技术在通信工程实践中的应用。《信息论与编码理论》内容丰富,取材经典、新颖,概念清楚,文字通俗,深入浅出,各章后面配有大量习题。可作为高等院校信息安全、通信工程、信息工程、电子工程、计算机等专业本科生的教材,也可作为相关专业科技人员的参考书。

《信息论与编码理论》图书2

作者:(美国)麦克尔里思著
ISBN:10位[7505383825] 13位[9787505383821]
出版日期:2006-8-1
定价:¥35.00 元

内容提要

本书主要介绍由香农理论发展起来的信息论与编码理论,用于解决通信中的基本问题。首先简要介绍编码的概念;第一部分介绍香农理论、信道与信源编码理论;第二部分详细介绍几种编码方案,可用于信道与信源编码。书中提供了大量实例,每章末均有习题与说明,以便于具有概率论与线性代数知识的读者掌握和理解。

编辑推荐

本书主要介绍由香农理论发展起来的信息论与编码理论,用于解决通信中的基本问题。首先简要介绍编码的概念;第一部分介绍香农理论、信道与信源编码理论;第二部分详细介绍几种编码方案,可用于信道与信源编码。书中提供了大量实例,每章末均有习题与说明,以便于具有概率论与线性代数知识的读者掌握和理解。
本书可用做信息、通信、电子工程等专业的相关课教材,也可作为有一定英语基础的人员自学使用。信息论是运用概率论与数理统计的方法研究信息、信息熵、通信系统、数据传输密码学数据压缩等问题的应用数学学科。 信息论将信息的传递作为一种统计现象来考虑,给出了估算通信信道容量的方法。信息传输和信息压缩是信息论研究中的两大领域。这两个方面又由信息传输定理、信源-信道隔离定理相互联系。 香农被称为是“信息论之父”。人们通常将香农于1948年10月发表于《贝尔系统技术学报》上的论文《A Mathematical Theory of Communication》(通信的数学理论)作为现代信息论研究的开端。这一文章部分基于哈里·奈奎斯特和拉尔夫·哈特利先前的成果。在该文中,香农给出了信息熵(以下简称为“熵”)的定义: H = - ∑ pilogpi i 这一定义可以用来推算传递经二进制编码后的原信息所需的信道带宽。熵度量的是消息中所含的信息量,其中去除了由消息的固有结构所决定的部分,比如,语言结构的冗余性以及语言中字母、词的使用频度等统计特性。 信息论中熵的概念与物理学中的热力学熵有着紧密的联系。玻耳兹曼与吉布斯在统计物理学中对熵做了很多的工作。信息论中的熵也正是受之启发。 互信息(Mutual Information)是另一有用的信息度量,它是指两个事件集合之间的相关性。两个事件X和Y的互信息定义为: I(X,Y) = H(X) + H(Y) - H(X,Y) 其中H(X,Y) 是联合熵(Joint Entropy),其定义为: H(X,Y) = - ∑ p(x,y)logp(x,y) x,y 互信息与多元对数似然比检验以及皮尔森χ2校验有着密切的联系。

目录

第1章 绪论
1.1 信息
1.1.1 信息的概念
1.1.2 信息的性质
1.2 通信系统模型
1.2.1 信源和信宿
1.2.2 编码器和译码器
1.2.3 信道和噪声
1.3 离散与连续
1.4 信息论和编码理论的形成和发展
小结
习题
第2章 信息的统计度量
2.1 自信息和条件自信息
2.1.1 自信息的定义与含义
2.1.2 条件自信息的定义与含义
2.2 互信息
2.2.1 互信息的定义与含义
2.2.2 互信息的性质
2.3 平均自信息(熵)
2.3.1熵的定义与含义
2.3.2 熵函数的数学性质
2.3.3 条件熵
2.3.4 联合熵
2.3.5 各种熵之间的关系
2.4 平均互信息
2.4.1 平均互信息的定义与含义
2.4.2 平均互信息的性质
2.4.3 各种熵和平均互信息量之间的关系
2.5 连续随机变量的互信息和相对熵
2.5.1 连续随机变量的统计特性
2.5.2 连续随机变量的互信息
2.5.3 连续随机变量的相对熵
小结
习题
第3章 离散信源
3.1 离散信源的数学模型
3.2 信源的分类
3.2.1 无记忆信源
3.2.2 有记忆信源
3.3 离散无记忆信源
3.3.1 离散无记忆信源及其熵
3.3.2 离散无记忆信源的扩展信源及其熵
3.4 马尔可夫信源
3.4.1 马尔可夫信源的定义
3.4.2 有限状态马尔可夫链
3.4.3 马尔可夫信源的马尔可夫链性质
3.4.4 马尔可夫信源的熵
3.5 离散平稳信源
3.5.1 平稳信源的概念
3.5.2 平稳信源的熵
3.6 信源的相关性和剩余度
小结
习题
第4章 离散信道
4.1 离散信道的数学模型
4.2 信道的分类
4.3 离散无记忆信道
4.3.1 离散无记忆信道的数学模型
4.3.2 信道疑义度和噪声熵
4.3.3 信道的平均互信息及其含义
4.4 信道的组合
4.5 信道容量
4.5.1 信息传输率
4.5.2 信道容量的定义及含义
4.5.3 三种特殊信道的容量
4.5.4 对称信道的容量
4.5.5 一般信道的容量
4.5.6 信源和信道的匹配
小结
习题
第5章 连续信源和连续信道
5.1 连续信源
5.1.1 连续信源的数学模型
5.1.2 连续信源的熵和互信息
5.2 连续信道及其信道容量
5.2.1 时间离散信道
5.2.2 连续信道
小结
习题
第6章 无失真信源编码
6.1 编码的基本概念
6.1.1 编码器和译码器
6.1.2 码的分类
6.1.3 N次扩展码
6.2 “无失真”的本质
6.3 定长码
6.4 变长码
6.4.1 变长码的衡量指标
6.4.2 变长码的特点
6.4.3 唯一可译码和即时码的判别
6.4.4 无失真信源编码定理(香农第一定理)
6.5 霍夫曼码
6.5.1 二元霍夫曼码
6.5.2 多元霍夫曼码
6.6 算术编码
6.6.1 算术编码的基本原理
6.6.2 算术编码方法
6.6.3 算术译码方法
6.7 LZW编码
6.7.1 LZW基本原理
6.7.2 LZW编码方法
小结
习题
第7章 限失真信源编码
7.1 失真的度量
7.1.1 失真函数和失真矩阵
7.1.2 序列失真
7.1.3 平均失真和保真度准则
7.2 信息率失真函数
7.2.1 信息率失真函数的定义和含义
7.2.2 信息率失真函数的定义域和性质
7.2.3 信息率失真函数和信道容量的关系
7.2.4 限失真信源编码定理(香农第三定理)
7.3 量化编码
7.3.1 量化编码的主要作用
7.3.2 均匀量化
7.3.3 最优量化
7.3.4 矢量量化编码
7.4 预测编码
7.4.1 预测编码的基本原理和方法
7.4.2 预测编码能够限失真压缩信源的原因
7.4.3 DPCM编译码原理
7.5 变换编码
7.5.1 变换编码的基本原理
7.5.2 变换编码能够限失真压缩信源的原因
7.5.3 离散余弦变换
7.5.4 变换编码的广泛应用
小结
习题
第8章 信道编码
8.1 信道编码的基本概念
8.1.1 编译码规则、检纠错能力
8.1.2 平均错误译码概率
8.2 译码规则
8.3 有噪信道编码定理(香农第二定理)
8.4 线性分组码
8.4.1 基本概念
8.4.2 线性分组码的性质
8.4.3 线性分组码的两个重要参数——编码效率和最小汉明距离
8.4.4 生成矩阵和监督矩阵
$firstVoiceSent
- 来自原声例句
小调查
请问您想要如何调整此模块?

感谢您的反馈,我们会尽快进行适当修改!
进来说说原因吧 确定
小调查
请问您想要如何调整此模块?

感谢您的反馈,我们会尽快进行适当修改!
进来说说原因吧 确定