目录
第1章 绪论
1.1 信息的概念
1.2 信息论的形成和发展
1.3 信息论的研究范畴
1.4 通信系统模型
1.5 习题
第2章 信源和信息熵
2.1 信源的特性和分类
2.2 离散信源的信息度量
2.2.1 信息量的定义
2.2.2 自信息量
2.2.3 联合信息量与条件自信息量
2.3 互信息量
2.3.1 互信息量的定义
2.3.2 互信息的性质
2.3.3 条件互信息和联合互信息
2.4 信源熵
2.5 条件熵和联合熵
2.6 熵函数的数学特性
2.7 加权熵
2.8 平均互信息量
2.9 信息不增性原理
2.10 平稳离散信源
2.10.1 离散平稳无记性信源的扩展信源
2.10.2 离散平稳信源的熵
2.10.3 马尔可夫信源
2.10.4 信源的冗余度
2.11 连续信源
2.11.1 连续随机变量的熵
2.11.2 □大相对熵
2.11.3 熵功率
2.12习题
第3章 信遒及信道容量
3.1 信道的数学模型和分类
3.1.1 信道的分类
3.1.2 单符号离散信道的数学模型
3.2 单符号离散信道中的熵速率与信道容量
3.2.1 离散无噪声信道的熵速率和信道容量
3.2.2 几种特殊离散信道的容量
3.2.3 对称离散信道的信道容量
3.2.4 离散信道容量的一般计算方法
3.3 多符号离散信道及其信道容量
3.4 组合信道的信道容量
3.4.1 串联信道及其信道容量
3.4.2 独立并联信道的信道容量
3.5 网络信息理论
3.5.1 多址接人信道
3.5.2 广播信道
3.5.3 相关信源的多用户信道
3.6 连续信道及其信道容量
3.6.1 连续信道的平均互信息量
3.6.2 连续信道的熵速率与信道容量
3.6.3 连续信源的香农公式与噪声
3.7 信道编码定理
3.8 习题
第4章 信源编码
4.1 编码的定义
4.2 码的分类
4.3 离散无失真信源编码定理
4.4 离散信源编码
4.4.1 香农编码
4.4.2 费诺编码
4.4.3 赫夫曼编码
4.4.4 游程编码
4.4.5 冗余位编码
4.4.6 Lempel-Ziv编码
……
第5章 信道编码
第6章 信息率失真函数
第7章 信息论方法的应用
参考文献
内容摘要
第2章信源和信息熵
2.1信源的特性和分类
信源是消息的来源,可以是人、生物、机器或其他事物。信息论是研究信源以符号的形式输出各种可能消息的不确定性。信源发出的消息对于接收者来说存在不确定性,只有当消息符号出现是随机的,预先无法确定时,该符号的出现才能提供信息。消息符号的出现在统计上具有某此规律性,因此可以用随机变量或随机矢量来描述信源。也就是说.可以用概率空间来描述信源。
描述信源输出消息的随机变量,可以在某一离散集合内取值,也可以在某一连续区佰内取值,相应的信源分别称为离散信源和连续信源。
信源输出的消息符号以离散符号的形式出现,例如,文字、字母、数字等,而且这此符县的个数都是有限的或可数无限值(可按自然数编号的无限称为可数无限,不可按自然数编号的无限称为不可数无限),这种信源就属于离散信源。、
……
精彩内容
《信息论与编码基础》全面地介绍了Shannon信息论的基本理论:信息的统计度量、Shannon三大编码定理以及对应的三类编码,无失真信源编码、限失真信源编码及信道编码。全书共分7章,主要内容包括绪论,信源和信源熵,无失真信源编码、限失真信源编码,信道及信道容量以及信道编码,信息率失真函数,信息论方法的应用等。
以下为对购买帮助不大的评价