您好,欢迎光临有路网!
信息论与编码
QQ咨询:
有路璐璐:

信息论与编码

  • 作者:于秀兰
  • 出版社:人民邮电出版社
  • ISBN:9787115338143
  • 出版日期:2014年02月01日
  • 页数:307
  • 定价:¥45.00
  • 分享领佣金
    手机购买
    城市
    店铺名称
    店主联系方式
    店铺售价
    库存
    店铺得分/总交易量
    发布时间
    操作

    新书比价

    网站名称
    书名
    售价
    优惠
    操作

    图书详情

    内容提要
    《21世纪高等院校信息与通信工程规划教材:信息论与编码》可作为高等院校电子信息工程、通信工程等相关专业的本科生教材,也可作为相关领域中教学与科研人员和工程技术人员的参考用书
    目录
    第1章 绪论 1
    1.1 信息的概念 1
    1.1.1 什么是“信息” 1
    1.1.2 如何度量“信息” 2
    1.2 信息传输系统 3
    1.2.1 信息传输系统模型 3
    1.2.2 信息传输系统的性能指标 6
    1.3 信息论的研究内容 7
    1.3.1 基本信息论的研究内容 7
    1.3.2 一般信息论的研究内容 7
    1.3.3 广义信息论的研究内容 8
    1.4 信息论和编码理论的形成和发展 8
    习题 10
    第2章 信息的统计度量 11
    2.1 随机变量的统计特性 11
    2.1.1 随机变量的分类及其描述 11
    2.1.2 信源的统计特性 14
    2.1.3 信道的传输特性 15
    2.2 离散随机变量的自信息和信息熵 18
    2.2.1 自信息量 18
    2.2.2 信息熵 19
    2.2.3 信息熵的性质 21
    2.3 离散随机变量的联合自信息和联合熵 22
    2.3.1 联合自信息 22
    2.3.2 联合熵 23
    2.4 离散随机变量的条件自信息和条件熵 24
    2.4.1 条件自信息 24
    2.4.2 条件熵 25
    2.4.3 各类熵之间的关系 26
    2.5 离散随机变量的互信息和平均互信息 29
    2.5.1 互信息 29
    2.5.2 互信息的性质 30
    2.5.3 平均互信息 31
    2.5.4 平均互信息的性质 33
    2.5.5 平均互信息与各类熵之间的关系 36
    2.5.6 联合互信息和条件互信息 37
    2.5.7 信息处理定理 38
    2.6 连续随机变量的信息度量 39
    2.6.1 连续随机变量的熵 39
    2.6.2 连续随机变量的平均互信息 42
    本章小结 43
    习题 44
    第3章 离散信源和熵 49
    3.1 离散信源的分类 49
    3.2 离散信源的N次扩展信源 50
    3.2.1 N次扩展信源的数学模型 50
    3.2.2 离散信源的N次扩展信源的熵 51
    3.2.3 离散无记忆信源的N次扩展信源的熵 51
    3.3 离散平稳信源 53
    3.3.1 离散平稳信源的数学定义 53
    3.3.2 有限维离散平稳信源的条件熵 54
    3.3.3 二维离散平稳信源的平均符号熵 56
    3.3.4 离散平稳信源的极限熵 57
    3.3.5 计算极限熵的处理方法 59
    3.4 马尔可夫信源 60
    3.4.1 马尔可夫信源的描述 60
    3.4.2 齐次遍历的马尔可夫信源 62
    3.4.3 齐次遍历马尔可夫信源的极限熵 64
    3.5 信源的相关性和剩余度 68
    本章小结 70
    习题 71
    第4章 无失真信源编码 74
    4.1 信源编码的基本概念 74
    4.1.1 信源编码的数学模型 74
    4.1.2 信源编码的分类 75
    4.1.3 **可译码和即时码 76
    4.1.4 编码效率 79
    4.2 无失真信源编码定理 81
    4.2.1 无失真定长信源编码定理 81
    4.2.2 无失真变长信源编码定理 86
    4.3 常见的无失真信源编码方法 87
    4.3.1 香农(Shannon)码 88
    4.3.2 霍夫曼(Huffman)码 89
    4.3.3 费诺(Fano)码 96
    4.3.4 香农—费诺—埃利斯码 97
    4.3.5 算术码 99
    4.3.6 LZ码 104
    本章小结 106
    习题 107
    第5章 离散信道和信道容量 110
    5.1 离散信道的分类 110
    5.2 离散信道的数学模型 111
    5.3 信道容量 113
    5.3.1 信道的信息传输率 113
    5.3.2 信道容量的定义 114
    5.4 单符号离散信道及其信道容量 116
    5.4.1 典型信道的信道容量 116
    5.4.2 串联信道及其信道容量 120
    5.4.3 一般离散信道的信道容量 121
    5.4.4 信道容量的迭代算法 128
    5.5 多符号离散信道及其信道容量 134
    5.5.1 多符号离散信道的平均互信息 134
    5.5.2 离散无记忆信道的信道容量 135
    5.5.3 独立并联信道及其信道容量 136
    5.6 信源与信道的匹配 136
    本章小结 137
    习题 138
    第6章 有噪信道编码 141
    6.1 错误概率 141
    6.1.1 错误概率和译码规则 141
    6.1.2 错误概率与编码方法 145
    6.2 有噪信道编码定理 146
    6.3 联合信源信道编码定理 148
    6.4 信道编码的基本概念 150
    6.4.1 信道编码的分类 150
    6.4.2 线性分组码的检错和纠错能力 151
    6.4.3 *小汉明距离译码 153
    6.4.4 差错控制的三种方式 154
    6.4.5 差错控制的途径 154
    6.5 线性分组码 155
    6.5.1 线性分组码的编码 156
    6.5.2 线性分组码的译码 162
    6.5.3 完备码和汉明码 167
    6.5.4 对偶码 168
    6.5.5 扩展码、缩短码和删信码 169
    6.6 循环码 171
    6.6.1 循环码的码多项式 172
    6.6.2 循环码的生成多项式和生成矩阵 173
    6.6.3 循环码的监督多项式和监督矩阵 176
    6.6.4 循环码的编码电路 178
    6.6.5 循环码的伴随式 180
    6.6.6 循环码的译码电路 183
    6.6.7 CRC码 186
    6.7 BCH码和RS码 187
    6.7.1 有限域的基本知识 187
    6.7.2 二元BCH码 196
    6.7.3 多元BCH码和RS码 201
    6.8 卷积码 203
    6.8.1 卷积码的解析表示 203
    6.8.2 卷积码的图形描述 210
    6.8.3 卷积码的译码方法 211
    6.8.4 卷积码的特性 214
    6.8.5 删余卷积码 215
    6.8.6 递归型系统卷积码 216
    6.9 交织码 217
    6.10 级联码 218
    6.11 Turbo码 219
    6.11.1 Turbo编码 219
    6.11.2 Turbo译码 220
    6.12 LDPC码 225
    本章小结 226
    习题 228
    第7章 连续信源和连续信道 233
    7.1 连续信源和波形信源的信息度量 233
    7.1.1 一维连续信源的熵 233
    7.1.2 多维连续信源的熵 234
    7.1.3 波形信源的熵率 236
    7.2 连续信源的*大熵 237
    7.2.1 峰功率受限的连续信源 238
    7.2.2 平均功率受限的连续信源 238
    7.2.3 连续信源的熵功率 240
    7.3 连续信源熵的变换 241
    7.4 波形信道的分类和处理方法 242
    7.4.1 波形信道的分类 242
    7.4.2 波形信道的处理方法 243
    7.5 连续信道的平均互信息 244
    7.5.1 连续信道 244
    7.5.2 加性信道 245
    7.6 连续信道的信道容量 246
    7.6.1 一维高斯加性信道 247
    7.6.2 多维无记忆高斯加性信道 248
    7.7 波形信道的信道容量 250
    7.7.1 限带AWGN信道的容量 250
    7.7.2 香农公式的讨论 251
    7.8 连续信道编码定理 253
    本章小结 254
    习题 255
    第8章 限失真信源编码 258
    8.1 失真测度 258
    8.1.1 失真函数 259
    8.1.2 平均失真 262
    8.1.3 保真度准则 262
    8.2 信息率失真函数 263
    8.2.1 信息率失真函数的定义 264
    8.2.2 R(D)函数的性质 264
    8.2.3 常见信源的R(D)函数 267
    8.3 限失真信源编码定理 268
    8.4 R(D)函数的计算 270
    8.4.1 R(D)函数的参量表示法 270
    8.4.2 离散对称信源的R(D)函数 273
    8.5 联合限失真信源信道编码定理 278
    本章小结 280
    习题 280
    第9章 网络信息论初步 283
    9.1 网络信源 283
    9.2 网络信道 285
    9.2.1 多址接入信道 285
    9.2.2 广播信道 287
    9.3 网络信源和网络信道的联合/分离 288
    9.4 网络编码 289
    9.4.1 网络编码原理 289
    9.4.2 线性网络编码原理 290
    9.4.3 网络编码的优势 291
    9.5 协作通信 292
    9.5.1 中继网络中协作策略及其容量 294
    9.5.2 多中继高斯信道的容量 296
    附录A 詹森不等式及其应用 299
    A1 詹森不等式 299
    A2 利用詹森不等式证明的性质和定理 299
    附录B 信息度量的常用公式 305
    参考文献 308

    与描述相符

    100

    北京 天津 河北 山西 内蒙古 辽宁 吉林 黑龙江 上海 江苏 浙江 安徽 福建 江西 山东 河南 湖北 湖南 广东 广西 海南 重庆 四川 贵州 云南 西藏 陕西 甘肃 青海 宁夏 新疆 台湾 香港 澳门 海外