广义信息论目录
第一章 引论
1.1
背景
1.2
熵的历史回顾
1.3 Shannon信息论的诞生
1.4 广义信息论溯源
1.5
信息和熵的范畴及本书讨论范围
1.6 信息的本质——被反映的特殊性
第一章参考文献
第二章 Shannon信息论述评
2.1
基于频率解释的概率论
2.2
经典通信模型
2.3
经典信息量公式和Kullback信息公式
2.4 Shannon互信息公式
2.5
连续信源的熵和交互熵
2.6
信道容量和信道编码
2.7 Shannon熵的编码意义
2.8
限失真编码和信息率失真论
2.9 Shannon信息论的局限性
第二章参考文献
第三章
广义信息论的数学基础
3.1
集合Bayes公式 随机集落影
3.2
客观概率 主观概率 逻辑概率
3.3
预测熵及其性质
3.4 映射
集合划分 Shannon熵
3.5
广义映射 集合覆盖 广义熵
3.6
相似关系 相似度 不相似熵
3.7
预测熵和广义熵的编码意义
3.8
模糊映射 模糊相似关系 广义交互熵
3.9
隶属度确定 模糊分辨率函数
3.10 隶属度的柏拉图解释
第三章参考文献
第四章
广义通信模型和广义信息测度
4.1
广义通信模型和Popper的科学进化论
4.2
信源和信道可变时的概率预测信息
4.3
单个事件之间的广义信息量公式
4.4 广义Kullback信息公式及最佳预言选择
4.5
广义互信息公式及其性质
4.6
模式识别和天气预报的信息评价
4.7
广义自信息 连续信源和信宿的广义互信息
4.8
自然语言通信的优点
4.9
由广义信息测度得出的科学理论进步标准
第四章参考文献
第五章 通信优化
5.1
信源预测无失真编码定理
5.2
用广义信息准则代替预测的均方误差准则
5.3
检测和估计的广义信息准则
5.4
广义信道容量
5.5 限误差信息率及其和信息率失真的关系
5.6 保质信息率论——信息率失真论改造
5.7
具有相似关系的二元信源保质信息率函数
5.8 保质信息率和信源量化等级及主观分辨率的关系
5.9
图象视觉信息及通信优化
5.10 信息价值
保价值信息率
第五章参考文献
第六章
信息和统计
6.1
信息和Boltzmann熵的关系
6.2 最大熵原理和限误差信息率的关系
6.3
量子统计物理熵的Shannon信息论解释
6.4 建立在相似关系上的物理学熵公式
6.5 有序性
多样性 生物学统计
6.6 互信息减少定律——熵增大定律修正
第六章参考文献