第二章 熵、相对熵与互信息
2.1 熵的定义
离散型随机变量的熵
的定义为:
其中,对数 所用的底是2,熵的单位是比特。
用表示期望。
的熵又解释为随机变量
的期望值。
2.2 联合熵和条件熵
联合熵
条件熵
链式法则
证明:
等价为:
推论:
2.3 相对熵与互信息
相对熵: 两个随机分布之间距离的度量
注意:
一般
互信息:随机变量之间相互依赖程度的度量
注意到:
随机变量与自身的互信息为该随机变量的熵,有时,熵又称为 自信息。
entropy.jpg
2.4链式法则
条件互信息