信息论中的基本概念

定义:信息量是对信息的度量。
就跟时间的度量是秒一样,当我们考虑一个离散的随机变量x的时候,当我们观察到的这个变量的一个具体值的时候,我们接收到了多少信息呢?

多少信息用信息量来衡量,我们接受到的信息量跟具体发生的事件有关。

信息的大小跟随机事件的概率有关。
越小概率的事情发生了产生的信息量越大,如湖南产生的地震了;越大概率的事情发生了产生的信息量越小,如太阳从东边升起来了,其实代表着没有任何信息量。

一个具体事件的信息量应该是随着其发生概率而递减的,且不能为负。

如果我们有俩个不相关的事件x和y,那么我们观察到的俩个事件同时发生时获得的信息应该等于观察到的事件各自发生时获得的 信息之和,即:
\(h(x,y) = h(x) + h(y)\).

由于x,y是俩个不相关的事件,那么满足 \(p(x,y)=p(x)p(y)\). 根据上面推导,可以看出: \(h(x)\) 一定与\(p(x)\)的对数有关,因此我们有信息量公式如下:
\(h(x) = -\log_2p(x)\).

思考两个问题:

为什么有负号?

为什么底数是2?

2 信息熵

定义:用来度量信息的不确定程度

解释: 熵越大,信息量越大。不确定程度越低,熵越小,比如“明天太阳从东方升起”这句话的熵为0,因为这个句话没有带有任何信息,它描述的是一个确定无疑的事情。

公式:
\[H(X) = -\sum_{i=1}^n p(x_i)\log{p(x_i)}\]

2.1 举个例子

题目:假设有随机变量X,用来表达明天天气的情况。X可能出现三种状态 1) 晴天2) 雨天 3)阴天。每种状态的出现概率均为P(i) = 1/3,那么根据熵的公式,可以计算得到:\(H(X) = - 1/3 * log(1/3) - 1/3 * log(1/3) - 1/3 * log(1/3) = 0.47712(10为底)\)。如果log以2为底得到的结果是1.58496。

关于“熵”不同的教材会有所区别,例如2、10、e为底,事实上影响的是“单位”,为了统一单位,使用换底公式进行调换。

如果这三种状态出现的概率为(0.1, 0.1, 0.8), 那么 \(H(X) = -0.1 * log(0.1) * 2 - 0.8 * log(0.8) = 0.27753\),以2为底的结果是:0.92193。

可以发现前面一种分布X的不确定程度很高,每种状态都很有可能。后面一种分布,X的不确定程度较低,第三种状态有很大概率会出现。 所以对应前面一种分布,熵值很高,后面一种分布,熵值较低(2为底)。

信息熵还可以作为一个系统复杂程度的度量,如果系统越复杂,出现不同情况的种
类越多,那么他的信息熵是比较大的。如果一个系统越简单,出现情况种类很少(极端情况为1种情况,那么对应概率为1, 那么对应的信息熵为0),此时的信息熵较小。

3 条件熵

在一个条件下,随机变量的不确定性。

\(H(X|Y) = -\sum_{x=0,1,2;y=0,1}^{x,y}p(x,y)\log{p(x|y)}\)

具有先后性。

4 信息增益

信息增益 = 熵 - 条件熵。

信息增益越大,机器学习越精准,loss越小。

信息增益的应用: 我们在利用进行分类的时候,常常选用信息增益更大的特征,信息增益大的特征对分类来说更加重要。决策树就是通过信息增益来构造的,信息增益大的特征往往被构造成底层的节点。

5 互信息

定义:指两个随机变量之间的相关程度。

理解:确定随机变量X的值后,另一个随机变量Y不确定性的削弱程度,因而互信息取值 最小为0,意味着给定一个随机变量对确定一另一个随机变量没有关系,最大取值为随机变量的熵,意味着给定一个随机变量,能完全消除另一个随机变量的不确定性。这个概念和条件熵相对。

公式:\(I(X;Y)=H(X)-H(X|Y)\)

经过推导后,我们可以直观地看到H(X)表示为原随机变量X的信息量,H(X|Y)为 知道事实Y后X的信息量,互信息I(X;Y)则表示为知道事实Y后,原来信息量减少 了多少。

假设X,Y完全无关,H(X) = H(X|Y) , 那么I(X;Y) = 0 假设X,Y完全相关,H(X|Y) =0, 那么I(X;Y) = H(X) 条件熵越大,互信息越小,条件熵越小,互信息越大。

互信息和信息增益实际是同一个值。

image

6 交叉熵

如果使用估计的分布q来表示来自真实分布p的平均编码长度,则:

\(H(p,q)=-\sum_{x}p(y)\log{q(x)}\).

注意与联合熵区别。

假如X为一组已知的输入特征值,Y为一组已知的输出分类。优化的目标是为了找到一个映射模型F, 使得预测值Y_ = F(X)与真值Y最相似。但现实世界的Y和Y_的分布肯定不是完全一致的。
所以:

Y 服从p分布(即真实分布)。

Y_ 服从q分布。

交叉熵cross_entropy即为描述p,q两个分布差异性的指标。

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/wpggzx.html