欢迎光临散文网 会员登陆 & 注册

关于信息熵(香农熵)

2021-06-27 11:32 作者:子烨紫冶籽  | 我要投稿

这一部分有点头疼,做好心理准备吧。

测量信息熵的公式,需要满足这三个条件:

第一,它必须是连续性的

第二,如果每个事件的概率一样,那么事件的数目越大,这个公式结果也要越高。(可能性越高,信息熵的值也越高,意味着不可预测性更高)

第三,允许“叠buff”,也就是说

H(p_%7B1%7D%2Cp_%7B2%7D%2C...%2Cp_%7Bn%7D)%3DH(p_%7B1%7D%2Cq)%2BqH(%5Cfrac%7Bp_%7B2%7D%7D%7Bq%7D%2C%5Cfrac%7Bp_%7B3%7D%7D%7Bq%7D%2C...%2C%5Cfrac%7Bp_%7Bn%7D%7D%7Bq%7D)%2C%20p_%7B1%7D%2Bq%3D1

而满足这三个条件的,只有这个情况:

H%3D-K%5Csum_%7Bi%3D1%7D%5En%20p_%7Bi%7D%5Clog%20p_%7Bi%7D%2C%20k%3E0

具体这玩意怎样搞出来的,就是:

我们先应用第二个条件:

H(%5Cfrac%7B1%7D%7Bn%7D%2C%5Cfrac%7B1%7D%7Bn%7D%2C...%2C%5Cfrac%7B1%7D%7Bn%7D)

然后我们拆解一下,从s%5Em挑选一个,换成从s挑选m次。

打个比方,一个128位元的值,等于(0,1)之间选择了128次。

所以,A(s%5Em)%3Dm%5Ccdot%20A(s)

同样的,把s换成t,把m换成n也成立,随便选一个n,然后假设这个m可以满足:

s%5Em%5Cleq%20t%5En%20%3Cs%5E%7Bm%2B1%7D

加入对数,并除以n%5Clog%20s,就有两种可能:

%5Cfrac%7Bm%7D%7Bn%7D%20%5Cleq%20%5Cfrac%7B%5Clog%7Bt%7D%7D%7B%5Clog%7Bs%7D%7D%5Cleq%5Cfrac%7Bm%7D%7Bn%7D%2B%5Cfrac%7B1%7D%7Bn%7D,或者%5Cvert%20%5Cfrac%7Bm%7D%7Bn%7D%20-%20%5Cfrac%7B%5Clog%7Bt%7D%7D%7B%5Clog%7Bs%7D%7D%20%5Cvert%20%3C%5Cepsilon%20

考虑到第二个条件,

A(s%5Em)%5Cleq%20A(t%5En)%5Cleq%20A(s%5E%7Bm%2B1%7D)%2C%20m%20A(s)%5Cleq%20nA(t)%5Cleq%20(m%2B1)%20A(s)

后面那个再进行一次对数处理,除以nA(s)之后:

%5Cfrac%7Bm%7D%7Bn%7D%20%5Cleq%20%5Cfrac%7BA(t)%7D%7BA(s)%7D%20%5Cleq%20%5Cfrac%7Bm%2B1%7D%7Bn%7D

%5Cvert%20%5Cfrac%7BA(t)%7D%7BA(s)%7D%20-%20%5Cfrac%7B%5Clog%20%7Bt%7D%7D%7B%5Clog%20%7Bs%7D%7D%20%5Cvert%20%5Cleq%202%5Cepsilon%2CA(t)%20%3D%20-K%20%5Clog%7Bt%7D

这个K必须为正以满足第二个条件。

我们假设在n可能性中有个选项i,而其概率为p_i%3D%5Cfrac%7Bn_i%7D%7B%5CSigma%20n_%7Bi%7D%7D,使用第三个条件,可以这么组合:

K%5Clog%7B%5CSigma%20n_%7Bi%7D%7D%3DH(p_%7Bi%7D%2C...%2Cp_%7Bn%7D)%20%2B%20K%5CSigma%20p_%7Bi%7D%20%5Clog%7Bn_i%7D

所以

H%3DK%5B%5CSigma%20p_%7Bi%7D%5Clog%5CSigma%20n_%7Bi%7D-%5CSigma%20p_%7Bi%7D%20%5Clog%20%7Bn_%7Bi%7D%7D%5D%20%3D%20-%20K%5CSigma%20p_%7Bi%7D%5Clog%7B%5Cfrac%7Bn_%7Bi%7D%7D%7B%5CSigma%20n_%7Bi%7D%7D%7D%20%3D%20-K%20%5CSigma%20p_%7Bi%7D%20%5Clog%7Bp_%7Bi%7D%7D


关于信息熵(香农熵)的评论 (共 条)

分享到微博请遵守国家法律