欢迎光临散文网 会员登陆 & 注册

信息论学习笔记(二):离散无噪声系统

2022-09-02 18:22 作者:StepfenShawn  | 我要投稿

前言

今天我们继续啃信息论之父香农发布的论文A Mathematical Theory of Communication(通信中的数学理论)

香农-信息论之父


离散信道

接着上一篇笔记, 离散信道的容量C的定义如下:

N(T)表示时间为T的信号数目


如果出现信号 S1,...,Sn  的所有序列,这些符号的持续时间为 t1, ...,tn 。那么如何计算信道容量?


首先当然是计算S1,...,Sn  的所有序列数的和, 也就是N(t)




N(t) is then asymptotic for large t to Xt0 where X0 is the largest real solution of the characteristic equation, 这里奇妙地给出了一个特征方程, 大佬并没有给出证明。。。于是最大的N(t) -> Xt0, 我们可以解出该方程最大实数解X0:

至于这是怎么推导的呢? 首先我们要知道差分方程的特征方程的求法规律:

假设我们存在一个差分方程Y(x + 1) - aY(x) = 0

假设`Y(0)`已知, 我们如何解这个方程呢? 下面给出过程:

Y(1) = aY(0)

Y(2) = a*a*Y(0)

Y(3) = a*a*a*Y(0)

...

Y(X) = a ^x * Y(0)

令Y(0) = C

于是差分方程的通解为Y(X) = C*a^x

因此差分方程的解是一种指数形式, 于是我们就可以得出上式了:



因此根据离散信道的容量C的定义可化简为:


离散信源

在电报通信中,要传送的消息由字符序列组成。而这些字符序列中的字符出现的频率是不一样的, 就像E的出现频率要高于Q。我们就可以通过一些特殊方法进行处理来节省通信容量和时间。


何为离散? 就是一堆不连续的变量,在我看来更像是一种随机过程,正如香农所说:

Conversely, any stochastic process which produces a discrete sequence of symbols chosen from a finite set may be considered a discrete source.

离散符号序列是从有限集合中选出的随机变量, 就是离散信源.


接下来香农开始给我们展示了几种案例的马尔科夫过程, 这里就不记录啦!



信息熵的定义

因此, 由于离散信源是随机的过程, 我们能不能定义一个量,度量这样一个过程“生成”多少信息?甚至度量它以什么样的速率生成信息?


于是就定义了信息熵H(p1, p2, ..., pN), 并能够满足一下三条假定:

* H 关于 Pi 连续

* 如果所有Pi相等, 则Pi = 1 / n

* 如果一项选择被分解为两个连续选择,则原来的 H 应当是各个 H 值的加权和:


以下一图直观地表示了这一等价关系:



那么

满足以上假定的H就可以这样定义:


假设存在随机变量X, 我们将H(X)记为它的熵.


定义了信息熵后一切都是概率论的内容了,先学学概率论再来更新吧! 不得不感叹香农的离散数学是真的强!


最后附上该论文的地址: https://people.math.harvard.edu/~ctm/home/text/others/shannon/entropy/entropy.pdf


信息论学习笔记(二):离散无噪声系统的评论 (共 条)

分享到微博请遵守国家法律