欢迎光临散文网 会员登陆 & 注册

Polar Code--SCL 度量的解释

2022-12-06 19:16 作者:乐吧的数学  | 我要投稿

(对文章:Polar Code(7)SCL译码算法 | Marshall (marshallcomm.cn) 的补充说明)

https://marshallcomm.cn/2017/03/15/polar-code-7-scl-decoder/


录制的视频在:https://www.bilibili.com/video/BV1ke411A71V/

PM_l%5E%7B%5Bi%5D%7D%20%5Coverset%7B%5Ctriangle%7D%7B%3D%7D%20%20%5Csum_%7Bj%3D1%7D%5E%7Bi%7D%20ln(1%2Bexp(-(1-2%20%5Chat%7Bu%7D_j%5Bl%5D)%20L_N%5E%7B(j)%7D)%20%5Cquad%20----%5Cquad%20(1)


其中 L_N%5E%7B(j)%7D  是对数似然比,记为:LLR%20(W_N%5Ej), 定义如下:


L_N%5E%7B(j)%7D%20%3D%20ln%20%5Cfrac%0A%0A%7BW_N%5E%7B(j)%7D(y_1%5EN%2C%5Chat%20u_1%5E%7Bj-1%7D%7C%5Chat%20u_j%3D0)%7D%0A%0A%7BW_N%5E%7B(j)%7D(y_1%5EN%2C%5Chat%20u_1%5E%7Bj-1%7D%7C%5Chat%20u_j%3D1)%7D%20%20%3D%20LLR%20(W_N%5Ej)


这是对数似然比。我们再把对数去掉,引入似然比来分析,令:


LR%20(W_N%5Ej)%20%3D%20%20%5Cfrac%0A%0A%7BW_N%5E%7B(j)%7D(y_1%5EN%2C%5Chat%20u_1%5E%7Bj-1%7D%7C%5Chat%20u_j%3D0)%7D%0A%0A%7BW_N%5E%7B(j)%7D(y_1%5EN%2C%5Chat%20u_1%5E%7Bj-1%7D%7C%5Chat%20u_j%3D1)%7D


其中

LLR : Log Likelihood Ratio

LR:  Likelihood Ratio


则:


LLR%20(W_N%5Ej)%20%3D%20ln%20(LR%20(W_N%5Ej))


则公式 (1) 可以写成:


PM_l%5E%7B%5Bi%5D%7D%20%5Coverset%7B%5Ctriangle%7D%7B%3D%7D%20%20%5Csum_%7Bj%3D1%7D%5E%7Bi%7D%20ln(1%2BLR%20(W_N%5Ej)%5E%7B%20(-(1-2%20%5Chat%7Bu%7D_j%5Bl%5D))%7D)%20%5Cquad%20----%5Cquad%20(2)


我们来分析一下各种情况:


if%20LR%20(W_N%5Ej)%20%3E%201%2C%20%5Ctext%7Bthen%20imply%20that%20%7D%20u_j%20%3D%200%20%0A%0A%20%5Cbegin%7Bcases%7D%0A%0A%20%20%5Ctext%7B%E5%88%A4%E5%86%B3%20%20%7D%5Chat%20u_j%20%3D%200%2C%20%26%20-(1-2%20%5Chat%7Bu%7D_j)%3D-1%2C%20%20%26%20LR%20(W_N%5Ej)%5E%7B-1%7D%20%3C1%5C%5C%0A%0A%20%20%5Ctext%7B%E5%88%A4%E5%86%B3%20%20%7D%5Chat%20u_j%20%3D%201%2C%20%26%20-(1-2%20%5Chat%7Bu%7D_j)%3D%2B1%2C%20%20%26%20LR%20(W_N%5Ej)%5E%7B%2B1%7D%20%3E1%5C%5C%0A%0A%5Cend%7Bcases%7D%20%20%5C%5C%20%20%5Cquad%0A%0A%5C%5C%20%5Cquad%0A%0A%5C%5C%0A%0Aif%20LR%20(W_N%5Ej)%20%3C%201%2C%20%5Ctext%7Bthen%20imply%20that%20%7D%20u_j%20%3D%201%20%0A%0A%20%5Cbegin%7Bcases%7D%0A%0A%20%20%5Ctext%7B%E5%88%A4%E5%86%B3%20%20%7D%5Chat%20u_j%20%3D%200%2C%20%26%20-(1-2%20%5Chat%7Bu%7D_j)%3D-1%2C%20%20%26%20LR%20(W_N%5Ej)%5E%7B-1%7D%20%3E1%5C%5C%0A%0A%20%20%5Ctext%7B%E5%88%A4%E5%86%B3%20%20%7D%5Chat%20u_j%20%3D%201%2C%20%26%20-(1-2%20%5Chat%7Bu%7D_j)%3D%2B1%2C%20%20%26%20LR%20(W_N%5Ej)%5E%7B%2B1%7D%20%3C1%5C%5C%0A%0A%5Cend%7Bcases%7D


如果似然比的数据给的暗示(imply) 与我们判决一致,则在公式 (2) 中 ln 里面加的数值就小于1,

如果似然比的数据给的暗示(imply) 与我们判决相反,则在公式 (2) 中 ln 里面加的数值就大于1


这样,在判断一致的情况下,度量值是增加得更少,判断不一致得情况下,度量值增加得更多,最后我们按照度量值最小的准则来选择译码路径,则可以让判断一致的可能性最大。


文章中有个近似,当判断一致时,由于在 ln 中增加的是一个小于 1 的数,所以,那个 ln 值就接近与 0,所以,这种情况下,度量值就不增不减;

而当判断不一致时,由于在 ln 中增加的是一个大于 1 的数,这里用了下面这个近似:


ln(1%2BLR%20(W_N%5Ej)%5E%7B%20(-(1-2%20%5Chat%7Bu%7D_j%5Bl%5D))%7D)%20%20%5Capprox%20%7Cln(LR%20(W_N%5Ej))%7C%20%3D%20%7CLLR(W_N%5Ej)%7C%20%3E%200


上面的大于1,是因为判断不一致时,LR > 1, 则 LLR > 0.


如果是冻结比特,走的路径又是“判决是1”,则度量变为  %2B%5Cinfty




Polar Code--SCL 度量的解释的评论 (共 条)

分享到微博请遵守国家法律