信息论
本文总结经典信息论和量子信息论的一些要点。经典部分写的稍微简单点。
写在前面的一些吐槽
~~为什么要有期中考试啊~~😟😟😟1. 熵
1.1 香农熵
事件集合和对应概率分别为:
香农熵定义(常以2为底):
相对熵(Kullback-Leibler 散度):
联合熵:
条件熵:
互信息(有的书上用 表示):
1.2 Von Neumann 熵
Von Neumann 熵定义为:
其中
量子相对熵:
量子联合熵:
特别的,如果密度矩阵能写成张量积形式,其联合熵为:
量子条件熵:
量子互信息:
性质:
-
Concavity
-
Subadditivity & Triangle inequality (Araki-Lieb inequality)
-
Strong Subadditivity
1.3 Holevo bound
考虑一个量子信息的传递过程:
Alice向Bob发送量子态
Holevo证明互信息存在上限:
Bob从
于是有:
不能用 个qubit传递 bit的信息
假设{0,1}均匀分布,Alice做一种编码:
其密度矩阵为:
本征值为
计算Holevo上界
因此,对于不取等号的情况,不能用一个qubit传递1bit的信息。这个结论可以进行推广。
数学上有
因此,如果将
等号成立的情况是比较特殊的,对于大部分情况,等号是不成立的。因此,不能用
关于用
同样可以解释为什么不能用
证明参考UCB的讲义:
https://people.eecs.berkeley.edu/~vazirani/s07quantum/notes/lec17/lec17.pdf
2. 信息论
熵率的定义:
考虑一个长度为n的序列的熵,当n趋向无穷的极限即为熵率。
2.1 Shannon’s noiseless channel coding theorem(无失真信源编码定理)
经典信息编码和解码的过程:
考虑一个独立同分布信源
可靠的意思是指当序列长度趋向无穷以后,解码后的序列等于原始序列的概率趋向1:
2.2 Schumacher’s noiseless channel coding theorem
量子信息编码和解码的过程:
考虑一个独立同分布量子信源
可靠的意思是指当序列长度趋向无穷以后,原始序列和解码后的序列之间的保真度趋向1:
2.3 Shannon’s noisy channel coding theorem
对于噪声信道
2.4 Holevo-Schumacher-Westmoreland (HSW) theorem
假设编码函数将序列
对于编码函数将经典信息编码为纠缠态的情况,猜测其信道容量的上限也为上式,但是还没有得到证明。