前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >连续信源的熵与RD

连续信源的熵与RD

作者头像
timerring
发布2023-04-21 21:31:42
5480
发布2023-04-21 21:31:42
举报
文章被收录于专栏:TechBlogTechBlog

连续信源的熵

由于连续信源信号幅度取值无限性, 要精确表示这样的信号, 理论上需要无穷个bit才行。即连续信源的绝对熵为

\infty

仿照离散信源熵的定义, 有连续信源的熵(相对熵)定义为

H(X)=-\int_{-\infty}^{\infty} f(x) \log (f(x)) d x

其中

f(x)

为连续信源信号

\mathbf{X}

的概率密度函数。连续信源的 (相对) 熵可正可负。

R(D) 的定义域

率失真的定义域问题就是在信源和失真函数已知的情况下,讨论允许平均失真度

\bar{D}

的最小和最大取值问题

由于平均失真度

\bar{D}

是非负实数

d\left(x_{i}, y_{j}\right)

的数学期望, 因此

\bar{D}

也是非负的实数,即

\bar{D} \geq 0

, 故

\bar{D}

的下界是 0 。允许平均失真度能否达到其下限值0, 与单个符号的失真函数有关。

D_{\min }

R\left(D_{\min }\right)

信源的最小平均失真度:

D_{\min }=\sum_{i=1}^{n} p\left(x_{i}\right) \min _{j} d\left(x_{i}, y_{j}\right)

只有当失真矩阵的每一行至少有一个

\mathbf{0}

元素时,信源的平均失真度才能达到下限值

\mathbf{0}

\boldsymbol{D}_{\text {min }}=\mathbf{0}

, 即信源不允许任何失真时,信息率至少应等于信源输出的平均信息量一信息熵。

R(0)=H(X)

对于连续信源

R\left(D_{\min }\right)=\lim _{D \rightarrow 0} R(D) \rightarrow \infty

因为实际信道总是有干扰,其容量有限,要无失真地传送连续信息是不可能的。

当允许有一定失真时,

R(D)

将为有限值, 传送才是可能的。

\mathbf{R}(\mathbf{D})

的定义域为

[D_{\text {min }}, D_{\text {max }}]

  • 通常
D_{\text {min }}=0, \quad R\left(D_{\min }\right)=H(X)
  • 当 D ≥ D max  D \geq D_{\text {max }} D≥Dmax ​ 时, \quad R(D)=0
0 \leq D \leq D_{\text {max }}

时,

0\lt R(D)\lt H(X)

由于

I(X, Y)

是非负函数,而

R(D)

是在约束条件下的

I(X, Y)

的最小值, 所以

R(D)

也是一个非负函数, 它的下限值是零。

\boldsymbol{R}(D) \geq 0
D_{\text {max }}

:是定义域的上限。

D_{\text {max }}

是满足 R(D)=0 时所有的平均失真度中的最小值。

D_{\text {max }}=\min _{R(D)=0} D

由于

I(X, Y)=0

的充要条件是 X 与 Y 统计独立, 即:

\begin{array}{c} p\left(y_{j} \mid x_{i}\right)=p\left(y_{j}\right) \\ D_{\max }=\min _{p\left(y_{j}\right)} \sum_{i} \sum_{j} p\left(x_{i}\right) p\left(y_{j}\right) d\left(x_{i}, y_{j}\right) \\ =\min _{p\left(y_{j}\right)} \sum_{j} p\left(y_{j}\right) \sum_{i} p\left(x_{i}\right) d\left(x_{i}, y_{j}\right) \\ D_{\max }=\min _{j=1,2 \cdots m} \sum_{i=1}^{n} p\left(x_{i}\right) d\left(x_{i}, y_{j}\right) \end{array}

例: 设输入输出符号表为

\mathbf{X}=\mathbf{Y}=\{\mathbf{0}, 1\}

, 输入概率分布

p(x)=\{1 / 3,2 / 3\}

, 失真矩阵

d=\left[\begin{array}{ll} 0 & 1 \\ 1 & 0 \end{array}\right]

\mathbf{D}_{\min }

\mathbf{D}_{\max }

解:失真矩阵的每一行至少有一个 0 元素时,

D_{\min }=0
\begin{array}{l} D_{\max }=\min _{j=1,2} \sum_{i=1}^{2} p_{i} d_{i j} \\ =\min _{j}\left(\frac{1}{3} \times 0+\frac{2}{3} \times 1, \frac{1}{3} \times 1+\frac{2}{3} \times 0\right) \\ =\min _{j}\left(\frac{2}{3}, \frac{1}{3}\right)=\frac{1}{3} \end{array}

例: 设输入输出符号表为

\mathbf{X}=\mathbf{Y}=\{\mathbf{0}, \mathbf{1}\}

, 输入概率分布

p(x)=\{1 / 3,2 / 3\}

, 失真矩阵

d=\left[\begin{array}{ll} 1 / 2 & 1 \\ 2 & 1 \end{array}\right]

D_{\min }

\mathbf{D}_{\text {max }}

解:

\begin{array}{l} D_{\min }=\sum_{i=1}^{n} p\left(x_{i}\right) \min _{j} d\left(x_{i}, y_{j}\right) \\ =\frac{1}{3} \times \frac{1}{2}+\frac{2}{3} \times 1=\frac{5}{6} \\ D_{\max }=\min _{j=1,2} \sum_{i=1}^{2} p_{i} d_{i j}=\min _{j}\left(\frac{1}{3} \times \frac{1}{2}+\frac{2}{3} \times 2, \frac{1}{3} \times 1+\frac{2}{3} \times 1\right) \\ =\min _{j}\left(\frac{3}{2}, 1\right)=1 \\ \end{array}

参考文献:

  1. Proakis, John G., et al. Communication systems engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
  2. Proakis, John G., et al. SOLUTIONS MANUAL Communication Systems Engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
  3. 周炯槃. 通信原理(第3版)[M]. 北京:北京邮电大学出版社, 2008.
  4. 樊昌信, 曹丽娜. 通信原理(第7版) [M]. 北京:国防工业出版社, 2012.

本专栏包含信息论与编码的核心知识,按知识点组织,可作为教学或学习的参考。markdown版本已归档至【Github仓库:https://github.com/timerring/information-theory 】

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2023-04-17,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 连续信源的熵
    • R(D) 的定义域
    领券
    问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档