本文介绍随机变量中正交、不相关、独立的区别和联系。
概述
三者均是描述随机变量之间关系的概念,看似都可以表示两个随机变量的疏远关系,但定义和约束均有不同。...考察m维随机变量X,Y之间的关系。...定义
正交
定义R(X, Y) = E[XY]为相关函数:若R(X, Y)=0,称X,Y正交
不相关
定义 E[XY] = E[X]E[Y],则X,Y不相关
X,Y的协方差:
Cov(X,Y...联合分布等于他们各自的独立边缘分布的乘积,则称为独立:
p(X,Y) = p(X)p(Y)
关系
独立 -> 不相关
独立是对变量更严苛的要求,如果两个随机变量独立,则必定不相关,也就是说独立是不相关的充分不必要条件...若已知X,Y联合概率密度f(x, y)等于二者边缘密度函数g(x), h(y)的乘积,则有:
image.png
因此独立变量不相关,而相反不相关无法直接推导出独立
不相关 --高斯分布–> 独立