本文介绍随机变量中正交、不相关、独立的区别和联系。
三者均是描述随机变量之间关系的概念,看似都可以表示两个随机变量的疏远关系,但定义和约束均有不同。
定义R(X, Y) = E[XY]为相关函数:若R(X, Y)=0,称X,Y正交
定义 E[XY] = E[X]E[Y],则X,Y不相关
不相关也可以用协方差为0表示
不相关也可以用相关系数为0表示
独立一般用他们的概率密度函数来表示。联合分布等于他们各自的独立边缘分布的乘积,则称为独立:
独立是对变量更严苛的要求,如果两个随机变量独立,则必定不相关,也就是说独立是不相关的充分不必要条件。
因此独立变量不相关,而相反不相关无法直接推导出独立
在随机变量服从高斯分布时,不相关可以推导出独立: