ProbabilityTheory

概率论相关公式整理如下:


第二章 基本概念

  • 交换律:A + B = B + A,AB=BA
  • 结合律:(A+B)+C=A+(B+C)=A+B+C,(AB)C=A(BC)=ABC
  • 分配律:(A+B)C=AC+BC,AB+C = (A+C)(B+C)
  • 德摩根律: $\overline{A+B}=\bar{A}\bar{B}$,$\overline{AB}=\bar{A}+\bar{B}$
  • P(A-B) = P(A)-P(AB)
  • P(A+B) = P(A) + P(B) - P(AB)
  • 乘法概率公式: 若P(B)>0,$P(AB)=P(B)P(A|B)$.若P(A)>0,$P(AB)=P(A)P(B|A)$. 一般地,$P(A_1A_2…A_{n-1})>0$,则$P(A_1A_2…A_n)=P(A_1)P(A_2|A_1)P(A_3|A_2A_1)…P(A_n|A_1A_2…A_{n-1})$
  • 全概率公式: $P(B)=\sum_{i=1}^{n}P(A_i)P(B|A_i)$
  • 贝叶斯概率公式: $P(B|A) = \frac{P(B)P(A|B)}{P(A)}$

第三章 分布

1.离散型分布

  • 1.0-1分布 $X\sim B(1,p)$ P(X=k)=p^k(1-p)^{1-k}(0<p<1,k=0,1)
  • 2.二项分布 $X \sim B(n,p)$ P(X=k)=C\_n^kp^kq^{n-k}(k=0,1,2,...,n)(0<p<1,q=1-p)
  • 3.泊松分布 $X \sim P(\lambda)$ P(X=k)=\frac{\lambda^ke^{-\lambda}}{k!}(k=0,1,2,...)

2.连续型分布

  • 1.均匀分布 $X \sim U[a,b]$ f(x)=\begin{cases} \frac{1}{b-a} & a\leq x\leq b \\ 0 & others \end{cases}
  • 2.指数分布 $X \sim E(\lambda)$ f(x)=\begin{cases} \lambda e^{-\lambda x} & x > 0 \\ 0 & x \leq 0 \end{cases}$\lambda>0$
  • 3.正态分布 $X\sim N(\mu,\sigma^2)$ f(x) = \frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{(x-\mu)^2}{2\sigma^2}},-\infty < x < +\infty

第四章 随机变量的特征

1.期望概念

  • 离散型: $E(X)=\sum_{i=1}^{\infty}x_ip_i$
  • 连续型: 设连续型随机变量X的概率密度函数为f(x),若积分$\int_{-\infty}^{+\infty}|x|f(x)dx<+\infty$存在,并称积分$\int_{-\infty}^{+\infty}xf(x)dx$为X的数学期望,记为E(X),即$E(X)=\int_{-\infty}^{+\infty}xf(x)dx$

2.期望性质

  • E(c) = c, 其中c为常数
  • E(cX) = cE(X), 其中c为常数
  • E(X+Y) = E(X) + E(Y)
  • 若X,Y相互独立,E(XY) = E(X)E(Y)

3.方差概念 $D(X)=E(X^2)-[E(X)]^2$

4.方差性质

  • D(c) = 0, 其中c为常数
  • $D(cX) = c^2D(X)$, 其中c为常数
  • 若X,Y相互独立, D(X+Y) = D(X) + D(Y)

5.协防差 $Cov(X,Y) = E{[X-E(X)][Y-E(Y)]}$

6.相关系数 $\rho_{XY}=\frac{Cov(X,Y)}{\sqrt{D(X)}\sqrt{D(Y)}}$

7.协防差和相关系数性质

  • Cov(X,Y) = Cov(Y,X)
  • Cov(aX,bY) = abCov(X,Y), a,b为常数
  • $Cov(X_1+X_2,Y) = Cov(X_1,Y) + Cov(X_2,Y)$
  • D(X+Y) = D(X) + D(Y) + 2Cov(X,Y)
  • Cov(X,Y) = E(XY) - E(X)E(Y)
  • $|\rho_{XY}| \leq 1$
  • 若X,Y相互独立,则$\rho_{XY}=0$
  • $\rho_{XY}=\pm$的充要条件是存在两个常数a,b,且$a\neq0$,使得$P{Y=aX+b}=1$.

第五章 大数定律和中心极限定理

1.契比雪夫不等式: 设随机变量X的数学期望为E(X)=a,方差为D(X),则对于给定的数$\epsilon>0$,有

P\{|X-a|\geq \epsilon\}\leq \frac{D(X)}{\epsilon^2}

2.大数定律: 设{Xn}为一随机变量序列,a为一个常数,如果对任何给定的正数$\epsilon$,有$\lim_{n \to \infty}P{|X_n-a|\geq \epsilon}=0$,则称随机变量序列{Xn}依概率收敛于a,记为X\_n \overset{P}{\rightarrow}a(n \to \infty).

3.契比雪夫大数定律: 设{Xn}为一随机变量序列,若对于所有的自然数n,数学期望E(Xn)及方差D(Xn)均存在,且存在某常数M>0,使得D(Xn)$\leq M$,则有\frac{1}{n}\sum\_{i=1}^{n}[X\_i-E(X\_i)]\overset{P}{\rightarrow}0.

4.贝努里大数定律: 在n次重复独立试验中,设Yn为事件A发生的次数,每次试验事件A发生的概率为P,则\frac{Y\_n}{n} \overset{P}{\rightarrow}P(n \to \infty).

5.辛钦大数定律: 设{Xn}为独立同分布的随机变量序列,且具有数学期望E(Xi)=$\mu,i=1,2,…$,则\frac{1}{n}\sum\_{i=1}^{n}X\_i\overset{P}{\rightarrow}\mu(n \to \infty).

6.中心极限定理: 设{Xn}为独立同分布的随机变量序列,且E(Xi)=$\mu$,D(Xi)=$\sigma^2\neq0,i=1,2,…$,则当n充分大时,$\frac{\sum_{i=1}^{n}X_i-E(\sum_{i=1}^{n}X_i)}{\sqrt{D(\sum_{k=1}^{n}X_k)}}$近似地服从标准正态分布,记作\frac{\sum\_{i=1}^{n}X\_i-E(\sum\_{i=1}^{n}X\_i)}{\sqrt{D(\sum\_{k=1}^{n}X\_k)}}=\frac{\sum\_{i=1}^{n}X\_k-n\mu}{\sqrt{n}\sigma}\sim N(0,1).

第六章 数理统计概念

1.统计量

  • 样本均值: $\bar{X}=\frac{1}{n}\sum_{i=1}^{n}X_i$
  • 样本方差: $S^2 = \frac{1}{n-1}\sum_{i=1}^{n}(X_i-\bar{X})^2=\frac{1}{n-1}[\sum_{i=1}^{n}X_i^2-n(\bar{X})^2]$
  • 样本标准差: $S=\sqrt{S^2}$
  • 样本k阶原点矩 $A_k=\frac{1}{n}\sum_{i=1}^{n}X_i^k(k=1,2,..)$
  • 样本k阶中心矩 $B_k=\frac{1}{n}\sum_{i=1}^{n}(X_i-\bar{X})^k$

2.抽样分布 卡方分布,F分布,正态分布

第七章 参数估计

1.矩估计: 概括来讲就是用样本矩估计总体矩(原点矩). 2.极大似然估计法

  • 离散型:概率连乘求极大
  • 连续型:概率密度函数连乘求偏导

3.估计量的评价标准:待完善

4.区间估计:待完善

第八章 假设检验

  • 1.建立原假设H0(备选假设H1)
  • 2.根据检验对象,构造适当的统计量g(X1,X2,…,Xn)
  • 3.在H0成立的条件下,确定统计量g(X1,X2,…,Xn)的分布
  • 4.由显著性水平$\alpha$确定临界值,从而得到拒绝域或接受域
  • 5.根据样本值计算统计量的观测值,由此作出接受原假设或拒绝原假设的结论

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏人工智能

评分卡系列(二):特征工程

文章很长,理论和实现都讲的很细,大家可以先收藏,有时间再看。 在上一篇文章中,我们对LendingClub的数据有了一个大致的了解,这次我将带大家把10万多条、...

86770
来自专栏机器之心

入门 | 从结构到性能,一文概述XGBoost、Light GBM和CatBoost的同与不同

选自Medium 机器之心编译 参与:刘天赐、黄小天 尽管近年来神经网络复兴并大为流行,但是 boosting 算法在训练样本量有限、所需训练时间较短、缺乏调参...

52750
来自专栏一名叫大蕉的程序员

机器学习虾扯淡之线性回归No.39

今天晚上,整理了一下线性回归的完整的数学推导过程以及应用。 0x00甩定义 首先什么是线性回归? 就是面包屑嘛,我们跟着一个一个面包屑走,然后duang~~在...

19470
来自专栏YoungGy

信息论中的各种熵

本文简单介绍了信息论中的各种熵,包括自信息、熵;联合熵、条件熵、互信息;KL散度、交叉熵。并在最后用信息论中的交叉熵推导了逻辑回归,得到了和最大似然法相同的结果...

25050
来自专栏数据派THU

手把手教线性回归分析(附R语言实例)

本文为你介绍线性回归分析。 通常在现实应用中,我们需要去理解一个变量是如何被一些其他变量所决定的。 回答这样的问题,需要我们去建立一个模型。一个模型就是一个公式...

1.3K20
来自专栏人工智能头条

推荐收藏 | AI术语中英文对照

16210
来自专栏杨熹的专栏

深度学习与自然语言处理 主要概念一览CS224d-Day 1:

---- CS224d-Day 1: 要开始系统地学习 NLP 课程 cs224d,今天先来一个课程概览。 课程一共有16节,先对每一节中提到的模型,算法,工...

385110
来自专栏美团技术团队

基于机器学习方法的POI品类推荐算法

前言 在美团商家数据中心(MDC),有超过100w的已校准审核的POI数据(我们一般将商家标示为POI,POI基础信息包括:门店名称、品类、电话、地址、坐标等)...

54570
来自专栏机器之心

专栏 | 监督&amp;强化学习模型在金融市场的应用

53140
来自专栏深度学习自然语言处理

近期有哪些值得读的QA论文?

■ 论文 | Making Neural QA as Simple as Possible but not Simpler

20230

扫码关注云+社区

领取腾讯云代金券