7434 words
37 minutes
CH02-Probability (Univariate Models)

2.1 Introduction#

2.1.1 What is Probability?#

Probability theory is nothing but common sense reduced to calculation.

---- Pierre Laplace, 1812

概率论不过是把常识简化为计算而已

概率通常有两种解释:

  • 频率学派:概率代表了多次发生的事件的长期频率
    • 例如:如果我们多次抛硬币,我们期望它应该有一半次数正面朝上。
  • 贝叶斯学派:概率是用来量化我们对某事物的不确定性或无知程度的,因此它从根本上与信息有关,而不是重复试验
    • 例如:我们相信硬币下次抛掷,正面或反面朝上的可能性是相同的。

贝叶斯学派的解释的一个巨大优势:可以用于建模一些不具有长期频率的一次性事件的不确定性,例如计算北极冰川再2030年代融化的概率。本书即采用贝叶斯视角。但幸运的是,无论采用哪种解释,概率论的基础规则是相同的。

2.1.2 Types of uncertainty#

我们预测的不确定性通常来源两个不同原因。

  • Epistemic uncertainty 认知不确定性:我们对于数据产生的潜在原因或机制的无知,also called model uncertainty
  • Aleatoric uncertainty 偶然不确定性:内在的随机性,即使收集再多数据也无法消除, also called data uncertainty
  • 例如抛硬币,我们确定正面朝上的概率是0.5,所以这里没有模型不确定性,但我们仍然无法完美预测结果
  • 在主动学习中这两者区别很重要,见 Section 6.1

2.1.3 Probability as an extension of logic#

在这一节中,我们将回顾概率的基本规则,我们将概率视为布尔逻辑的一个扩展。

2.1.3.1 Probability of an event#

我们定义一个事件,用二进制变量 AA 表示,例如:AA 可能是 “明天会下雨” or “昨天下雨了” or “the label is y=1” or “the param θ\theta is between 1.5 and 2.0”, 等等

我们用表达式 Pr(A)\Pr(A) 表示我们相信 AA 为真的概率(或者 AA 长期的发生频率)

0Pr(A)10\leq \Pr(A)\leq 1, Pr(A)=0\Pr(A)=0 意味着这个事件一定不会发生,Pr(A)=1\Pr(A)=1 意味着这个事件一定会发生

我们定义 Pr(Aˉ)\Pr(\bar{A}) 为事件 AA 不发生的概率,则 Pr(Aˉ)=1Pr(A)\Pr(\bar{A})=1-\Pr(A)

2.1.3.2 Probability of a conjunction of two events#

我们定义事件 AABB 一起发生的联合概率为:

Pr(AB)=Pr(A,B)\Pr(A\wedge B)=\Pr(A,B)

如果 AABB 是独立事件,则有:

Pr(A,B)=Pr(A)Pr(B)\Pr(A,B)=\Pr(A)\Pr(B)

2.1.3.3 Probability of a union of two events#

事件 AA or 事件 BB 发生的概率:

Pr(AB)=Pr(A)+Pr(B)Pr(AB)\Pr(A \vee B)=\Pr(A)+\Pr(B)-\Pr(A\wedge B)

如果两事件互斥,即不可能同时发生,则有:

Pr(AB)=Pr(A)+Pr(B)\Pr(A \vee B)=\Pr(A)+\Pr(B)

2.1.3.4 Conditional Probability of one event given another#

AA 事件已发生的条件下 BB 事件发生的条件概率

Pr(BA)Pr(A,B)Pr(A)\Pr(B|A)\triangleq\frac{\Pr(A,B)}{\Pr(A)}

如果 Pr(A)=0\Pr(A)=0 则无定义,因为我们不可能以一个不可能事件为条件。

2.1.3.5 Independence of events#

我们说事件 AABB 条件独立,如果满足如下条件:

Pr(A,B)=Pr(A)Pr(B)\Pr(A,B)=\Pr(A)\Pr(B)

2.1.3.6 Conditional independence of events#

我们说事件 AA 和事件 BB 在给定的事件 CC 下是条件独立的, 如果满足如下条件:

Pr(A,BC)=Pr(AC)Pr(BC)\Pr(A,B|C)=\Pr(A|C)\Pr(B|C)

记为 ABCA\bot B|C. 事件总是互相依赖,但是当我们给予相关的中间变量条件时,也许可以当作独立事件,本章后面会进一步讨论。

2.2 Random variables#

如果 XX 代表未知量 且/或 可以变化,我们称它 random variable or rv. XX 可能的取值范围记为 X\mathcal{X}, 称为 sample space or state space.

一个事件是一个给定样本空间的一系列结果。例如,如果 XX 代表骰子抛掷后朝上的面,则 X={1,2,...,6}\mathcal{X} = \{1,2,...,6\}, 事件“1面朝上”记为 X=1X = 1, 事件“奇数面朝上”记为 X{1,3,5}X\in\{1,3,5\}

2.2.1 Discrete random variables#

如果样本空间 X\mathcal{X} 是有限或可数无限的,则称 XX离散型随机变量,我们定义概率质量函数 probability mass function or pmf:

p(x)Pr(X=x)p(x)\triangleq \Pr(X = x)

pmf 满足以下性质:0p(x)10\leq p(x)\leq 1 and xXp(x)=1\sum_{x\in\cal{X}}p(x)=1

如果 XX 的值有限,例如有 KK 个取值,pmf 可以表示为一个 KK 个数字的列表,并且可以画成一个直方图。

2.2.2 Continuous random variables#

如果 XRX\in \mathbb R 是一个实数值,那么它为一个连续型随机变量

2.2.2.1 Cumulative distribution function (cdf)#

定义事件 A=(Xa),B=(Xb),C=(a<Xb)A=(X\leq a), B=(X\leq b), C=(a<X\leq b), 其中 a<ba<b.

易知 B=ACB = A\vee C, 且 AACC 互斥,由加法规则可得:

Pr(B)=Pr(A)+Pr(C)Pr(C)=Pr(B)Pr(A)Pr(B)=Pr(A)+Pr(C)\\ Pr(C)=Pr(B)-Pr(A)

我们定义随机变量 XX累积分布函数 cumulative distribution function or cdf

P(x)Pr(Xx)P(x)\triangleq Pr(X\leq x)

由此我们可以计算任意区间内的概率:

Pr(a<Xb)=P(b)P(a)Pr(a< X \leq b) = P(b)-P(a)

Cdf 是单调非减函数

2.2.2.2 Probability density function (pdf)#

我们定义 cdf 的微分为概率密度函数 probability density function or pdf

p(x)ddxP(x)p(x) \triangleq \frac{d}{dx}P(x)

注意这个微分不是总是存在的,若不存在则 pdf 无定义

一个单变量标准高斯分布的 cdf 和 pdf:

image-20211115201639273

给定一个 pdf, 我们可以计算出一个连续型变量在一个区间内的概率:

Pr(a<Xb)=abp(x)dx=P(b)P(a)Pr(x<Xx+dx)p(x)dxPr(a<X\leq b)=\int_a^b p(x) dx = P(b)-P(a)\\ Pr(x<X\leq x+dx)\approx p(x)dx

2.2.2.3 Quantiles#

如果 cdf P 严格单调递增,那么它有一个反函数,称作 inverse cdf, or percent point function (ppf) or quantile function.

如果 PPXX 的 cdf, 那么 P1(q)=xq,Pr(Xxq)=qP^{-1}(q)=x_q, Pr(X\leq x_q)=q ; 称 P1(q)P^{-1}(q)PP 的 q 分位数。

P1(0.5)P^{-1}(0.5) 是分布的中位数,左右各有一半概率;P1(0.75)P^{-1}(0.75)P1(0.25)P^{-1}(0.25) 分别是上下四分位数。

  • 以标准正态分布 N(0,1)\mathcal{N} (0,1) 为例, Φ\Phi 为它的 cdf,Φ1\Phi^{-1} 为 ppf.
    • 中央区间 (Φ1(α2),Φ1(1α2))(\Phi^{-1}(\frac{\alpha}{2}),\Phi^{-1}(1-\frac{\alpha}{2})) 包含 1α1-\alpha 的概率质量。
    • α=0.05\alpha = 0.05, 中央 95% 的区间都在范围 (1.96,1.96)(-1.96,1.96) 之内
  • 如果分布变为 N(μ,σ2)\mathcal{N} (\mu,\sigma^2), 那么 95% 区间变为 (μ1.96σ,μ+1.96σ)(\mu-1.96\sigma,\mu+1.96\sigma), 通常近似为 μ±2σ\mu\pm2\sigma

假设我们有两个 rv: XXYY, 我们可以定义两变量的联合分布 p(x,y)=p(X=x,Y=y)p(x,y)=p(X=x,Y=y).如果两变量取值都是有限的,则可以用一个 2d 表格表示这个联合分布。

p(X,Y)p(X,Y)Y=0Y=0Y=1Y=1
X=0X=00.20.3
X=1X=10.30.2

给定一个联合分布,我们定义其中一个 rv 的边缘分布为:

p(X=x)=yp(X=x,Y=y)p(X=x)=\sum_y p(X=x,Y=y)

这有时被称作 sum rule 或者 rule of total probability.

如果两个变量是独立的,即 XYX\bot Y,我们可以用两个边缘分布的乘积来表示联合分布。

image-20211115211220278

我们定义其中一个 rv 的条件分布是:

p(Y=yX=x)=p(X=x,Y=y)p(X=x)p(Y=y|X=x)=\frac{p(X=x,Y=y)}{p(X=x)}\\

重新排列这个等式后,我们得到:

p(x,y)=p(x)p(yx)p(x,y)=p(x)p(y|x)

这被称为product rule.

将 product rule 扩展到 D 个变量,我们得到概率的链式法则

p(x1:D)=p(x1)p(x2x1)p(x3x1,x2)p(x4x1,x2,x3)...p(xDx1:D1)p(\boldsymbol{x}_{1:D})=p(x_1)p(x_2|x_1)p(x_3|x_1,x_2)p(x_4|x_1,x_2,x_3)...p(x_D|\boldsymbol{x}_{1:D-1})

这为我们提供了一种由一系列条件分布产生高维联合分布的方法,后续会在 Section 3.6 继续探讨。

2.2.4 Independence and conditional independence#

如果我们可以用两个 rv 的边缘分布的乘积来表示联合分布,我们说这两个 rv 是无条件独立的 or 边缘独立的,记作XYX\bot Y.

XYp(X,Y)=p(X)p(Y)X\bot Y \Longleftrightarrow p(X,Y)=p(X)p(Y)

一般来说,如果联合分布可以写作多个边缘分布的沉积,我们说这些变量都是独立的。

p(X1,...,Xn)=i=1np(Xi)p(X_1,...,X_n)=\prod^n_{i=1}p(X_i)

不幸的是,无条件独立是十分稀有的,因为大多数变量之间都存在相互的影响。但是这种影响通常不是直接的,而是通过其他变量传导。因此,当且仅当条件联合分布可被写作两个条件边缘分布的乘积时,我们说 XXYY 条件独立于 ZZ conditionally independent (CI).

XYZp(X,YZ)=p(XZ)p(YZ)X\bot Y | Z \Longleftrightarrow p(X,Y|Z)=p(X|Z)p(Y|Z)

我们可以将这个假设写作一个图:XZYX-Z-Y, 其中将 XXYY 的所有依赖关系全部归结于 ZZ. 通过使用更大的图,我们可以定义更复杂的联合分布,这些被称作图模型,将在 Section 3.6 讨论。

2.2.5 分布的矩 Moments of a distribution#

这一部分我们介绍从概率分布中推导出来的各种总结统计量 summary statistics.

2.2.5.1 Mean of a distribution#

一个分布最常用的性质就是它的均值,or 期望,常记作 μ\mu. 连续型变量的均值定义如下:

E[x]Xxp(x)dx\mathbb{E}[x]\triangleq \int_{\mathcal{X}}xp(x)dx

如果这个积分不是有限的,则均值无定义;后面我们会看到一些例子。

离散型变量的均值定义如下:

E[x]xXxp(x)\mathbb{E}[x]\triangleq \sum_{x\in\mathcal{X}}xp(x)

由于平均值是一个线性运算,所以我们有:

E[aX+b]=aE[X]+b\mathbb{E}[aX+b]=a\mathbb{E}[X]+b

这被称为期望的线性

对于 n 个 rv,它们的和的期望是:

E[i=1nXi]=i=1nE[Xi]\mathbb{E}[\sum_{i=1}^nX_i]=\sum_{i=1}^n\mathbb{E}[X_i]

如果他们是独立的,它们的乘积的期望是:

E[i=1nXi]=i=1nE[Xi]\mathbb{E}[\prod_{i=1}^nX_i]=\prod_{i=1}^n\mathbb{E}[X_i]

2.2.5.2 Variance of a distribution#

方差描述的是一个分布的分散程度,记作 σ2\sigma^2. 定义如下:

V[X]E[(Xμ)2]=(xμ)2p(x)dx=x2p(x)dx+μ2p(x)dx2μxp(x)dx=E[X2]μ2\begin{aligned} \mathbb{V}[X] &\triangleq \mathbb{E}[(X-\mu)^2]\\ &=\int(x-\mu)^2p(x)dx \\ &= \int x^2p(x)dx+\mu^2\int p(x)dx-2\mu\int xp(x)dx\\ &=\mathbb{E}[X^2]-\mu^2 \end{aligned}

同时我们还得出:

E[X2]=μ2+σ2\mathbb{E}[X^2]=\mu^2+\sigma^2

标准差定义为:

std[X]V[X]=σstd[X]\triangleq \sqrt{\mathbb{V}[X]}=\sigma

随机变量的漂移缩放与方差的关系:

V[aX+b]=a2V[X]\mathbb{V}[aX+b]=a^2\mathbb{V}[X]

对于 n 个独立的 rv,它们的和的方差是方差的和:

V[i=1nXi]=i=1nV[Xi]\mathbb{V}[\sum_{i=1}^nX_i]=\sum_{i=1}^n \mathbb{V}[X_i]

它们的乘积的方差也可以推导出来:

V[i=1nXi]=E[(iXi)2](E[iXi])2=E[iXi2](iE[Xi])2=iE[Xi2]i(E[Xi])2=i(V[Xi]+(E[Xi])2)i(E[Xi])2=i(σi2+μi2)iμi2\begin{aligned} \mathbb{V}[\prod_{i=1}^nX_i]&=\mathbb{E}[(\prod_{i} X_i)^2]-(\mathbb{E}[\prod_{i} X_i])^2\\ &=\mathbb{E}[\prod_{i} X_i^2]-(\prod_{i}\mathbb{E}[X_i])^2\\ &=\prod_{i}\mathbb{E}[X_i^2]-\prod_{i}(\mathbb{E}[X_i])^2\\ &=\prod_{i}(\mathbb{V}[X_i]+(\mathbb{E}[X_i])^2)-\prod_{i}(\mathbb{E}[X_i])^2\\ &=\prod_{i}(\sigma_i^2+\mu_i^2)-\prod_{i}\mu_i^2 \end{aligned}

2.2.5.3 Mode of a distribution#

The mode of a distribution: 概率密度或概率质量函数的最大值所在点

x=argmaxx p(x)\boldsymbol{x}^*=\mathop{\arg\max}\limits_{\boldsymbol{x}}\ p(\boldsymbol{x})

如果分布是 multimodal 的,则模不唯一,但即使是唯一的,这也不是一个很好的总结参数。

2.2.5.4 条件矩 Conditional moments#

当我们有两个或更多互相依赖的 rv 时,我们可以给定一个的条件来计算另一个。例如,期望迭代定理,或者说全期望定理,告诉我们:

E[X]=EY[E[XY]]\mathbb{E}[X]=\mathbb{E}_Y[\mathbb{E}[X|Y]]

证明: for X and Y are both discrete rv

EY[E[XY]]=EY[xxp(X=xY)]=y[xxp(X=xY)]p(Y=y)=x,yxp(X=x,Y=y)=E[X]\begin{aligned} \mathbb{E}_Y[\mathbb{E}[X|Y]]&=\mathbb{E}_Y[\sum_x xp(X=x|Y)]\\ &=\sum_y[\sum_x xp(X=x|Y)]p(Y=y)\\ &=\sum_{x,y}xp(X=x,Y=y)\\ &=\mathbb{E}[X] \end{aligned}

为了一个更直观的解释,考虑如下的简单例子。令 XX 为一个灯泡的寿命,令 YY 为制造灯泡的工厂,假设 E[XY=1]=5000,E[XY=2]=4000\mathbb{E}[X|Y=1]=5000, \mathbb{E}[X|Y=2]=4000, 且工厂 1 制造了 60% 的灯泡,即 p(Y=1)=0.6,p(Y=2)=0.4p(Y=1)=0.6, p(Y=2)=0.4, 则其中一个随机灯泡的期望寿命为:

E[X]=E[XY=1]p(Y=1)+E[XY=2]p(Y=2)=5000×0.6+4000×0.4=4600\begin{aligned} \mathbb{E}[X]&=\mathbb{E}[X|Y=1]p(Y=1)+\mathbb{E}[X|Y=2]p(Y=2)\\ &=5000\times 0.6+ 4000\times 0.4=4600 \end{aligned}

同样,方差也有类似的公式,称作全方差定理 or 条件方差公式

V[X]=EY[V[XY]]+VY[E[XY]]\mathbb{V}[X]=\mathbb{E}_Y[\mathbb{V}[X|Y]]+\mathbb{V}_Y[\mathbb{E}[X|Y]]

为了证明此定理,我们首先定义一些条件矩:μXY=E[XY], sXY=E[X2Y], σXY2=V[XY]=sXYμXY2\mu_{X|Y}=\mathbb{E}[X|Y],\ s_{X|Y}=\mathbb{E}[X^2|Y],\ \sigma^2_{X|Y}=\mathbb{V}[X|Y]=s_{X|Y}-\mu^2_{X|Y}

这些都是关于Y的函数(因此都是随机量)

接下来可以得到

V[X]=E[X2](E[X])2=EY[E[X2Y]](EY[E[XY]])2=EY[sXY](EY[μXY])2=EY[σXY2]+EY[μXY2](EY[μXY])2=EY[V[XY]]+VY[μXY]=EY[V[XY]]+VY[E[XY]]\begin{aligned} \mathbb{V}[X]&=\mathbb{E}[X^2]-(\mathbb{E}[X])^2\\ &=\mathbb{E}_Y[\mathbb{E}[X^2|Y]]-(\mathbb{E}_Y[\mathbb{E}[X|Y]])^2\\ &=\mathbb{E}_Y[s_{X|Y}]-(\mathbb{E}_Y[\mu_{X|Y}])^2\\ &=\mathbb{E}_Y[\sigma^2_{X|Y}]+\mathbb{E}_Y[\mu^2_{X|Y}]-(\mathbb{E}_Y[\mu_{X|Y}])^2\\ &=\mathbb{E}_Y[\mathbb{V}[X|Y]]+\mathbb{V}_Y[\mu_{X|Y}]\\ &=\mathbb{E}_Y[\mathbb{V}[X|Y]]+\mathbb{V}_Y[\mathbb{E}[X|Y]] \end{aligned}

image-20211116103314041

为了直观理解这些公式,我们考虑 KK 个单变量高斯分布的混合,令 YY 为确定使用哪个混合部分的隐含变量,并且令 X=y=1KπyN(Xμy,σy)X=\sum_{y=1}^K\pi_y\mathcal{N}(X|\mu_y,\sigma_y). 上图所示的是两个高斯变量的混合,且 π1=π2=0.5,μ1=0,μ2=2,σ12=σ22=0.5\pi_1=\pi_2=0.5, \mu_1=0,\mu_2=2,\sigma^2_1=\sigma^2_2=0.5. 因此:

E[V[XY]]=π1σ12+π2σ22=0.5V[E[XY]]=π1(μ1μˉ)2+π2(μ2μˉ)2=0.5(01)2+0.5(21)2=1\begin{aligned} \mathbb{E}[\mathbb{V}[X|Y]]&=\pi_1\sigma_1^2+\pi_2\sigma_2^2=0.5\\ \mathbb{V}[\mathbb{E}[X|Y]]&=\pi_1(\mu_1-\bar{\mu})^2+\pi_2(\mu_2-\bar{\mu})^2\\ &=0.5(0-1)^2+0.5(2-1)^2\\ &=1 \end{aligned}

2.2.6 Limitations of summary statistics#

尽管我们习惯用均值和方差这些简单的统计量来概括一个概率分布或从一个分布中获得的抽样,这样做会导致很多信息丢失。下图所示的是安斯库姆四重奏 Anscombe’s quartet

anscombe

这四组数据均包含10个点,它们的低阶统计量都是相同的,但是他们的分布差别非常大。Anscombe构造这四组数据集的主要目的是反驳一些统计学家认为数量概括的重要性远超于数据可视化的观点。

image-20211116112022176

从 1d 数据集中也可以构造出类似的数据,如上图所示,所有7个数据集有相同的中位数和四分位距(IQR),所以在 box plot 上显示不出任何差异;此时使用 violin plot 是一个更好的可视化选择,除了中位数和四分位距,还显示出了1维核密度估计,但是这个方法仅限于1维数据。

2.3 Bayes’ rule#

Bayes’s theorem is to the theory of probability what Pythagoras’s theorem is to geometry. — Sir Harold Jeffreys, 1973

这一部分我们讨论贝叶斯推断的基础。术语”inference” (推断) 在 Merriam-Webster 词典内的解释是:“the act of passing from sample data to genralizations, usually with calculated degrees of certainty”. 术语”Bayesian” (贝叶斯) 用于指使用概率论来表示确定度的推理方法,并利用贝叶斯规则来更新给定数据的确定度。

贝叶斯规则本身是很简单的,给定一些观察数据 Y=yY=y, 计算未知数量 HH 的可能取值的概率分布:

p(H=hY=y)=p(H=h)p(Y=yH=h)p(Y=y)p(H=h|Y=y)=\frac{p(H=h)p(Y=y|H=h)}{p(Y=y)}

它是从如下公式中很自然的推导出的:

p(hy)p(y)=p(h)p(yh)=p(h,y)p(h|y)p(y)=p(h)p(y|h)=p(h,y)

而这个公式又是由概率的乘法法则推导出来。

在公式 (39) 中,p(H)p(H) 代表我们在看到任何数据之前所知的 HH 的可能取值;这被称为先验分布。假设 HHKK 个可能取值,那么 p(H)p(H) 是一个 KK 个概率的向量,和为1。

p(YH=h)p(Y|H=h) 代表 H=hH=h 的条件下,我们期望观察到的 YY 的可能的结果分布;这被称为观察分布。当我们在实际观察时评估 yy ,我们就得到了函数 p(Y=yH=h)p(Y=y|H=h),这被称作似然。似然函数是一个关于 hh 的函数,yy 是固定的,但是这不是一个概率分布,因为它加和不是1。

对于每个 hh, 先验分布 p(H)p(H) 乘以似然函数 p(Y=yH=h)p(Y=y|H=h) 给定了一个未标准化的联合分布 p(H=h,Y=y)p(H=h, Y=y). 我们可以将它除以 p(Y=y)p(Y=y),转化为一个标准分布。

p(Y=y)p(Y=y) 是一个独立于 HH 的常数,称为边缘似然 marginal likelihood,因为它的计算方式是通过边缘化未知的 HH:

p(Y=y)=hHp(H=h)p(Y=yH=h)=hHp(H=h,Y=y)p(Y=y)=\sum_{h'\in\cal{H}}p(H=h')p(Y=y|H=h')=\sum_{h'\in\cal{H}}p(H=h',Y=y)

通过对每个 hh 计算 p(H=h,Y=y)/p(Y=y){p(H=h,Y=y)}/{p(Y=y)} 标准化联合分布,得到后验概率 p(H=hY=y)p(H=h|Y=y);这代表了我们对于 HH 所有可能取值的新的信念状态 belief state.

贝叶斯定理可以用文字总结为:posterier \varpropto prior ×\times likelihood

给定一些相关观察数据,用贝叶斯定理来更新一些未知量的分布的过程被称作Bayesian inference, or posterior inference or probabilistic inference.

2.3.1 Example: Testing for COVID-19#

你想做一个 COVID-19 的诊断检测,并且希望根据结果来判断自己是否感染。令 H=1H=1 为已感染,H=0H=0 为未感染,Y=1Y=1 为检测阳性,Y=0Y=0 为检测阴性。我们希望计算 p(H=hY=y)  for  h{0,1}p(H=h|Y=y)\ \ for\ \ h\in\{0,1\}YY 为观察的检测结果。这是一个二分类问题,HH 可以看作未知的类别标签,而 yy 是特征向量。

首先我们必须确定似然函数,这个量显然依赖于这个检测的可靠性。这里有两个关键参数:

  • sensitivity, aka true positive rate is defined as p(Y=1H=1)p(Y=1|H=1)
    • false negative rate = 1 - true positive rate
  • specificity, aka true negative rate is defined as p(Y=0H=0)p(Y=0|H=0)
    • false positive rate = 1 - true negative rate

在这里,我们设定 sensitivity = 87.5%,specificity = 97.5%.

Truth\Observation01
0TNR=0.975FPR=0.025
1FNR=0.125TPR=0.875

接下来需要确定先验分布,p(H=1)p(H=1) 表示的是疾病在你所住的地区的流行度,我们先设定 p(H=1)=0.1p(H=1)=0.1 (10%).

假设你检测呈阳性:

p(H=1Y=1)=p(H=1)p(Y=1H=1)p(Y=1)=prior×TPRprior×TPR+(1prior)×FPR=0.1×0.8750.1×0.875+0.9×0.025=0.795\begin{aligned} p(H=1|Y=1)&=\frac{p(H=1)p(Y=1|H=1)}{p(Y=1)}\\ &=\frac{prior\times TPR}{prior\times TPR + (1-prior)\times FPR}\\ &=\frac{0.1\times 0.875}{0.1\times 0.875 + 0.9\times 0.025}\\ &=0.795 \end{aligned}

也就是说此时你有 79.5%的概率被感染了。

假设你检测呈阴性:

p(H=1Y=0)=p(H=1)p(Y=0H=1)p(Y=0)=prior×FNRprior×FNR+(1prior)×TNR=0.1×0.1250.1×0.125+0.9×0.975=0.014\begin{aligned} p(H=1|Y=0)&=\frac{p(H=1)p(Y=0|H=1)}{p(Y=0)}\\ &=\frac{prior\times FNR}{prior\times FNR + (1-prior)\times TNR}\\ &=\frac{0.1\times 0.125}{0.1\times 0.125 + 0.9\times 0.975}\\ &=0.014 \end{aligned}

也就是说此时你有 1.4% 的概率被感染了。

假设我们根据现在的 COVID-19 感染率,将先验概率降到 1%,重复上述计算,我们分别会得到 26% 和 0.13% 的后验概率。这是一个反直觉的事实,即使你被检测为阳性,你感染的概率仍然仅有 26%,这是因为这个疾病仍是很少见的,所以大部分检测阳性都是假阳性。为了更好的理解,我们假设有 100,000 个人,其中 1% 的人被感染了。感染的人中,87.5% 的人,也就是 87.5%×100,000×1%=87587.5\%\times100,000\times 1\% = 875 人被检测为阳性,而未感染人中 2.5%×100,000×(11%)=24752.5\%\times100,000\times(1-1\%)=2475 人被检测为阳性,所以后验概率为 875/875+2475=0.26875/875+2475=0.26.

当然,上述计算是在我们假设已知检测 sensitivity 和 specificity 的情况下进行的,至于无法确定这些参数情况下如何应用贝叶斯定理,参见论文GC20.

2.3.2 Example: The Monty Hall problem#

著名的三门问题

2.3.3 Inverse problem#

概率论关心的是在给定现在状态的条件 or 假设的情况下预测未来结果的分布。与之相反的是,inverse probability 关心的是从观测结果推测现在的状态,即反转 hyh\rightarrow y mapping.

例如,考虑从一个二维图像 yy 推测三维形状 hh, 这是视觉场景理解领域的经典问题,但这是一个病态 ill-posed 问题,因为有多个 hh 对应一个 yy, 如下图所示。同样,自然语言理解也是一个病态问题,听者必须从说话人的模糊语句中推测意图 hh.

image-20211116181029066

为了解决这些反问题,我们可以运用贝叶斯定理来计算后验 p(hy)p(h|y),它对于当下可能的状态给定了一个分布。这需要我们确定正向模型 p(yh)p(y|h) 和先验 p(h)p(h), 具体内容会在下一本书中探讨。

2.4 伯努利和二项分布 Bernoulli and binomial distributions#

2.4.1 Definition#

伯努利分布可能是最简单的概率分布,用于建模二元事件。考虑抛一枚硬币,正面朝上的概率为 0θ10\leq \theta\leq 1. 令 Y=1Y=1 为正面朝上, 则 p(Y=1)=θ, p(Y=0)=1θp(Y=1)=\theta,\ p(Y=0)=1-\theta. 这就是伯努利分布,记作:

YBer(θ)Y\sim \mathrm{Ber}(\theta)

\sim 意为 “is sampled from” or “is distributed as”, BerBer 指伯努利. 该分布的概率质量函数 pmf 定义如下:

Ber(yθ)={1θif  y=0θif  y=1\mathrm{Ber}(y|\theta)=\begin{cases} 1-\theta & \mathrm{if}\ \ y=0\\ \theta & \mathrm{if}\ \ y=1 \end{cases}

更简洁版本:

Ber(yθ)θy(1θ)1y\mathrm{Ber}(y|\theta)\triangleq \theta^y(1-\theta)^{1-y}

伯努利分布是二项分布的一个特殊情况。N次伯努利试验的结果服从一个二项分布:

Bin(sN,θ)(Ns)θs(1θ)Nswhere(Nk)N!(Nk)!k!\mathrm{Bin}(s|N,\theta)\triangleq \dbinom{N}{s}\theta^s(1-\theta)^{N-s}\\ \mathrm{where}\quad \dbinom{N}{k}\triangleq \frac{N!}{(N-k)!k!}

(Nk)\tbinom{N}{k} 即为二项式系数,发音 “N choose k”.

2.4.2 Sigmoid (logistic) function#

当我们想根据一些输入数据 xXx\in \cal{X}, 预测一个二元变量 y{0,1}y\in\{0,1\}, 我们需要利用一个条件概率分布

p(yx,θ)=Ber(yf(x,θ))p(y|\boldsymbol{x},\boldsymbol{\theta})=\mathrm{Ber}(y|f(\boldsymbol{x},\boldsymbol{\theta}))

其中 f(x,θ)f(\boldsymbol{x},\boldsymbol{\theta}) 是一些可以预测输出分布的平均参数的函数。我们后面会考虑许多不同类型的函数。

为了避免 0f(x,θ)10\leq f(\boldsymbol{x},\boldsymbol{\theta})\leq1 的要求,我们可以使 ff 为任意函数,然后使用如下的模型:

p(yx,θ)=Ber(yσ(f(x,θ)))p(y|\boldsymbol{x},\boldsymbol{\theta})=\mathrm{Ber}(y|\boldsymbol\sigma (f(\boldsymbol{x},\boldsymbol{\theta})))

这里 σ()\boldsymbol\sigma()sigmoid or logistic function,定义如下:

σ11+ea\boldsymbol\sigma\triangleq \frac{1}{1+e^{-a}}

其中 a=f(x,θ)a=f(\boldsymbol{x},\boldsymbol{\theta}). “Sigmoid” 意为 “S-shaped”. 如下图所示,sigmoid 函数将整个实数域映射到 [0,1][0, 1] 之间,这是将输出转换为概率的关键性质。

image-20211116194923317

使用 sigmoid 函数的定义代入方程 (49) 可得:

p(y=1x,θ)=σ(a)p(y=0x,θ)=1σ(a)=σ(a)p(y=1|\boldsymbol{x},\boldsymbol{\theta})=\boldsymbol\sigma(a)\\ p(y=0|\boldsymbol{x},\boldsymbol{\theta})=1-\boldsymbol\sigma(a)=\boldsymbol\sigma(-a)

aa 的值等于log oddslog(p1p)\log(\frac{p}{1-p}),其中 p=p(y=1x;θ)p=p(y=1|\boldsymbol{x};\boldsymbol{\theta}). 证明如下:

log(p1p)=log(ea1+ea1+ea1)=log(ea)=a\log(\frac{p}{1-p})=\log(\frac{e^a}{1+e^a}\frac{1+e^a}{1})=\log(e^a)=a

sigmoid 函数将 log-odds aa 映射到 pp

p=logistic(a)=σ(a)=ea1+eap=\mathrm{logistic}(a)=\boldsymbol\sigma(a)=\frac{e^a}{1+e^a}

sigmoid 函数的反函数是对率函数 (logit function),将 pp 映射到 log-odds aa

a=logit(p)=σ1(p)log(p1p)a=\mathrm{logit}(p)=\boldsymbol\sigma^{-1}(p)\triangleq\log(\frac{p}{1-p})
Sigmoid 函数的一些常用性质
σ(x)11+ex=ex1+ex\boldsymbol\sigma(x)\triangleq \frac{1}{1+e^{-x}}=\frac{e^x}{1+e^x}
ddxσ(x)=σ(x)(1σ(x))\frac{d}{dx}\boldsymbol\sigma(x)=\boldsymbol\sigma(x)(1-\boldsymbol\sigma(x))
1σ(x)=σ(x)1-\boldsymbol\sigma(x)=\boldsymbol\sigma(-x)
σ1(p)=log(p1p)logit(p)\boldsymbol\sigma^{-1}(p)=\log(\frac{p}{1-p})\triangleq \mathrm{logit}(p)
σ+(x)log(1+ex)softplus(x)\sigma_{+}(x)\triangleq\log(1+e^x)\triangleq \mathrm{softplus}(x)
ddxσ+(x)=σ(x)\frac{d}{dx}\sigma_+(x)=\boldsymbol\sigma(x)

2.4.3 Binary logistic regression#

这一部分我们使用一个条件伯努利模型,其中我们使用一个线性预测函数:f(x;θ)=wTx+bf(\boldsymbol{x};\boldsymbol{\theta})=\boldsymbol{w}^\mathsf{T}\boldsymbol{x}+b. 模型形式如下:

p(yx;θ)=Ber(yσ(wTx+b))p(y|\boldsymbol{x};\boldsymbol{\theta})=\mathrm{Ber}(y|\boldsymbol\sigma (\boldsymbol{w}^\mathsf{T}\boldsymbol{x}+b))

另一个形式:

p(y=1x;θ)=σ(wTx+b)=11+e(wTx+b)p(y=1|\boldsymbol{x};\boldsymbol{\theta})=\boldsymbol\sigma (\boldsymbol{w}^\mathsf{T}\boldsymbol{x}+b)=\frac{1}{1+e^{-(\boldsymbol{w}^\mathsf{T}\boldsymbol{x}+b)}}

这被称为logistic regression.

对于一个 1-dimensional, 2-class 分类问题, decision boundary决策边界指的是使得 p(y=1x=x,θ)=0.5p(y=1|x=x^*,\boldsymbol{\theta})=0.5xx^* 值。后续更多关于 logistic regression 的细节,见第10章。

image-20211116203254922

2.5 Categorical and multinomial distributions#

当我们需要表示有限的一列标签 y{1,...,C}y\in\{1,...,C\}的分布时,我们可以把伯努利分布扩展到 C>2C>2 的情况,使用 categorical distribution 类别分布。

2.5.1 Definition#

类别分布是一个离散概率分布,每个类别一个参数:

M(yθ)c=1CθcI(y=c)\mathcal{M}(y|\boldsymbol\theta)\triangleq\prod_{c=1}^{C}\theta_c^{\mathbb{I}(y=c)}

也就是说,p(y=cθ)=θcp(y=c|\boldsymbol\theta)=\theta_c. 其中 0θc1, c=1Cθc=10\leq\theta_c\leq1,\ \sum_{c=1}^C\theta_c=1. 所以只有 C1C-1 个独立参数。

我们还可以将离散变量 yy 转化为一个 C 个元素的one-hot vector, 然后我们可以将类别分布记作:

M(yθ)c=1Cθcyc\mathcal{M}(y|\boldsymbol\theta)\triangleq\prod_{c=1}^{C}\theta_c^{y_c}

类别分布是多项分布的特殊情况。N 次类别试验的结果服从一个多项分布:

M(sN,θ)(Ns1...sC)c=1Cθcscwhere(Ns1...sC)N!s1!s2!sC!\mathcal{M}(\boldsymbol{s}|N,\boldsymbol\theta)\triangleq\dbinom{N}{s_1...s_C}\prod_{c=1}^{C}\theta_c^{s_c}\\ \mathrm{where}\quad \dbinom{N}{s_1...s_C}\triangleq\frac{N!}{s_1!s_2!\cdots s_C!}

(Ns1...sC)\dbinom{N}{s_1...s_C} 是多项式系数,等于将 N=c=1CscN=\sum_{c=1}^Cs_c 大小的集合分成从 s1s_1sCs_C 大小的子集的方法数。

2.5.2 Softmax function#

多项分布的条件概率:

p(yx,θ)=M(yf(x;θ))p(y|\boldsymbol{x},\boldsymbol{\theta})=\mathcal{M}(y|f(\boldsymbol{x};\boldsymbol{\theta}))

也可以写成:

p(yx,θ)=M(y1,f(x;θ))where0fc(x;θ)1,  c=1Cfc(x;θ)=1p(y|\boldsymbol{x},\boldsymbol{\theta})=\mathcal{M}(y|1,f(\boldsymbol{x};\boldsymbol{\theta}))\\ \mathrm{where}\quad 0\leq f_c(\boldsymbol{x};\boldsymbol{\theta})\leq1, \ \ \sum_{c=1}^Cf_c(\boldsymbol{x};\boldsymbol{\theta})=1

为了避免限制条件,通常对 ff 的输出使用softmax function aka multinomial logit

S(a)[ea1c=1Ceac,,eaCc=1Ceac]where0S(a)c1,  c=1CS(a)c=1\mathcal{S}(\boldsymbol{a})\triangleq[\frac{e^{a_1}}{\sum_{c'=1}^Ce^{a_{c'}}},\cdots,\frac{e^{a_C}}{\sum_{c'=1}^Ce^{a_{c'}}}]\\ \mathrm{where}\quad 0\leq\mathcal{S}(\boldsymbol{a})_c\leq1, \ \ \sum_{c=1}^C\mathcal{S}(\boldsymbol{a})_c=1

softmax的输入 a=f(x;θ)\boldsymbol{a}=f(\boldsymbol{x};\boldsymbol{\theta}) 称作logits,是log odds的扩展。

softmax 函数叫这个名字是因为它的作用有点像 argmax 函数。要探索这个性质,我们将每个 aca_c 除以常数 TT,称作 temperature。当 T0T\rightarrow 0,我们发现:

S(a/T)c={1.0if  c=argmaxcac0.0otherwise\mathcal{S}(\boldsymbol{a}/T)_c=\begin{cases} 1.0 & \mathrm{if}\ \ c=\arg\max_{c'}a_{c'} \\ 0.0 & \mathrm{otherwise} \end{cases}

也就是说,在低温度情况下,这个分布会把大部分的概率质量放在可能性最大的状态(winner takes all),高温度状态下,质量分布会变得均匀。如下图所示:

image-20211116214143588

2.5.3 Multiclass logistic regression#

如果我们使用线性预测函数:f(x;θ)=Wx+bf(\boldsymbol{x};\boldsymbol{\theta})=\mathrm{W}\boldsymbol{x}+\boldsymbol{b},其中 W\mathrm{W} 是一个 C×DC\times D 的矩阵,b\boldsymbol{b} 是一个 CC 维偏置向量,上个部分的模型可以写成:

p(yx;θ)=M(yS(Wx+b))p(y|\boldsymbol{x};\boldsymbol{\theta})=\mathcal{M}(y|\mathcal{S}(\mathrm{W}\boldsymbol{x}+\boldsymbol{b}))

a=Wx+b\boldsymbol{a}=\mathrm{W}\boldsymbol{x}+\boldsymbol{b}CClogits向量。我们可以将上式写作:

p(y=cx;θ)=eacc=1Ceacp(y=c|\boldsymbol{x};\boldsymbol{\theta})=\frac{e^{a_c}}{\sum_{c'=1}^C e^{a_{c'}}}

这就是multinomial logistic regression.

如下图所示,仅使用 iris 数据集的 2 个 feature 的三类 logistic regression 的结果,可以看出决策边界都是线性的。后面我们会讨论怎么用特征变换使线性边界变为非线性边界。

image-20211116220055658

2.5.4 Log-sum-exp trick#

本节我们讨论使用 softmax 分布的一个重要细节。假设我们想计算标准概率 pc=p(y=cx)p_c=p(y=c|\boldsymbol{x}),计算公式:

pc=eacZ(a)=eacc=1Ceacp_c=\frac{e^{a_c}}{Z(\boldsymbol{a})}=\frac{e^{a_c}}{\sum_{c'=1}^C e^{a_{c'}}}

其中 a=f(x;θ)\boldsymbol{a}=f(\boldsymbol{x};\boldsymbol{\theta}) 是 logits.

我们在计算 Z(a)Z(\boldsymbol{a}) 的时候有可能遭遇数值溢出问题。例如,假设我们有三个类别, logits a=(0,1,0)\boldsymbol{a}=(0,1,0), 则 Z=e0+e1+e0=4.71Z=e^0+e^1+e^0=4.71. 但假如 a=(1000,1001,1000)\boldsymbol{a}=(1000,1001,1000), 我们会发现 Z=Z=\infty, 因为超过了电脑的存储范围,同样当 a=(1000,999,1000)\boldsymbol{a}=(-1000,-999,-1000) 时, Z=0Z=0. 为了避免该问题,我们可以使用如下等价公式:

logc=1Ceac=m+logc=1Cexp(acm)\log\sum_{c=1}^Ce^{a_c}=m+\log\sum_{c=1}^C\exp(a_c-m)

此式对任意 mm 均成立,通常取 m=maxcacm=max_ca_c 来确保最大值不会上溢,这样即使发生了下溢,结果仍然是合理的。这就是log-sum-exp trick. 定义lse function:

lse(a)logc=1Cexp(ac)\mathrm{lse}(\boldsymbol{a})\triangleq\log\sum_{c=1}^C\exp(a_c)

我们使用 lse 函数表示从 logits 计算得到的概率:

p(y=cx)=exp(aclse(a))p(y=c|\boldsymbol{x})=\exp(a_c-\mathrm{lse}(\boldsymbol{a}))

然后我们可以将这个概率传到交叉熵计算公式中去,见第 5 章。

但是,实际应用中为了节省计算资源和提升数值稳定性,通常会修改交叉熵使其直接用 logits a\boldsymbol{a} 作为输入,而不是概率向量 p\boldsymbol{p}. 考虑一个二分类例子,一个样本的 CE loss 是:

L=[I(y=0)logp0+I(y=1)logp1]\mathcal{L}=-[\mathbb{I}(y=0)\log{p_0}+\mathbb{I}(y=1)\log{p_1}]

其中 p0p_0p1p_1 均可以用 aa 直接表示:

logp1=log(11+exp(a))=log(1)log(1+exp(a))=lse([0,a])logp0=lse([0,+a])\begin{aligned} \log p_1 &= \log(\frac{1}{1+\exp(-a)})\\ &=\log(1)-\log(1+\exp(-a))\\ &=-\mathrm{lse}([0,-a])\\ \\ \log p_0 &= -\mathrm{lse}([0,+a]) \end{aligned}

2.6 Univariate Gaussian (normal) distribution#

2.6.1 Cumulative distribution function (cdf)#

Φ(y;μ,σ2)yN(zμ,σ2)dzwherez=yμσ\Phi(y;\mu,\sigma^2)\triangleq\int_{-\infty}^y\mathcal{N}(z|\mu,\sigma^2)dz\\ \mathrm{where}\quad z=\frac{y-\mu}{\sigma}

正态分布的 cdf 还可以用error function来表示:

Φ(y;μ,σ2)=12[1+erf(z2)]whereerf(u)2π0μet2dt\Phi(y;\mu,\sigma^2)= \frac{1}{2}[1+\mathrm{erf}(\frac{z}{\sqrt{2}})]\\ where\quad \mathrm{erf}(u)\triangleq \frac{2}{\sqrt{\pi}}\int_0^\mu e^{-t^2}dt

2.6.2 Probability density function (pdf)#

N(yμ,σ2)12πσ2e12σ2(yμ)2\mathcal{N}(y|\mu,\sigma^2)\triangleq \frac{1}{\sqrt{2\pi\sigma^2}}e^{-\frac{1}{2\sigma^2}(y-\mu)^2}

利用 pdf 我们可以计算出正态分布的均值,方差和标准差:

E[Y]Yy p(y)dyV[Y]E[(Yμ)2]=E[Y2]μ2E[Y2]=σ2+μ2std[Y]V[Y]=σ\mathbb{E}[Y]\triangleq\int_\mathcal{Y}y\ p(y)dy\\ \mathbb{V}[Y]\triangleq\mathbb{E}[(Y-\mu)^2]=\mathbb{E}[Y^2]-\mu^2\\ \mathbb{E}[Y^2]=\sigma^2+\mu^2\\ \mathrm{std}[Y]\triangleq\sqrt{\mathbb{V}[Y]}=\sigma

2.6.3 Regression#

到目前为止我们讨论的都是非条件的高斯分布,有时让高斯分布的参数变成关于输入变量的函数是很有用的,例如,我们可以创建如下形式的条件概率密度模型:

p(yx;θ)=N(yfμ(x;θ),fσ(x;θ)2)p(y|\boldsymbol{x};\boldsymbol{\theta})=\mathcal{N}(y|f_\mu(\boldsymbol{x};\boldsymbol{\theta}),f_\sigma(\boldsymbol{x};\boldsymbol{\theta})^2)

其中 fμ(x;θ)Rf_\mu(\boldsymbol{x};\boldsymbol{\theta})\in \mathbb R 预测均值, fσ(x;θ)2R+f_\sigma(\boldsymbol{x};\boldsymbol{\theta})^2\in\mathbb R_+ 预测方差。

通常我们假设方差固定,独立于输入,这被称作 homoscedastic regression, 另外我们通常假设均值是输入的线性函数,此时这个模型就是线性回归

p(yx;θ)=N(ywTx+b,σ2)whereθ=(w,b,σ2)p(y|\boldsymbol{x};\boldsymbol{\theta})=\mathcal{N}(y|\boldsymbol{w}^\mathsf{T}\boldsymbol{x}+b,\sigma^2)\\ \mathrm{where}\quad \boldsymbol\theta=(\boldsymbol{w},b,\sigma^2)

但是我们也可以令方差依赖于输入,这被称作 heteraskedastic regression :

p(yx;θ)=N(ywTx+b,σ+(wσTx))whereθ=(wμ,wσ)σ+(a)=log(1+ea)p(y|\boldsymbol{x};\boldsymbol{\theta})=\mathcal{N}(y|\boldsymbol{w}^\mathsf{T}\boldsymbol{x}+b,\sigma_+(\boldsymbol{w}_\sigma^\mathsf{T}\boldsymbol{x}))\\ \begin{aligned} \mathrm{where}\quad \boldsymbol\theta&=(\boldsymbol{w}_\mu,\boldsymbol{w}_\sigma)\\ \sigma_+(a)&=\log(1+e^a) \end{aligned}

σ+(a)\sigma_+(a)softplus function,将 R\mathbb R 映射到 R+\mathbb R_+, 来确保标准差非负。

image-20211117112601767

上图画出了 95%的置信区间,[μ(x)2σ(x),μ(x)+2σ(x)][\mu(x)-2\sigma(x),\mu(x)+2\sigma(x)]. 这是预测结果 yy 关于 x\boldsymbol{x} 的不确定性,捕捉到了蓝色点中的 variability. 与之相反的是,underlying function (noise-free) 的不确定性是 V[fμ(x;θ)]\sqrt{\mathbb{V}[f_\mu(\boldsymbol{x};\boldsymbol{\theta})]}, 其中不包含 σ\sigma 项,是关于参数 θ\boldsymbol{\theta} 的不确定性,而不是输出 yy . 第11章详细讨论如何建模参数不确定性。

2.6.4 Why is Gaussian distribution so widely used?#

  1. 正态分布的两个参数很容易解释,也体现出了分布的两个基本性质:均值和方差;
  2. 中心极限定理告诉我们独立随机变量的和约为一个正态分布,所以它很适合建模残差或”噪音”;
  3. 正态分布做出的假设最少 (熵最大),仅需要限制均值和方差,所以很多情况下是一个好的默认选择。具体见 Section 3.4.4;
  4. 它的数学形式简单,方法易于实现,但是通常非常有效,具体见 Section 3.2

从历史的角度来说,“高斯分布”这个名字具有一定误导性,因为高斯不是这个分布的发现者,也不是首先研究他的主要性质的人,但是高斯在 1800s 将这个分布成功推广了,所以”高斯分布”这个术语得到了广泛应用。

“normal distribution” 这个名字似乎是在20世纪90年代线性回归的正态方程中出现的。但是我们希望避免使用 “normal” 这个词,因为它似乎在暗示其它分布都是 “abnormal”,但实际上高斯分布才是不正常的,因为它具有很多一般分布不具备的特殊性质。

2.6.5 Dirac delta function as a limiting case#

当高斯分布的方差变为0,分布趋向于一个无限窄但无穷高的脉冲:

limσ0N(yμ,σ2)δ(yμ)\lim_{\sigma\rightarrow 0}\mathcal{N}(y|\mu,\sigma^2)\rightarrow\delta(y-\mu)

δ\delta狄拉克 delta 函数,定义如下:

δ(x)={+if x=00if x0where+δ(x)dx=1\delta(x)=\begin{cases} +\infty & \mathrm{if}\ x=0\\ 0 & \mathrm{if}\ x\neq0 \end{cases}\\ \mathrm{where}\quad \int_{-\infty}^{+\infty}\delta(x)dx=1

一个小的变形:

δy(x)={+if x=y0if xy\delta_y(x)=\begin{cases} +\infty & \mathrm{if}\ x=y\\ 0 & \mathrm{if}\ x\neq y \end{cases}\\

注意: δy(x)=δ(xy)\delta_y(x)=\delta(x-y)

delta function 满足如下挑选性质,后面会用到:

f(y)δ(xy)dy=f(x)\int_{-\infty}^{\infty}f(y)\delta(x-y)dy=f(x)

2.7 Some other common univariate distributions#

2.7.1 Student t distribution#

高斯分布对于 outliers 非常敏感。另一个比高斯分布更 robust 的选择是Student t-distribution. 它的 pdf:

T(yμ,σ2,ν)[1+1ν(yμσ)2](ν+12)\mathcal{T}(y|\mu,\sigma^2,\mathcal{\nu})\varpropto[1+\frac{1}{\nu}(\frac{y-\mu}{\sigma})^2]^{-(\frac{\nu+1}{2})}

其中 μ\mu 是均值, σ>0\sigma>0 是尺度参数, ν>0\nu>0degrees of freedom 自由度,但是还有个更好的术语:“degrees of normality”,因为 ν\nu 的值变大会使分布趋向于正态分布。

我们可以观察到 t 分布的概率密度是以多项式的形式衰减的,而不是指数形式,这意味着相比于高斯分布,t 分布在尾部的概率质量更多,所以我们说 t 分布是长尾分布,因此 t 分布对于异常值更鲁棒。具体如下图所示:左图是没有 outlier 的情况,右图是 有 outlier 的情况,可以看出高斯分布受到的影响比 t 分布和 Laplace 分布大得多。后面我们会讨论怎么用 t 分布做更鲁棒的线性回归。

image-20211117200941737

注意 t 分布的一些性质:

mean=μ,  mode=μ,  var=νσ2(ν2)\mathrm{mean}=\mu,\ \ \mathrm{mode}=\mu,\ \ \mathrm{var}=\frac{\nu\sigma^2}{(\nu-2)}

仅当 ν>1\nu>1 时均值有定义,仅当 ν>2\nu>2 时方差有定义。当 ν5\nu\gg5,t 分布迅速逼近一个高斯分布并且失去了鲁棒性,通常令 ν=4\nu=4,在许多问题上都有很好的表现。

2.7.2 Cauchy distribution#

ν=1\nu=1,t 分布就变成了Cauchy or Lorentz 分布,它的 pdf 定义为:

C(xμ,γ)1γπ[1+(xμγ)2]1\mathcal{C}(x|\mu,\gamma)\triangleq\frac{1}{\gamma\pi}[1+(\frac{x-\mu}{\gamma})^2]^{-1}

这个分布的尾部非常重,95% 的值位于 [12.7,12.7][-12.7,12.7]. 正是由于尾部太重导致均值的积分无法收敛。

半柯西分布可以看作 μ=0\mu=0 的柯西分布的自身折叠版本,概率全部分布在正实数域上。

C+(xγ)2γπ[1+(xγ)2]1\mathcal{C}_+(x|\gamma)\triangleq\frac{2}{\gamma\pi}[1+(\frac{x}{\gamma})^2]^{-1}

这个分布在贝叶斯建模中很有用,我们希望使用一个长尾的正实数域上的分布,但同时在原点的密度是有限的。

2.7.3 Laplace distribution#

Laplace 分布是另一个长尾分布,又叫双边指数分布。它的 pdf 定义如下:

Lap(yμ,b)12bexp(yμb)\mathrm{Lap}(y|\mu,b)\triangleq\frac{1}{2b}\exp(-\frac{|y-\mu|}{b})

μ\mu 是位置参数,b>0b>0 是尺度参数。这个分布的性质如下:

mean=μ,  mode=μ,  var=2b2\mathrm{mean}=\mu,\ \ \mathrm{mode}=\mu,\ \ \mathrm{var}=2b^2

第11章我们会讨论怎么用 Laplace 分布做更鲁棒的线性回归以及稀疏线性回归。

2.7.4 Beta distribution#

beta distribution 定义于区间 [0,1][0,1],定义如下:

Beta(xa,b)=1B(a,b)xa1(1x)b1whereB(a,b)Γ(a)Γ(b)Γ(a+b)whereΓ(a)0xa1exdx\mathrm{Beta}(x|a,b)=\frac{1}{B(a,b)}x^{a-1}(1-x)^{b-1}\\ \mathrm{where}\quad B(a,b)\triangleq\frac{\Gamma(a)\Gamma(b)}{\Gamma(a+b)}\\ \mathrm{where}\quad \Gamma(a)\triangleq\int_{0}^{\infty}x^{a-1}e^{-x}dximage-20211117204937491

关于参数 a,ba,b 的要求:

  • a,b>0a,b>0, 确保 B(a,b)B(a,b) 存在和分布可积
  • 如果 a=b=1a=b=1,我们得到了均匀分布
  • 如果 a,ba,b 均小于 1,我们得到一个双峰分布
  • 如果 a,ba,b 均大于 1,我们得到一个单峰分布

beta 分布的性质:

mean=aa+b,  mode=a1a+b2,  var=ab(a+b)2(a+b+1)\mathrm{mean}=\frac{a}{a+b},\ \ \mathrm{mode}=\frac{a-1}{a+b-2},\ \ \mathrm{var}=\frac{ab}{(a+b)^2(a+b+1)}

2.7.5 Gamma distribution#

Gamma 分布是一个定义于正实数域上的灵活分布。它拥有两个参数:形状 a>0a>0,速率 b>0b>0

Ga(xshape=a,rate=b)baΓ(a)xa1exb\mathrm{Ga}(x|\mathrm{shape}=a,\mathrm{rate}=b)\triangleq\frac{b^a}{\Gamma(a)}x^{a-1}e^{-xb}

有时我们用形状 aascale s=1/bs=1/b 来表征分布:

Ga(xshape=a,rate=b)1saΓ(a)xa1ex/s\mathrm{Ga}(x|\mathrm{shape}=a,\mathrm{rate}=b)\triangleq\frac{1}{s^a\Gamma(a)}x^{a-1}e^{-x/s}

Gamma 分布的性质:

mean=ab,  mode=a1b,  var=ab2\mathrm{mean}=\frac{a}{b},\ \ \mathrm{mode}=\frac{a-1}{b},\ \ \mathrm{var}=\frac{a}{b^2}image-20211117204957962

Gamma 分布的特殊情况:

  • 指数分布:
    • Expon(xλ)Ga(xshape=1,rate=λ)\mathrm{Expon}(x|\lambda)\triangleq\mathrm{Ga}(x|\mathrm{shape}=1,\mathrm{rate}=\lambda)
    • 此分布描述了 Poisson 过程中事件发生之间的时间间隔,Poisson 过程即事件以一个固定的平均速率 λ\lambda 连续独立发生的过程;
  • 卡方分布:
    • Xν2(x)Ga(xshape=ν2,rate=12)\mathcal{X}^2_\nu(x)\triangleq\mathrm{Ga}(x|\mathrm{shape}=\frac{\nu}{2},\mathrm{rate}=\frac{1}{2})
    • ν\nu 是自由度,此分布是高斯分布变量的平方和。如果 ZiN(0,1)Z_i\sim\mathcal{N}(0,1)S=i=1νZi2S=\sum_{i=1}^{\nu}Z_i^2,则 SXν2S\sim \mathcal{X}_\nu^2
  • Inverse Gamma 分布:
    • IG(xshape=a,scale=b)baΓ(a)x(a+1)eb/x\mathrm{IG}(x|\mathrm{shape}=a,\mathrm{scale}=b)\triangleq\frac{b^a}{\Gamma(a)}x^{-(a+1)}e^{-b/x}
    • mean=ba1,  mode=ba+1,  var=b2(a1)2(a2)\mathrm{mean}=\frac{b}{a-1},\ \ \mathrm{mode}=\frac{b}{a+1},\ \ \mathrm{var}=\frac{b^2}{(a-1)^2(a-2)}
    • 仅当 a>1a>1 时均值存在,仅当 a>2a>2 时方差存在
    • 如果 XGa(shape=a,rate=b)X\sim\mathrm{Ga}(\mathrm{shape}=a,\mathrm{rate}=b),那么 1/XIG(shape=a,scale=b)1/X\sim\mathrm{IG}(\mathrm{shape}=a,\mathrm{scale}=b)

2.7.6 Empirical distribution#

假设我们有 NN 个样本 D={x(1),,x(N)}\mathcal{D}=\{x^{(1)},\cdots,x^{(N)}\},采样自分布 p(X), XRp(X),\ X\in\mathbb R. 我们可以用一系列 delta 函数来逼近原来的 pdf:

p^N(x)=1Nn=1Nδx(i)(x)\hat{p}_N(x)=\frac{1}{N}\sum_{n=1}^{N}\delta_{x^{(i)}}(x)

这称作数据集 D\mathcal{D} 的经验分布。对应的 cdf:

P^N(x)=1Nn=1NI(x(i)x)=1Nn=1Nux(i)(x)whereuy(x)={1if xy0if x<y\hat{P}_N(x)=\frac{1}{N}\sum_{n=1}^{N}\mathbb{I}(x^{(i)}\leq x)=\frac{1}{N}\sum_{n=1}^{N}u_{x^{(i)}}(x)\\ \mathrm{where}\quad u_y(x)=\begin{cases} 1 & \mathrm{if}\ x\geq y\\ 0 & \mathrm{if}\ x< y \end{cases}

image-20211117212934470

2.8 Transformations of random variables#

假设 x\boldsymbol{x} 是随机变量,y=f(x)\boldsymbol{y}=f(\boldsymbol{x}) 是确定变换,本节我们讨论如何计算 p(y)p(\boldsymbol{y})

2.8.1 Discrete case#

如果 XX 是离散 rv,我们可以推导出 YY 的 pmf,只需要简单加和所有使 f(x)=yf(x)=yxx 的概率质量:

py(y)=x:f(x)=ypx(x)p_y(y)=\sum_{x:f(x)=y}p_x(x)

2.8.2 Continuous case#

我们使用 cdf:

Py(y)Pr(Yy)=Pr(f(X)y)=Pr(X{xf(x)y})P_y(y)\triangleq \mathrm{Pr}(Y\leq y)=\mathrm{Pr}(f(X)\leq y)=\mathrm{Pr}(X\in \{x|f(x)\leq y\})
  • 如果 ff 是可逆的,我们可以对 cdf 求导 来得到 yy 的pdf.
  • 如果 ff 不是可逆的,我们可以使用数值积分或者蒙特卡罗近似

2.8.3 Invertible transformations (bijections)#

本部分我们考虑单调并因此可逆的的函数(注意一个函数当且仅当它是一个bijector时它可逆。在这个假设下我们发现 yy 的 pdf 有简单的公式。这个结论也可以推广到可逆但不单调的函数,但这里我们忽略这个情况。

2.8.3.1 Change of variables: scalar case#

py(y)=px(g(y))ddyg(y)p_y(y)=p_x(g(y))|\frac{d}{dy}g(y)|

2.8.3.2 Change of variables: multivariate case#

py(y)=px(g(y))det[Jg(y)]whereJg=dg(y)dyTp_y(\boldsymbol{y})=p_x(\boldsymbol{g}(\boldsymbol{y}))|\det[\mathbf{J}_g(\boldsymbol{y})]|\\ \mathrm{where}\quad \mathbf{J}_g=\frac{d\boldsymbol{g}(\boldsymbol{y})}{d\boldsymbol{y}^\mathsf{T}}

2.8.4 Moments of a linear transformation#

假设 ff 为一个仿射变换,则 y=Ax+b\boldsymbol{y=Ax+b}, 此时我们可以推导出 y\boldsymbol{y} 的均值和方差:

E[y]=E[Ax+b]=Aμ+b\mathbb{E}[y]=\mathbb{E}[\boldsymbol{Ax+b}]=\boldsymbol{A\mu+b}
CH02-Probability (Univariate Models)
https://www.quahog-dev.tech/posts/probml-notes/ch02-probability-univariate-models/
Author
Brian & Stewie
Published at
2025-01-13