极大似然小结 (2)

从数学上来讲,我们可以在$\omega$的所有取值中,寻找一个值使得似然函数达到最大值,这种估计方法称之为极大似然估计。极大似然估计是样本不变时,关于$\omega$的函数。极大似然估计不一定存在,也不一定唯一。

在第1节中预测硬币的质地$\omega$,是关于极大似然估计的一个经典例子。其他例子可以查看参考文献$^{[2]}$。

现在我们看一下极大似然估计在正态分布中的应用:

现在假定我们有一个观测的数据集$\mathbf{x}=(x_1,\cdots,x_N)^T$,表示标量变量$x$的N次观测。我们假定各次观测是独立地从高斯分布中抽取,分布的均值$\mu$和方差$\sigma^2$未知,我们想根据数据集来确定这些参数。两个独立事件的联合概率可以由各个事件的边缘概率的乘积得到。我们的数据集$\mathbf{x}$是独立同分布的,因此给定$\mu$和$\sigma^2$,我们可以给出高斯分布的似然函数:
$$
p(\mathbf{x}|\mu,\sigma^2)=\prod_{n=1}^{N}\mathcal{N}(x_n|\mu,\sigma^2)
$$

为了简化分析和有助于数值运算,我们取似然函数的对数(最大化对数似然等价于最大化似然函数,很容易证明):
$$
ln(\mathbf x|\mu,\sigma^2)=-\frac {1} {2\sigma^2} \sum_{n=1}^{N}(x_n-\mu)^2-\frac {N}{2}ln\sigma^2-\frac{N}{2}ln(2\pi)
$$
关于$\mu$,最大化对数似然函数,得到$\mu$的最大似然解:
$$
\mu_{ML}=\frac {1}{N} \sum_{n=1}^{N}x_n
$$
可看到解为样本均值。同理,方差$\sigma^2$的最大似然解为:
$$
\sigma_{ML}^2=\frac {1}{N} \sum_{n=1}^{N}(x_n-\mu_{ML})^2
$$
由此完成了正态分布的极大似然估计。

3. 极大似然的有偏性

极大似然估计方法求解参数有一定局限性$^{[3]}$,极大似然法除了会得出第1节中关于硬币的极端情况外,还会出现一种情况,有偏估计,就是期望$\ne$理想值。最大似然方法会系统化地低估分布的方差。下面进行证明:

均值的估计$\mu_{ML}$的期望$E[\mu_{ML}]$为:
$$
E(\mu_{ML})=E(\frac{1}{N} \sum_{n=1}^{N}x_n)=\frac {1}{N}E({\sum_{n=1}^{N}x_n})=\frac{1}{N}\sum_{n=1}^{N}E(x_n)=\mu
$$

方差的估计$\sigma^2$的期望$E[\sigma_{ML}^2]$为:
$$
E[\sigma_{ML}^2]=E(\frac {1}{N} \sum_{n=1}^{N}(x_n-\mu_{ML})^2)=E(\frac{1}{N}\sum_{n=1}^{N}x_n^2-\mu_{ML}^2)=\frac {1}{N}\sum_{n=1}^{N}E(x_n^2)-E(\mu_{ML}^2)
$$

然后求其后两项,正态分布的二阶矩为
$$
E(x_n^2)=\mu^2+\sigma^2
$$

$$
E(\mu_{ML}^2)=E((\frac{x_1+x_2+x_3+\cdots+x_n}{n})^2)=\frac{1}{n^2}(n^2\mu^2+n\sigma^2)
$$

故:
$$
E[\sigma_{ML}^2]=\frac{n-1}{n}\sigma^2
$$
由此证明了极大似然的有偏性。其中公式(12)和公式(13)的证明可自行参考正态分布的基础知识。

在这里,PRML$^{[3]}$给出了更直观地解释,如下图:

其中,绿色曲线表示真实高斯分布,数据点是根据此概率分布生成,三条红色分别拟合了三个高斯概率分布,每个数据集包含了两个蓝色数据点,对三个数据集求平均,很明显方差被低估了。因为它是相对样本均值进行测量的,而不是相对真实的均值进行测量

4. 后记

极大似然作为机器学习中的一种最常用方法,深刻理解其含义是非常必要且有用的,应该像这对于理解概率论和一些常见的模型有着很大的帮助。当然,极大似然法还有一些性质,如泛函不变性渐行线行为,限于时间精力和个人水平,没有给出证明,读者可自行参考维基百科$^{[2]}$。文章中大部分内容为总结和摘抄,共勉。

参考文献:

https://zh.wikipedia.org/wiki/%E4%BC%BC%E7%84%B6%E5%87%BD%E6%95%B0

https://zh.wikipedia.org/wiki/%E6%9C%80%E5%A4%A7%E4%BC%BC%E7%84%B6%E4%BC%B0%E8%AE%A1

《 Pattern Recognition and Machine Learning 》(即PRML)

《Theory of Point Estimation》

https://www.zhihu.com/question/35670078

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/zzsygw.html