
极大似然和最小二乘
极大似然和最小二乘
本文为PRML第三章3.1.1笔记,书中推导步骤过于简单,对长期没有接触高数的读者很不友好,故在此记录一下由极大似然到最小二乘的详细的推导过程。
线性回归的方程可以写成如下形式:
其中$\epsilon$是一个均值为零的高斯随机变量,精度(方差的倒数)为$\beta$。
可以认为$y$值符合均值为$f(x,w)$,方差为$\beta^{-1}$的高斯分布:
根据高斯分布的概率分布公式可以转化为:
在此条件分布下,可以很快地求得$y$的条件均值:
在实际问题中,$X$为数据集${x_1,…,x_n}$,对应的目标值$y_1,…y_n$,${y_n}$是一个列向量,记作$y$,可以得到如下公式:
对两边同时取导数
将前面的概率公式带入之后可以写成
为了使概率$p(y|X,w,\beta)$最大,就需要使$\sum{n=1}^{N} \frac{\beta (y_n-f(x,w))^2}{2}$最小,也就是使$\sum{n=1}^{N} (y_n-f(x,w))^2$最小。
如此一来,又变成了一个最小二乘问题,对其求导后令导数为零,即可得到最终$w$的解(具体推导过程参考线性回归与岭回归的数学推导):
感谢您的阅读,本文由 dalalaa读书日记 版权所有。如若转载,请注明出处:dalalaa读书日记(http://yoursite.com/2018/04/17/极大似然和最小二乘/)