machine learning 之 导论 一元线性回归 (2)

machine learning 之 导论 一元线性回归

 

此时常用等高线图来表示损失函数:

machine learning 之 导论 一元线性回归

对于以上的训练数据,当$\theta_0=0, \theta_1=360$时,$J(\theta_0, \theta_1)$位于等高线图中红色叉叉的位置;

 

machine learning 之 导论 一元线性回归

当$\theta_0, \theta_1$如下左图时,$J(\theta_0, \theta_1)$位于等高线图中绿色叉叉的位置;

machine learning 之 导论 一元线性回归

当$\theta_0, \theta_1$如下左图时,$J(\theta_0, \theta_1)$位于等高线图中蓝色叉叉的位置,也就是接近最优解的地方,等高线的近似中间位置;

machine learning 之 导论 一元线性回归

 

梯度下降算法

那么如何找到最优解呢?梯度下降算法就是一个方法,见以往博客:Gradient Descent

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/wpdgwx.html