机器学习总结(六)线性回归与逻辑回归 (2)

机器学习总结(六)线性回归与逻辑回归

将两式写在一起:

机器学习总结(六)线性回归与逻辑回归

明显当y=1时是第一个式子,当y=0时,是第二个式子。

对于概率问题,有m个样本,我们可以得到它的对数似然函数:

机器学习总结(六)线性回归与逻辑回归

这样有了目标函数l(θ),根据极大似然定理 ,当l(θ)最大的时候取得的θ,即为模型的最优解。

而逻辑回归的代价函数就是−l(θ),即−l(θ)越小越好。得到下式:

机器学习总结(六)线性回归与逻辑回归

用梯度下降公式求解:

机器学习总结(六)线性回归与逻辑回归

可得到迭代公式:

机器学习总结(六)线性回归与逻辑回归

总结

线性模型

优点:结果易于理解,计算上不复杂。 
缺点:对非线性数据拟合不好。

逻辑回归模型:

优点:实现简单;分类时计算量非常小,速度很快,存储资源低;

缺点:容易欠拟合,一般准确度不太高,只能处理两分类问题(在此基础上衍生出来的softmax可以用于多分类),且必须线性可分;

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/zzgyzy.html