lr模型训练_GBDT模型

lr模型训练_GBDT模型分类模型本质上是线性回归模型优化目标J(θ)=∑−yilog(h(θTxi))−(1−yi)log(1−h(θTxi))J(\theta)=\sum-y_ilog(h(\theta^Tx_i))-(1-y_i)log(1-h(\theta^Tx_i))J(θ)=∑−yi​log(h(θTxi​))−(1−yi​)log(1−h(θTxi​)),最小化其中h(θTx)=11+e−θ…

大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。

Jetbrains全系列IDE使用 1年只要46元 售后保障 童叟无欺

  • 分类模型
  • 本质上是线性回归模型
    在这里插入图片描述
  • 优化目标
    J ( θ ) = ∑ − y i l o g ( h ( θ T x i ) ) − ( 1 − y i ) l o g ( 1 − h ( θ T x i ) ) J(\theta) = \sum -y_ilog(h(\theta^Tx_i))-(1-y_i)log(1-h(\theta^Tx_i)) J(θ)=yilog(h(θTxi))(1yi)log(1h(θTxi)),最小化
    其中 h ( θ T x ) = 1 1 + e − θ T x h(\theta^Tx) = \frac{1}{1+e^{-\theta^Tx}} h(θTx)=1+eθTx1,是sigmoid函数
    在这里插入图片描述

linear regression和logistic regression都属于广义线性模型,linear regression是将高斯分布放在广义线性模型下推导得到的,logistic regression是将伯努利分布放在广义线性模型下推导得到的,softmax regression是将多项式分布放在广义线性模型下推导得到的。

推导请见:
https://www.zhihu.com/question/35322351/answer/67117244

LR和linear SVM的异同
同:

  1. 都是线性分类器,模型求解的是超平面
  2. 都是监督学习算法
  3. 都是判别模型

异:

  1. 本质上loss function不同,LR采用logistic loss,SVM采用hinge loss

  2. SVM只考虑支持向量,而LR考虑所有数据,因此如果数据strongly unbalanced,一般需要对数据做balance

  3. LR基于概率理论,SVM基于几何间隔最大化原理。因此LR的输出具有概率意义,SVM的输出没有概率意义。

  4. 在解决非线性问题时,SVM采用核函数的机制,LR通常不采用核函数的方法(每个样本点都要参与核计算,计算量太大)

  5. SVM依赖数据表达的距离测度,所以需要对数据进行标准化。不带正则项的LR不受影响,但是使用梯度下降法求解时,为了更好的收敛,最好进行标准化。

  6. SVM自带正则,LR需要添加上正则项

  7. 根据经验来看,对于小规模数据集,SVM的效果要好于LR,但是大数据中,SVM的计算复杂度受到限制,而LR因为训练简单,可以在线训练,所以经常会被大量采用

[1] https://www.cnblogs.com/zhizhan/p/5038747.html
[2] https://www.zhihu.com/question/26768865/answer/34048357
[3]https://blog.csdn.net/haolexiao/article/details/70191667

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/183845.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号