目录
1.基本含义和思想
Logistic回归和线性回归最大的区别在于,Y的数据类型。线性回归分析的因变量Y属于定量数据,而Logistic回归分析的因变量Y属于分类数据。分类数据指的是,Y的结果不是一个值(量),而是一个类别,比如一件衣服的是否有人想购买?这里的Y是“是否愿意购买”,属于分类数据。如果Y值仅两个选项,分别是有和无之类的分类数据,选择二元Logistic回归分析。
因此,逻辑回归(Logistic regression)是一种基于因变量为二项分布的广义线性模型,当需要通过一系列连续型或类别型预测变量来预测二值型结果时是一个非常有用的工具。
2.论文[3]进行回归预测的思路是什么?
已知某个特定用户在某两个相邻的支付时刻之间,所有的点击、收藏和加购物车的累计次数,作为解释变量(可以理解为自变量),是否有支付行为作为被解释变量(可以理解为因变量),我们要做的就是根据已知数据建立模型p= y (x1,x2,…,xn),p是支付的概率,建立模型的过程就是求解Logistic函数中参数的过程,最终通过迭代得到完整的Logistic函数,便能够根据该模型,通过下一阶段用户的点击、收藏和加购物车的次数预测该用户进行支付动作的概率。
因此最重要的就是如何建立该模型,也就是Logistic函数,即求参数,下面开始详细讨论。
3.求逻辑回归模型的数学过程
3.1 改写函数
3.2 函数变换
周志华在书中提到:由此可看出,式(3.18)实际上是在用线性回归模型的预测结果去逼近真实标记的对数几率,因此,其对应的模型称为”对数几率回归” (logistic regression,亦称logit regression)。
3.3 得到离散概率
3.4 最大似然法
3.5 牛顿法
接着利用经典的数值优化算法如梯度下降法(gradient descent method) 、牛顿法(Newton method)等都可求得其最优解。
牛顿法的思想:基本牛顿法是一种是用导数的算法,它每一步的迭代方向都是沿着当前点函数值下降的方向。即通过求解目标函数一阶导为零的参数值,进而求得目标函数最小值。
梯度下降法的思想:梯度是函数在某点处的一个方向,并且沿着该方向变化最快,变化率最大。因此梯度下降的方向就是在该点处使值变小最快的方向。
4.逻辑回归在论文[3]中的应用
参考文章
参考文献
[3]唐慧祥,常啸,宋来敏.基于数据挖掘的淘宝精准营销策略研究[J].哈尔滨师范大学自然科学学报,2020,36(03):19-24.
[17]马姝.基于数据挖掘的消费者购买预测的研究[D].云南财经大学,2016.
[18]周志华. 机器学习 : = Machine learning[M]. 清华大学出版社, 2016.
发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/227622.html原文链接:https://javaforall.net
