欢迎光临散文网 会员登陆 & 注册

逻辑回归(logistic regression)理论简介

2023-07-24 20:26 作者:子安武阳  | 我要投稿

线性回归实际上是输出连续性预测值的一个模型,简单的线性回归、多元线性回归、非线性回归都一样是输出连续性预测值的模型。正如我们所知晓的,机器学习的问题一般分为两种:连续值的预测和离散值的预测,连续值的预测可以用回归解决,离散值的预测可以用分类解决。

分类和回归二者不存在不可逾越的鸿沟。就波士顿房价预测作为例子:如果将房价按高低分为“高级”、“中级”和“普通”三个档次,那么这个预测问题也属于分类问题。

准确地说,逻辑回归(logistic regression)就是对数几率回归,属于广义线性模型,它的因变量一般只有0和1.

需要明确一件事:线性回归并没有对数据的分布进行任何假设,而逻辑回归隐含了一个基本假设:每个样本均独立服从于伯努利分布(0-1分布)。

对数几率回归

对数线性回归 一般形式:%5Cln%20y%20%3D%20w%5ETx%2Bb

上式将线性回归模型的预测值和实际值关联起来

更一般的形式:广义线性模型

g(x)称为联系函数:y%20%3D%20g%5E%7B-1%7D(w%5ETx%2Bb)

当我们对y使用函数g(x),便可以得到广义线性模型的一般形式:g(y)%20%3D%20w%5ETx%2Bb

二分类问题的理想联系函数:单位阶跃函数

y%3D%0A%5Cbegin%7Bcases%7D%0A0%26%20%5Ctext%7Bx%3C0%7D%5C%5C%0A0.5%26%20%5Ctext%7Bx%3D0%7D%5C%5C%0A1%26%20%5Ctext%7Bx%3E0%7D%0A%5Cend%7Bcases%7D

在二分类问题中,因变量的取值只有三种可能。

阶跃函数的代替函数:sigmoid函数,它能够把输入的连续实值变换为0和1之间的输出

Sigmoid函数和阶跃函数的不同是:

1.“平滑性”的不同。sigmoid函数是一条平滑的曲线,输出随着输入发生连续性的变化。而阶跃函数以0为界,输出发生急剧性的变化。

2.另一个不同点是,相对于阶跃函数只能返回0或1,sigmoid函数可以返回0.731 ...、0.880 …等实数。

其函数表达式为 y%20%3D%20%5Cfrac%7B1%7D%7B1%2Be%5E%7B-x%7D%7D%20,其函数图像如下:

单位阶跃函数与对数几率函数

将sigmoid函数带入线性模型中可得

y%20%3D%20%5Cfrac%7B1%7D%7B1%2Be%5E%7B-(w%5ETx%2Bb)%7D%7D   

经过推导可得:

%5Cln%20%5Cfrac%7By%7D%7B1-y%7D%20%3D%20w%5ETx%2Bb%20     

%5Cfrac%7By%7D%7B1-y%7D称为“几率”,表示样本取正例的可能性比例;而%5Cln%20%5Cfrac%7By%7D%7B1-y%7D称为“对数几率”。


对数几率回归任务的目标就是寻找到合适的w,b,使函数输出逼近真实类别。

进一步地,我们不妨把y视为类别取值为1(或者0)的概率,可以得到:

%5Cln%20%5Cfrac%7By%7D%7B1-y%7D%20%3D%20w%5ETx%2Bb%20     %5Cimplies%20        %5Cln%20%5Cfrac%7Bp(y%3D1%7Cx)%7D%7Bp(y%3D0%7Cx)%7D%20%3D%20w%5ETx%2Bb      

那么P(y%3D1%7Cx)%20%3D%20%5Cfrac%7Be%5E%7Bw%5E%7BT%7Dx%2Bb%7D%7D%20%20%7B1%2Be%5E%7Bw%5E%7BT%7Dx%2Bb%7D%7D,        P(y%3D0%7Cx)%20%3D%20%5Cfrac%7B1%7D%7B1%2Be%5E%7Bw%5ETx%2Bb%7D%7D

那么目标函数变为:max%20%5Cmathcal%7Bl%7D(w%2Cb)%20%3D%20%5Csum_%7Bi%3D1%7D%5E%7Bm%7D%20%5Cln%20p(y_%7Bi%7D%7Cx_%7Bi%7D%3Bw%2Cb)

找到使得目标函数值最大的w,b;

目标函数的求解方法有梯度下降法、牛顿法等。


逻辑回归(logistic regression)理论简介的评论 (共 条)

分享到微博请遵守国家法律