问题布景

假设有这样的一个需求:判别某一朵花是不是鸢尾花。咱们知道不同品种的花,其长得是不一样,所以咱们可以经过花的若干外观特征(花萼长度、花萼宽度、花瓣长度、花瓣宽度等)来标明这一朵花。
依据这个思路,咱们收集N朵花并对其标示,得到以下的数据集。
机器学习进阶 - 深化考虑逻辑回归

考虑最简略的一种现象,Y(是否为鸢尾花),与特征X线性相关,W定义为相关系数,即模型F可以用下面公式表述:

机器学习进阶 - 深化考虑逻辑回归

化简写成向量化办法线性回归方程公式:,也便是线性回归

现在问题来了,是和梯度下降法python完成否是两种状态,在计算机科学上咱们常用1/0开关量来表述线性回归方程,但是从逻辑回归丢掉函数标明式的值域上看数学公式: 能取恣意值,这是没办法直接成表述0/1开关量。那怎样处理这个问题呢?经过一个转化函数(又称为激活函数),将线性回归转化逻辑回归

建模思路

并不是恣意函数都可以作激活函数运用的,激活函数梯度下降法原理具有以下几种出色的性质:
非线性,线性函数的复合线性函数仍是线性函数,故线性激活函数不能带来非线性的转化,运用这样激活函数不能线性回归模型增强模型的表达能力,如此一来就没办法拟合杂乱的结束问题了,逻辑回归分析所以激活函数有必要非线性的。
连续可微,假如函数不可微分,就没办法经过梯度下降法来迭代优化,以得到近似的最优解了。假如激活函数不可微,或许需求其他各杂乱的数学东西来求解,一是未必会有解,二是计算成本太高,难以结束和落地。
单调性,线性函数自身是单调,这个自身是必定的物理意义的,所以经过激活函数转化后也坚持这个性质,不能改动其单调性。 满意

直接转化

经过一个分段函数,把f(x)直接映射成0或1,如公式所示:
机器学习进阶 - 深化考虑逻辑回归
但是,这个分段函数梯度下降法python完成不连续不可微不单调,还带一个额外的参数k,所以这种分段函数并不适协作激逻辑回归spss活函数运用。

直接映射

不直接映射成0或1,而是线性回归方程公式详解将f(x)的值域压缩到(0,1)之间,如公式所示:
机器学习进阶 - 深化考虑逻辑回归
这便是sigmoid函数了,下图为sigmoid函数的线性回归统计三要素图画。
机器学习进阶 - 深化考虑逻辑回归
明显是这个函数是具有上面提到的激活函数梯度下降法求最小值的三种优秀性质。一起将输出压缩到(0,1)区间上,有一个很直观感受是,咱们可以把这个输出值了解为一逻辑回归分析种概率,在这个问题上指的是鸢尾花的概率,当这个概率值大于0.5,说明鸢尾花概率大即1,反之则不是鸢尾花即0,逻辑回归spss这就能结束分类的判别了。

结束逻辑

那已然现在有了sigmoid激活函数,咱们该怎样使用它练习模型呢?模型之所以能练习是依赖于两个神器:丢掉函数和梯度下降,前者能量化咱们模型猜测与实在作用的过失、承认优化的方针函数,后者能知道怎样去减少过失、具体地优化方针函数。

丢掉函数

sigmoid激活函数输出值可以看作是概率,具体地咱们可以把这个概率,看成是猜测作用为是的概率。
机器学习进阶 - 深化考虑逻辑回归
咱们需求猜测的分类作用要么为是要么为否,只需两种情况,明显样本X是恪守伯努利(0-1)散布。假定样本X,当分类标签真值y为1时,咱们就看y_pred也是sigmoid的输出值(模型猜测为是的概率),0是1的互斥工作,当分类标签真值为0时,咱们就看1-y_pred(模型猜测为否的概率),所以条件概率P(Y|X)可以量化出模型猜测的精确程度了。
机器学习进阶 - 深化考虑逻辑回归
兼并化简,整组成统一办法

P(Y|X)便是模型猜测作用,明显P(Y|X)的值越接近于1,说明模型猜测逻辑回归算法原理作用越准。一个数据集有N个样本,每个样本之间独立的,所以在模型在整个数据上好坏,可以这样定义:
机器学习进阶 - 深化考虑逻辑回归
明显,要使得模型的作用最佳,则得找到一个最佳参数使得机器学习进阶 - 深化考虑逻辑回归能取到最大值,这个便是最优化办法里面的极大使然估计(MLE)了,我逻辑回归丢掉函数们找到丢掉函数了。
机器学习进阶 - 深化考虑逻辑回归
接下来,咱们得看看怎样逻辑回归和线性回归的差异转化这个丢掉函数:加负号(最大值问题转化最小值问题逻辑回归spss,梯度下降能找最小值),取对数(不改单调性,把杂乱的连乘变成简略的连加)
机器学习进阶 - 深化考虑逻辑回归

梯度下降

承认了方针函数之后,接下来就可以使用梯度下降,用迭代更新参数W,使其不断迫临方针函数的极值点。
机器学习进阶 - 深化考虑逻辑回归
梯度推导:
机器学习进阶 - 深化考虑逻辑回归
联立式②③可见
机器学习进阶 - 深化考虑逻辑回归
由此可见,t+1时间模型猜线性回归方程公式想过失总会比梯度下降法matlab在t时间更小,经过这样迭代,模型就能不断学梯度下降法公式习和调整,一直到偏逻辑回归原理导数为0的(逻辑回归推导局部)最优极值点,这时候参数便无法再持续调整了,模型也就间断再练习了。

结语

逻辑回归(Logistic Regression)是机器学习上面一个最简略、最基础的模型结构和底子范式,不夸大地说它是机器学习奠基石之一,后续的机器梯度下降学习模型逻辑回归和线性回归的差异,许多都是立足于这个基础的模型结构上,提出各种办法拓展与改进。
深刻地了解逻辑回归模型,收拾逻辑回归模型背面建模思路、因果缘由、结束逻辑,能让咱们对机器学习的办法论有一个更全面更清楚的认知。