目录:
一、0-1损失函数
二、平方损失函数(Square Loss):主要是最小二乘法(OLS)中;
三、绝对值损失函数
四、对数损失函数(Cross Entropy Loss,Softmax Loss ):用于Logistic 回归与Softmax 分类中;
五、指数损失函数(Exponential Loss) :主要用于Adaboost 集成学习算法中;
六、铰链损失函数(Hinge Loss):主要用于支持向量机(SVM) 中;
内容:一、0-1损失函数
可以看出,该损失函数的意义就是,当预测错误时,损失函数值为1,预测正确时,损失函数值为0。该损失函数不考虑预测值和真实值的误差程度,也就是只要预测错误,预测错误差一点和差很多是一样的。
如果你觉得这篇文章看起来稍微还有些吃力,或者想要系统地学习人工智能,那么推荐你去看床长人工智能教程。非常棒的大神之作,教程不仅通俗易懂,而且很风趣幽默。点击这里可以查看教程。
二、平方损失函数
该损失函数的意义也很简单,就是取预测差距的平方。
三、绝对值损失函数
该损失函数的意义和上面差不多,只不过是取了绝对值,差距不会被平方缩放。
四、对数损失函数
这个损失函数就比较难理解了。事实上,该损失函数用到了极大似然估计的思想。P(Y|X)通俗的解释就是:在当前模型的基础上,对于样本X,其预测值为Y,也就是预测正确的概率。由于概率之间的同时满足需要使用乘法,为了将其转化为加法,我们将其取对数。最后由于是损失函数,所以预测正确的概率越高,其损失值应该是越小,因此再加个负号取个反。
经典的对数损失函数包括entropy和softmax,这里以entropy为例在逻辑回归中,我们采用的是对数损失函数。由于逻辑回归是服从伯努利分布(0-1分布)的,并且逻辑回归返回的sigmoid值是处于(0,1)区间,不会取到0,1两个端点。因此我们能够将其损失函数写成以下形式:
解释一下含义: 当真实值y=1时,,当预测值越接近1,也越接近最大值1,加上负号后就代表误差值最小。而当预测值越接近0,越接近负无穷,加上负号后就代表误差值最大。当真实值y=0时,,当预测值越接近0,也越接近最大值1,加上负号后就代表误差值最小。而当预测值越接近1,越接近负无穷,加上负号后就代表误差值最大。最后逻辑回归中对于所有样本的损失函数为:
五、指数损失函数
指数误差,在boosting算法中比较常见:
学过Adaboost算法的人都知道,它是前向分步加法算法的特例,是一个加和模型,损失函数就是指数函数。在Adaboost中,经过m此迭代之后,可以得到
Adaboost每次迭代时的目的是为了找到最小化下列式子时的参数
而指数损失函数(exp-loss)的标准形式如下
可以看出,Adaboost的目标式子就是指数损失,在给定n个样本的情况下,Adaboost的损失函数为:
六、hinge loss损失函数
hinge损失函数和SVM是息息相关的。在线性支持向量机中,最优化问题可以等价于下列式子:下面来对式子做个变形,令:于是,原式就变成了: