损失一致性(surrogate loss consistency),理学-计算机科学技术-人工智能-机器学习-学习理论,通过优化连续的、凸的替代损失函数所得到的学习器,对0/1损失是否达到最优,即通过优化替代损失函数能否学习得到贝叶斯最优分类器的研究。在监督分类学习中,一般都采用错误率(或等价于精度accuracy),即0/1损失,来衡量学习方法的有效性。但由于0/1损失函数是非凸不连续的,直接优化往往会导致NP-难问题,从而导致在实际中计算不可行。一种可行的方法是对0/1损失进行凸放松,转而优化一些连续的凸替代损失函数。损失一致性研究通过优化替代损失函数所学习得到的学习器,对0/1损失是否达到最优,即通过优化替代损失函数能否学习得到贝叶斯最优分类器。以二分类为例,假设令为输入空间、为输出空间,分布为空间上的联合分布。定义条件概率:给一个函数,定义去标记预测为,因此0/1损失定义为,对0/1损失的贝叶斯最优分类器为:由于0/1损失本身是非凸不连续的,直接优化0/1损失往往会导致NP-难问题,从而导致计算的不可行。在实际中,一种可行的方案是对0/1损失凸放松,转而优化连续的凸函数。