【ML-9-3】支持向量机--SMO算法原理

目录

  1. SVM优化目标函数
  2. SMO算法的基本思想
  3. SMO算法目标函数的优化
  4. SMO算法两个变量的选择及计算阈值b和差值E
  5. SMO算法流程总结

一、SVM优化目标函数

在SVM的前两篇里,我们优化的目标函数最终都是一个关于α向量的函数。而怎么极小化这个函数,求出对应的α向量,进而求出分离超平面我们没有讲。本篇就对优化这个关于α向量的函数的SMO算法做一个总结。

序列最小优化算法(Sequential minimal optimization, SMO)是一种用于解决SVM训练过程中所产生的优化问题的算法。 于1998年由John Platt发明。

【ML-9-3】支持向量机--SMO算法原理

假定存在一个β*=(β1,β2,...,βm)是我们最终的最优解,那么根据KKT条件我们可以

计算出w和b的最优解,如下:

【ML-9-3】支持向量机--SMO算法原理

进而我们可以得到最终的分离超平面为:

【ML-9-3】支持向量机--SMO算法原理

拉格朗日乘子法和KKT的对偶互补条件为:

【ML-9-3】支持向量机--SMO算法原理

β、μ和C之间的关系为:

【ML-9-3】支持向量机--SMO算法原理

根据这个对偶互补条件,我们有如下关系式:

【ML-9-3】支持向量机--SMO算法原理

【ML-9-3】支持向量机--SMO算法原理

根据上式,我们得到以下式子,也就是说我们找出的最优的分割超平面必须满足下列的目标条件(g(x)):

【ML-9-3】支持向量机--SMO算法原理

拉格朗日对偶化要求的两个限制的初始条件为

【ML-9-3】支持向量机--SMO算法原理

二、SMO算法的基本思想

从而可以得到解决问题的思路如下:

  1. 首先,初始化后一个β值,让它满足对偶问题的两个初始限制条件
  2. 然后不断优化这个β值,使得由它确定的分割超平面满足g(x)目标条件;而且在优化过程中,始终保证β值满足初始限制条件

备注:这个求解过程中,和传统的思路不太一样,不是对目标函数求最小值,而是让g(x)目标条件尽可能的满足

上面优化式子比较复杂,里面有m个变量组成的向量β需要在目标函数极小化的时候求出。直接优化时很难的。利用启发式的方法/EM算法的思想,每次优化的时候,只优化两个变量,将其它的变量看成常数项,这样SMO算法就将一个复杂的优化算法转换为一个比较简单的两变量优化问题了。

整理可以发现β值的优化必须遵循以下两个基本原则:

  1. 每次优化的时候,必须同时优化β的两个分量;因为如果只优化一个分量的话,新的β值就没法满足初始限制条件中的等式约束条件了。
  2. 每次优化的两个分量应该是违反g(x)目标条件比较多的。也就是说,本来应当是大于等于1的,越是小于1违反g(x)目标条件就越多。

为了后面表示方便,我们定义:

【ML-9-3】支持向量机--SMO算法原理

认为β1、β2是变量,其它β值是常量,从而将目标函数转换如下

【ML-9-3】支持向量机--SMO算法原理

三、SMO算法目标函数的优化

【ML-9-3】支持向量机--SMO算法原理

【ML-9-3】支持向量机--SMO算法原理

【ML-9-3】支持向量机--SMO算法原理

【ML-9-3】支持向量机--SMO算法原理

【ML-9-3】支持向量机--SMO算法原理

【ML-9-3】支持向量机--SMO算法原理

【ML-9-3】支持向量机--SMO算法原理

【ML-9-3】支持向量机--SMO算法原理

【ML-9-3】支持向量机--SMO算法原理

考虑β1和β2的取值限定范围,假定新求出来的β值是满足我们的边界限制的,即如下所示,可以通过看图,也可以通过代数计算得出:

【ML-9-3】支持向量机--SMO算法原理

【ML-9-3】支持向量机--SMO算法原理

当y1≠y2的时候,β1-β2=k;由于β的限制条件,我们可以得到:

【ML-9-3】支持向量机--SMO算法原理

当y1=y2的时候,β1+β2=k; 由于β的限制条件,我们可以得到:

【ML-9-3】支持向量机--SMO算法原理

结合β的取值限制范围以及函数W的β最优解,我们可以得带迭代过程中的最优解为

【ML-9-3】支持向量机--SMO算法原理

然后根据β1和β2的关系,从而可以得到迭代后的β1的值:

【ML-9-3】支持向量机--SMO算法原理

求解β的过程中,相关公式如下:

【ML-9-3】支持向量机--SMO算法原理

四、SMO算法两个变量的选择及计算阈值b和差值E

可以发现SMO算法中,是选择两个合适的β变量做迭代,其它变量作为常量来进行优化的一个过程,那么这两个变量到底怎么选择呢?

  1. 每次优化的时候,必须同时优化β的两个分量;因为如果只优化一个分量的话,新的β值就没法满足初始限制条件中的等式约束条件了。
  2. 每次优化的两个分量应该是违反g(x)目标条件比较多的。也就是说,本来应当是大于等于1的,越是小于1违反g(x)目标条件就越多。

4.1、第一个β变量的选择

SMO算法在选择第一个β变量的时候,需要选择在训练集上违反KKT条件最严重的样本点。一般情况下,先选择0<β<C的样本点(即支持向量),只有当所有的支持向量都满足KKT条件的时候,才会选择其它样本点。因为此时违反KKT条件越严重,在经过一次优化后,会让变量β尽可能的发生变化,从而可以以更少的迭代次数让模型达到g(x)目标条件

【ML-9-3】支持向量机--SMO算法原理

4.2、第二个β变量的选择

在选择第一个变量β1后,在选择第二个变量β2的时候,希望能够按照优化后的β1和β2有尽可能多的改变来选择,也就是说让|E1-E2|足够的大,当E1为正的时候,选择最小的Ei作为E2;当E1为负的时候,选择最大的Ei作为E2。

备注:如果选择的第二个变量不能够让目标函数有足够的下降,那么可以通过遍历所有样本点来作为β2,直到目标函数有足够的下降,如果都没有足够的下降的话,那么直接跳出循环,重新选择β1;

4.3、计算阈值b和差值E

在每次完成两个β变量的优化更新之后,需要重新计算阈值b和差值Ei。

【ML-9-3】支持向量机--SMO算法原理

【ML-9-3】支持向量机--SMO算法原理

同样的当β2的取值为: 0<β2<C的时候,我们也可以得到

【ML-9-3】支持向量机--SMO算法原理

最终计算出来的b为:

【ML-9-3】支持向量机--SMO算法原理

当更新计算阈值b后,就可以得到差值Ei为:

【ML-9-3】支持向量机--SMO算法原理

五、SMO算法流程总结

5.1、输入线性可分的m个样本数据{(x1,y1),(x2,y2),...,(xm,ym)},其中x为n维的特征向量,y为二元输出,取值为+1或者-1;精度为e

【ML-9-3】支持向量机--SMO算法原理

【ML-9-3】支持向量机--SMO算法原理

5.2、按照β1k和β2k的关系,求出β1k+1的值:

【ML-9-3】支持向量机--SMO算法原理

5.3、按照公式计算bk+1和Ei的值;

【ML-9-3】支持向量机--SMO算法原理

5.4、检查函数y(i)*Ei的绝对值是否在精度范围内,并且求解出来的β解满足KKT相关约束条件,那么此时结束循环,返回此时的β解即可,否则继续迭代计算β2new,unt的值。

??

??

??

??

相关推荐