机器学习——Boosting算法与Adaboost算法

Boosting算法

关键点与难点在于如何修改数据

原理:将 含有m个数据的数据集 丢给一个弱学习器1分类,比如分对百分之60,

那么经过一定手段修改数据集,数据个数还是m个,将修改后的数据集扔给弱学习器2训练,学习器2把在学习器1中分错的那一部分又分对百分之三十。

再修改数据集,将修改后的数据集扔给弱学习器3训练,学习器3把在学习器1和2中分错的那一部分又分对百分之三十。

最后加权融合为一个强学习器。

......

......

如下图:

机器学习——Boosting算法与Adaboost算法

 重点:修改数据集的方法

①凡解(配图讲解,绝对可以懂)

设原数据集为D,将其咔嚓好几刀分为n份,假设分成了三份,一份70%,一份20%,一份10%。

先拿70%这份去给弱分类器C1进行训练,假设C1分对了55%,分错了45%。

再提溜20%那一份作为测试集,扔给C1训练,分对了算C1牛批,C1没出息分错了的话就扔给楼下的D2数据集

由C1分错了的数据加上一些C1分对了的数据共同组成数据集D2,把D2丢给一个新的弱分类器C2训练。(为什么加上一些C1分对了的数据?为了保证数据的完整性,如果D2中含有C1分的错的多,那么C2分类时就会偏向于C1分错的这部分,因为它多啊,所以尽量D2中是一半C1分对的,一半C1分错的)

 以此类推,生生不息

老板,上图!

 机器学习——Boosting算法与Adaboost算法

②AdaBoost算法修改数据

最好用来作分类

凡解:总而言之一句话:修改权重,基于上上个图片,可以看出,一个一个的弱分类器分类后,越往后的弱分类器分类误差率越小,也就是分类效果越好(因为分类错误的越来越少了),

官解一:

  算法/子模型会为每个样本赋予一个权重,每次用训练好的学习器标注/预测各个样本(训练数据),如果某个样本点被预测的越正确,则将样本权重降低;否则提高样本的权重。权重越高的样本在下一个迭代训练中所占的权重就越大,也就是说越难区分的样本在训练过程中会变得越重要;
  整个迭代过程直到错误率足够小或者达到一定的迭代次数为止。
官解二:
  机器学习——Boosting算法与Adaboost算法

   其中Gm为从第一个开始的一个一个的弱分类器,G1,G2,G3......Gm。

αm为我们分配给各个分类器的权重。

如下公式是强分类器的公式:

机器学习——Boosting算法与Adaboost算法

   公式解释:公式的结果是加权求和的形式,组合成强分类器。Gm是弱分类器,那么Gm分类的结果就是1or-1,1or-1,1or-1,αm是权重,可以是任意值,所以αm是连续的,那么机器学习——Boosting算法与Adaboost算法也就是连续的,但是我们最后搭建的是分类器,所以用符号函数,把连续的量变成离散的量。

那么现在就该求αm和Gm了吧,首先搞清楚分类的目标是什么?答:分类的准确率。自然就是错误率越低越好咯。

那我们以分类错误的几率作为损失函数,分类错误的几率如何表示?分类错误的个数/总的个数,分类错误的个数如何表示?G(x)≠yi,G(x)是强分类器分类的结果,yi是对应的正确的分类标签。G(x)≠yi也就是说强学习器分类的结果和它正确的所属类别不同,不就是分类错误咯。为了便于操作,用指示函数把它套上,即I(G(x)≠yi),意思是分类错误的话记作1,分类正确的话记作0,i从1到n就是分类错误的样本个数机器学习——Boosting算法与Adaboost算法,n是总的个数,即所有样本的个数,再除以n,不就是错误率了吗,最后损失函数公式如下:机器学习——Boosting算法与Adaboost算法 

现在再回归我们一开始的目标:让其准确率最高,即错误率最低,求αm和Gm。----很明显,损失函数和αm与Gm没有半毛钱关系,那怎么办?扩大呗,扩大后让它们有关系呗,怎么扩大?这个有点乱,我用手写表示吧,上图!

机器学习——Boosting算法与Adaboost算法

 最后损失函数公式建立起来关系后为:机器学习——Boosting算法与Adaboost算法

目的是准确率最高,那么找损失函数最小值即可,也就是找机器学习——Boosting算法与Adaboost算法最小值即可。

 f(x)其实是α1G1+α2G2+α3G3+.....+αmGm,而Boosting思想是搭建了第一个分类器才搭建第二个分类器,那么当我要求αmGm的时候,实际上从α1G1到αm-1Gm-1都是知道的,那么损失函数机器学习——Boosting算法与Adaboost算法中的f(x)就可以写成f(m-1)(x)+αmGm,得到机器学习——Boosting算法与Adaboost算法

化简后得到

机器学习——Boosting算法与Adaboost算法

 那么实际过程中,假设Gm这个分类器我们已知了,那么最后的式子就只有一个αm是未知参数,要错误率最小,即求loss函数的最小值,即求导=0即可,对谁求导?一个未知参数,αm。求导过程如下,手推了一遍,有些乱,但是易懂,嫌乱的后面有官解过程

机器学习——Boosting算法与Adaboost算法

机器学习——Boosting算法与Adaboost算法

 Adaboost第二种修改数据集的方式其实就是修改样本的权重,即wi

如下图

机器学习——Boosting算法与Adaboost算法

 机器学习——Boosting算法与Adaboost算法

权重更新用的就是机器学习——Boosting算法与Adaboost算法公式

每搭建一个弱分类器,就和之前的弱分类器集成一下,集成完之后看看结合成的强学习器的结果,达到要求不再往下进行,达不到继续搭建弱分类器,要求就是准确率。

机器学习——Boosting算法与Adaboost算法

 其中,基本上在代码中可调整的参数仅有n_estimators(弱分类器的个数)

机器学习——Boosting算法与Adaboost算法

相关推荐