0%

机器学习算法(八):Adaboost

组合

分类算法有很多,比如逻辑回归、kNN 算法、决策树、朴素贝叶斯算法、支持向量机等,它们各有优缺点。我们自然可以将不同的分类器组合起来,而这种组合结果则被称为集成方法(ensemble method)或者元算法(meta-algorithm)。使用形式多种多样,可以是不同算法的集成,还可以是相同算法不同配置的集成,也可以自行发挥。

bagging

自举汇聚法(bootstrap aggregating),也称为 bagging 方法。是从原始数据集选择 S 次后得到 S 个新数据集的一种技术。新数据集与原数据集的大小相等。 在 S 个数据集建好之后,将某个学习算法分别作用域每个数据集就得到了 S 个分类器。使用这 S 个分类器进行分类,然后将结果中最多的类别作为最后的分类结果。 当然还有一些更先进的 bagging 方法,比如随机森林(random forest)。

boosting

boosting 方法拥有多个版本,这里只关注其中一个最流行的版本 AdaBoost。