机器学习的经典代表算法总结
AdaBoost
Adaptive Boosting
或称为AdaBoost,
是多种学习算法的融合。 它是一种迭代算法,其核心思想是针对同一个训练集训练不同的分类 器(弱分类器),然后把这些弱分类器集合起来,构成一个更强的最终 分类器(强分类器)。其算法本身是通过改变数据分布来实现的,它根 据每次训练集之中每个样本的分类是否正确,以及上次的总体分类的 准确率,来确定每个样本的权值。将修改过权值的新数据集送给下层 分类器进行训练,然后将每次训练得到的分类器融合起来,作为最终 的决策分类器。
AdaBoost
是最常用的算法,它可用于回归或者分类算法。相比其 他机器学习算法,它克服了过拟合的问题,通常对异常值和噪声数据 敏感。为了创建一个强大的复合学习器,
AdaBoost
使用了多次迭代。 因此,它又被称为
"Adaptive Boosting"
通过迭代添加弱学习器,
AdaBoost
创建了一个强学习器。一个新的弱学习器加到实体上,并且 调整加权向量,作为对前一轮中错误分类的样例的回应。得到的结果, 是一个比弱分类器有更高准确性的分类器。
AdaBoos ...