Adaboost是boosting的一种特例,相当与以exponential loss function作为目标函数优化来求解模型,也就是lz所说的误差最小。
lz可以有兴趣的话,可以查一下boosting这种方法,不止可以用来做分类,一般的回归问题也适用。比较重要的论文有 (Friedman 1999a)
http://www-stat.stanford.edu/~jhf/ftp/trebst.pdf ,这篇论文将boosting作为一种方法体系,建立起来。(Friedman 1999b)
http://www-stat.stanford.edu/~jhf/ftp/stobst.pdf ,这篇论文加入了stochastic的拟合元素,收敛速度更快,更好的解决了overfitting的问题。
R下面比较成熟的做boosting的package是gbm。 功能实现比较全面,包括lz需要的Adaboost,用底层C实现的。Friedman自己也做了一个package叫mart。做得也很不错,更偏学术一点,底层用Fortran构建,速度更快,但只能在windows和linux/unix下面跑,mac不行。