16.4 文献笔记
16.4 文献笔记¶
如在导言中说到的那样,机器学习中的许多新方法都被称为“ensemble”方法。这其中包括 neural networks boosting, bagging
和 随机森林; Dietterich (2000a)1 调查了基于树的集成 (ensemble) 方法。神经网络(第 11 章)或许更值得这个名字,因为他们同事学习隐藏单元(基函数)的参数,并且考虑怎样结合他们。Bishop (2006)2 在某些细节上讨论了神经网络,以及贝叶斯观点 (MacKay, 19923; Neal, 19964)。支持向量机(第 12 章)也可以看成是集成方法;它们在高维特征空间中拟合 \(L_2\) 正则化模型。Boosting 和 Lasso 通过 \(L_1\) 正则化利用稀疏性来解决高维问题,而 SVMs 依赖 \(L_2\) 惩罚的“核技巧”的性质。
C5.0 (Quinlan, 20045) 是一个 committee
树和规则生成包,与 Rulefit
有相同的目标。
有大量且不同的文献经常被称作“组合分类器”,它在用于混合不同类型的方法的 ad-hoc 模式中大量存在,能够达到更好的性能。有关原则的方法,参见 Kittler et al. (1998)6.
- 1
Dietterich, T. (2000a). Ensemble methods in machine learning, Lecture Notes in Computer Science 1857: 1–15.
- 2
Bishop, C. (2006). Pattern Recognition and Machine Learning, Springer, New York.
- 3
MacKay, D. (1992). A practical Bayesian framework for backpropagation neural networks, Neural Computation 4: 448–472.
- 4
Neal, R. (1996). Bayesian Learning for Neural Networks, Springer, New York.
- 5
Quinlan, R. (2004). C5.0, www.rulequest.com
- 6
Kittler, J., Hatef, M., Duin, R. and Matas, J. (1998). On combining classifiers, IEEE Transaction on Pattern Analysis and Machine Intelligence 20(3): 226–239.