接上节,那么对于回归问题,可以用平方误差损失函数:
代入每轮迭代的优化函数中,损失函数部分为:
这里r就是上轮迭代的残差。所以
对于回归问题,提升树只需简单地拟合当前模型的残差 。
我们不妨对比一下Boosting Tree的回归和分类。从实现上,分别用不同的方法实现了"动态确定样本权值"这一目标。回归是用拟合残差,分类是用错误率来调整样本权值。
那么,回归问题的算法可以如下描述:
输入: 训练样例
输出: 提升树f
M(x)
步骤:
- 初始化f0(x)=0
- 对m=1,2,…,M
- 计算残差
- 拟合残差得到回归树
T(x;Θ m )
- 更新
f m x=f m1 (x)+T(x;Θ m )
- 得到回归问题的boosting tree: