2012年,Hinton等人在论文《Improving neural networks by preventing co-adaptation of feature detectors》中提出Dropout技术。Dropout技术的核心思想是在神经网络进行前向传播时,令神经元的激活值以一定的概率p停止工作,使得模型不会过于依赖某些局部特征,从而增强模型的泛化能力。
我们以XGBoost模型为例,分别展示100次1)Bootstrap样本内数据集,2)Bootstrap样本外数据集,3)Bootstrap回测时间和4)遍历随机数种子点的单因子测试指标的均值、标准差和变异系数,如下表所示。变异系数(coefficient of variation)用标准差除以均值衡量,相当于标准化后的标准差,目的在于使不同量纲的标准差可比。其中前三种随机性来源的结果取自《人工智能19》,第四种随机性来源的结果取自本文。