在保留交叉验证(hand-out cross validation)中,随机将训练样本集分成训练集(training set)和交叉验证集(cross validation set),比如分别占70%,30%。然后使用模型在训练集上学习得到假设。最后使用交叉验证集对假设进行验证,看预测的是否准确,选择具有误差小的模型。
k折交叉验证(K-fold cross validation),就是把样本集S分成k份,分别使用其中的(k-1)份作为训练集,剩下的1份作为交叉验证集,最后取最后的平均误差,来评估这个模型。
留一法(leave one out, LOO)就是m-fold cross validation,m是样本集的大小,就是只留下一个样本来验证模型的准确性。
作者:Chown
链接:https://www.zhihu.com/question/39259296/answer/91866308
来源:知乎
交叉验证只能说用在模型的检测上,但是不能用在产品测试(比如face++ sdk),不能再折回训练模型。下图是用seetaface 在lfw测试集上一次性测得的结果。这里包括了1037个域值,其中第一个域值0.9,第二个域值为0.6,可以说在域值大于0.5的条件下,正真率在假真率处于低位的情况下在0.6位置徘徊。