最近做一个神经网络反演矿物的课题,我自己做留一交叉验证怎么都误差很大,然后我就去参考一片相似的文章,然后发现里边的交叉验证有一个取最优的过程,具体的是:假如对除了第n个样本的其它样本(留一),做1000次迭代,每次迭代后计算对于第n个样本的loss,然后假如其中第20次的迭代的loss最小,就保留这个模型,然后对第n+1个样本进行留一,这次可能又是迭代500次loss最小,最后的结果就是留一交叉验证,留不同的一时,迭代次数其实是不一样的,这种方法合理吗?
而我使用的是对每个留一验证,都训练满1000次,这就会导致,对第n个样本的误差在迭代20次后又涨了,所以结果差
而我使用的是对每个留一验证,都训练满1000次,这就会导致,对第n个样本的误差在迭代20次后又涨了,所以结果差