pytorch吧 关注:1,358贴子:2,506
  • 4回复贴,共1

关于交叉验证时的误差

取消只看楼主收藏回复

最近做一个神经网络反演矿物的课题,我自己做留一交叉验证怎么都误差很大,然后我就去参考一片相似的文章,然后发现里边的交叉验证有一个取最优的过程,具体的是:假如对除了第n个样本的其它样本(留一),做1000次迭代,每次迭代后计算对于第n个样本的loss,然后假如其中第20次的迭代的loss最小,就保留这个模型,然后对第n+1个样本进行留一,这次可能又是迭代500次loss最小,最后的结果就是留一交叉验证,留不同的一时,迭代次数其实是不一样的,这种方法合理吗?
而我使用的是对每个留一验证,都训练满1000次,这就会导致,对第n个样本的误差在迭代20次后又涨了,所以结果差


IP属地:北京来自Android客户端1楼2025-01-13 10:14回复
    这是第33个样本的留一验证的loss,横坐标是迭代次数,左边是参考的文章里的方法,取迭代过程中最小的loss


    IP属地:北京来自Android客户端2楼2025-01-13 10:48
    回复
      这个是另一个留一验证,这次取最小loss的迭代次数又变了


      IP属地:北京来自Android客户端3楼2025-01-13 10:49
      回复


        IP属地:北京来自Android客户端4楼2025-01-13 13:18
        回复
          兄弟们,看下啊


          IP属地:北京来自Android客户端5楼2025-01-14 09:03
          回复