caffe中的loss值,训练loss比测试loss更大,为什么?

编程入门 行业动态 更新时间:2024-10-14 10:39:04

caffe中的loss值,训练loss比测试loss<a href=https://www.elefans.com/category/jswz/34/1759175.html style=更大,为什么?"/>

caffe中的loss值,训练loss比测试loss更大,为什么?

在caffe中,训练的时候,默认会打印出测试的loss值和训练的loss值,比如下图



第一个loss值0.380612是指模型在测试阶段,但是在训练集上的loss值,

第二个loss值0.416171是指模型在测试阶段,在测试集上的loss值

第三个loss值是训练阶段打印出的loss值


但是这里比较奇怪的是为什么训练阶段的loss最大?而且为什么这个loss值和测试阶段在测试集上的loss值不一样大?


初步猜测可能是因为drop的影响,在训练阶段是包括dropout层,而测试阶段无此层,删除dropout层后,再训练,发现训练阶段的loss确实会更小一些,但也视情况而定,有时候会更小,有时候会更大。这个可能原因在于,模型还没有完全稳定下来。


待模型稳定后,训练阶段的loss和测试阶段在训练集上的loss基本一致,且比测试阶段在测试集上的loss要小。


收敛/稳定之后,有时候训练阶段的loss会比测试集上的loss小,和测试阶段训练集的loss一致,但有时候也会比较大。

更多推荐

caffe中的loss值,训练loss比测试loss更大,为什么?

本文发布于:2024-03-06 02:28:39,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1714114.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:更大   测试   caffe   loss

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!