当前位置:首页 >> 编程语言 >> 【pytorch深度学习 应用篇02】训练中loss图的解读,训练中的问题与经验汇总,三星m800

【pytorch深度学习 应用篇02】训练中loss图的解读,训练中的问题与经验汇总,三星m800

0evadmin 编程语言 1
文件名:【pytorch深度学习 应用篇02】训练中loss图的解读,训练中的问题与经验汇总,三星m800 【pytorch深度学习 应用篇02】训练中loss图的解读,训练中的问题与经验汇总

文章目录 loss图解析train loss ↘ \searrow ↗ \nearrow 先降后升

loss图解析 train loss ↘ \searrow 不断下降,test loss ↗ \nearrow 不断上升:原因很多,我是把workers=1,batchSize=8192train loss ↘ \searrow 不断下降,test loss ⇝ \leadsto 趋于不变:说明网络过拟合; train loss ↘ \searrow 不断下降,test loss ↘ \searrow 不断下降: 说明网络仍在学习; train loss ↘ \searrow 不断下降,test loss ↘ ↗ \searrow \; \nearrow 先下降后升高:
train loss ⇝ \leadsto 趋于不变,test loss ↗ \nearrow 不断上升,train loss ⇝ \leadsto 趋于不变,test loss ⇝ \leadsto 趋于不变: 说明学习遇到瓶颈,需要减小学习率或批量数目;train loss ⇝ \leadsto 趋于不变,test loss ↘ \searrow 不断下降: 说明数据集100%有问题;
train loss ↗ \nearrow 不断上升,test loss ↗ \nearrow 不断上升:说明网络结构设计不当,训练超参数设置不当,数据集经过清洗等问题。train loss ↗ \nearrow 不断上升,test loss ⇝ \leadsto 趋于不变,train loss ↗ \nearrow 不断上升,test loss ↘ \searrow 不断下降,
train loss ↘ \searrow ↗ \nearrow 先降后升

这种情况可能是由于loss函数存在比较奇怪的地方,导致梯度爆炸。参考网址

协助本站SEO优化一下,谢谢!
关键词不能为空
同类推荐
«    2025年12月    »
1234567
891011121314
15161718192021
22232425262728
293031
控制面板
您好,欢迎到访网站!
  查看权限
网站分类
搜索
最新留言
文章归档
网站收藏
友情链接