回归学习率:0.001 训练数据与测试数据的比率:50%
我训练了我的神经网络,训练误差和测试误差都从 0.120 开始,然后它都稳步下降并训练它,直到我达到 2,105 个时期。最终结果是训练误差和训练损失数据为 0.006。这是否被认为是过拟合、欠拟合,还是我犯了一个巨大的错误?另外我想问一下,如果一个拟合良好的模型具有较低的验证错误(测试错误)但仍然略高于训练损失,那么它们之间的距离有多远?例如,0.012 = 验证损失(测试损失),训练损失为 0.005。一个好的拟合模型会与那个数字相似吗?
对于来自新来源的真正新的测试数据,由于变异的技术来源或总体偏差(也称为批次效应),人们可能会期望测试误差高于训练误差。
对于用于模型验证目的的随机拆分测试数据,根据我的经验,更高的测试误差是过度拟合的迹象。然而,实际上并没有硬性规定说明 b/n 测试和训练有多少差异是“过拟合”的。
从维基百科看到这张图片:https ://en.wikipedia.org/wiki/Overfitting#/media/File: Overfitting_svg.svg
您可以看到,简单地最小化训练和测试误差之间的差异并不能产生最佳模型。
具体从您的数字来看,无论训练误差是多少,0.012 的测试误差都非常好。您可能可以做得更好,但是当测试错误已经很低时,收益将开始变得微不足道。
本文收集自互联网,转载请注明来源。
如有侵权,请联系 [email protected] 删除。
我来说两句