Val_loss & Loss 是相同的数量(tensorflow)

伊恩·惠特莫尔

基本上我lossval_loss是完全相同的数字(0.0585)

这是好事还是坏事?

文卡特什·瓦达瓦达吉

如果两者lossval_loss大致相同,并且值正在收敛,那么您做对的可能性非常高。它表示完美拟合的场景,这意味着该模型可以正确地泛化到看不见的数据,这是一件好事。

确保以下事项:

  • 绘制loss随时间变化的图,看看值是否收敛
  • 你的training_data_setval_data_set不一样的

通常,您的模型在训练数据上的表现要优于在未知验证数据上的表现。有点过拟合是正常的,因此在理想情况下,您将拥有的是:

val_loss > loss

最终你的目标应该是val_loss尽可能地降低。一些过拟合几乎总是一件好事(val_loss略高于loss)。最后最重要的是val_loss尽可能低。

如果您还没有这样做,建议您阅读一些关于模型过度拟合和欠拟合的内容。

本文收集自互联网,转载请注明来源。

如有侵权,请联系 [email protected] 删除。

编辑于
0

我来说两句

0 条评论
登录 后参与评论

相关文章

具有多个输出的Tensorflow val_loss定义

当使用与验证数据相同的训练数据时,为什么val_loss与训练损失不同?

训练损失可用,但val_loss = nan

为什么 val_loss 超过一百?

使用 TFRecord 在 Keras 中的 Val_loss

训练时监控val_loss

CNN模型的val_loss下降得很好,但val_loss变化很多

val_loss减半,但val_acc保持不变

尝试从训练模型中获得val_loss

Keras:val_loss 增加并且评估损失太高

Keras:监控 val_loss 以提前停止 - 误报问题

KeyError:训练模型时出现“ val_loss”

Keras多重输出中val_loss的计算

为什么我的 val_loss 下降但我的 val_accuracy 停滞不前

为什么val_loss和val_accuracy不显示在时代

损失,val_loss,acc和val_acc在整个时期都不会更新

从已保存的 .h5 cnn 保存模型加载 val_acc 和 val_loss

如何在多元模型中获得平均val_loss和val_accuracy?

關於PyTorch中驗證過程的一個問題:val_loss低於train_loss

Keras提前停止回调错误,val_loss指标不可用

keras日志中缺少val_loss,但在时代结束时正确打印

手动计算的验证损失与使用正则化时报告的val_loss不同

如何在keras中记录val_loss和批次损失

如何在keras中修改ModelCheckPoint以监视val_acc和val_loss并相应地保存最佳模型?

實現 TensorFlow Triplet Loss

使用fit_generator的训练模型不显示val_loss和val_acc并在第一个时期中断

为什么当val_loss从一开始就增加时,我的val_accuracy停滞在0.0000e + 00?

當我在 model.fit() 的參數中已經有了 validation_data 時,沒有 val_loss 和 val_accuracy 鍵

Keras log_loss错误是相同的