我对如何在Keras的多个输出中计算val_loss有疑问。这是我的代码的摘录。
nBatchSize = 200
nTimeSteps = 1
nInDims = 17
nHiddenDims = 10
nFinalDims = 10
nOutNum = 24
nTraLen = 300
nMaxEP = 20
nValLen = 50
sHisCSV = "history.csv"
oModel = Sequential()
oModel.add(Input(batch_input_shape=(nBatchSize, nTimeSteps, nInDims)))
oModel.add(LSTM(nHiddenDims, return_sequences=True, stateful=True))
oModel.add(LSTM(nHiddenDims, return_sequences=False, stateful=True))
oModel.add(Dense(nFinalDims, activation="relu")
oModel.add(Dense(nOutNum, activation="linear")
oModel.compile(loss="mse", optimizer=Nadam())
oModel.reset_states()
oHis = oModel.fit_generator(oDataGen, steps_per_epoch=nTraLen,
epochs=nMaxEP, shuffle=False,
validation_data=oDataGen, validation_steps=nValLen,
callbacks=[CSVLogger(sHisCSV, append=True)])
# number of cols is nOutNum(=24), number of rows is len(oEvaGen)
oPredDF = pd.DataFrame(oPredModel.predict_generator(oEvaGen, steps=len(oEvaGen))
# GTDF is a dataframe of Ground Truth
nRMSE = np.sqrt(np.nanmean(np.array(np.power(oPredDF - oGTDF, 2))))
在history.csv中,写入了val_loss并将其写入为3317.36。根据预测结果计算出的RMSE为66.4。
根据我对Keras规范的了解,history.csv中编写的val_loss是24个输出的平均MSE。假设它是正确的,则可以从history.csv计算RMSE为11.76(= sqrt(3317.36 / 24)),这与nRMSE(= 66.4)的值完全不同,就像sqrt(3317.36)= 57.6相当它。
我对Keras关于val_loss的规范理解不正确吗?
您的第一个假设是正确的,但进一步的推导有误。
由于MSE是模型输出的平方误差的平均值,因此您可以在Keras文档中看到:
mean_squared_error
keras.losses.mean_squared_error(y_true,y_pred)
并在Keras源代码中:
K.mean(K.square(y_pred - y_true), axis=-1)
因此,RMSE是该值的平方根:
K.sqrt(K.mean(K.square(y_pred - y_true), axis=-1))
您写的是平方误差的平方根,即RSE。
因此,从您的实际示例来看:
RSE可以计算为sqrt(3317.36/24) = 11.76
RMSE可以计算为sqrt(3317.36) = 57.6
因此,模型提供的RMSE(和nRMSE)值是正确的。
本文收集自互联网,转载请注明来源。
如有侵权,请联系 [email protected] 删除。
我来说两句