使用二元交叉熵时输入和输出形状不匹配 | Keras tf 自编码器

哈哈

我正在构建一个接收 16x16 扁平图像的自动编码器,但我不断收到以下错误:

ValueError: A target array with shape (999, 16, 16, 256) was passed for an output of shape (None, 256) while using as loss `binary_crossentropy`. This loss expects targets to have the same shape as the output.

我的尝试:我认为我必须在topk之后重塑解码器内的张量,但它没有解决错误,只是输出了更多错误。我在下面评论了我的尝试。我相信我需要进行某种类型的重塑,以便输入形状和输出形状相互匹配,以便二元交叉熵损失可以工作。

这是我的代码的最小工作示例:

encoding_dim = 16
input_img = tf.keras.layers.Input(shape=(16, 16, 256), name ="input")
# flatten your images
flatten = tf.keras.layers.Flatten()(input_img)
encoded = tf.keras.layers.Dense(encoding_dim, activation='relu')(flatten)
encoded2 = tf.keras.layers.Dense(256, activation='sigmoid')(encoded)
# top_k layer
topk = tf.keras.layers.Lambda(lambda x: tf.nn.top_k(x, k=int(int(x.shape[-1])/2),
                                                sorted=True,
                                                name="topk").values)(encoded)
decoded = tf.keras.layers.Dense(128, activation='relu')(topk) 
decoded2 = tf.keras.layers.Dense(256, activation='sigmoid')(decoded)
#decoded3 = tf.keras.layers.Reshape((16,16,256))(decoded2)
autoencoder = tf.keras.Model(input_img, decoded2)
autoencoder.compile(optimizer = 'adadelta', 
                    loss='binary_crossentropy')
autoencoder.fit(x_train, x_train,
            epochs=100,
            batch_size=256,
            shuffle=False,
            validation_data=(x_test, x_test))
席蒙·马兹克

目前,您的输入形状是(batch, 16, 16, 256).

如果要明确指定batch256则应使用batch_shape参数,而不是shapeInput图层内。但是你不应该这样做,因为最好保持它的灵活性,以防你想改变它(或者批次大小不等,这通常是这种情况)。

您的输出必须是相同的形状,所以应该keras.layers.Dense(16 * 16, activation="sigmoid")keras.layers.Reshape((16, 16))在最后输出节点。请注意,您没有在任何地方指定批次,只指定其余的维度。

本文收集自互联网,转载请注明来源。

如有侵权,请联系 [email protected] 删除。

编辑于
0

我来说两句

0 条评论
登录 后参与评论

相关文章