我正在构建一个接收 16x16 扁平图像的自动编码器,但我不断收到以下错误:
ValueError: A target array with shape (999, 16, 16, 256) was passed for an output of shape (None, 256) while using as loss `binary_crossentropy`. This loss expects targets to have the same shape as the output.
我的尝试:我认为我必须在topk
层之后重塑解码器内的张量,但它没有解决错误,只是输出了更多错误。我在下面评论了我的尝试。我相信我需要进行某种类型的重塑,以便输入形状和输出形状相互匹配,以便二元交叉熵损失可以工作。
这是我的代码的最小工作示例:
encoding_dim = 16
input_img = tf.keras.layers.Input(shape=(16, 16, 256), name ="input")
# flatten your images
flatten = tf.keras.layers.Flatten()(input_img)
encoded = tf.keras.layers.Dense(encoding_dim, activation='relu')(flatten)
encoded2 = tf.keras.layers.Dense(256, activation='sigmoid')(encoded)
# top_k layer
topk = tf.keras.layers.Lambda(lambda x: tf.nn.top_k(x, k=int(int(x.shape[-1])/2),
sorted=True,
name="topk").values)(encoded)
decoded = tf.keras.layers.Dense(128, activation='relu')(topk)
decoded2 = tf.keras.layers.Dense(256, activation='sigmoid')(decoded)
#decoded3 = tf.keras.layers.Reshape((16,16,256))(decoded2)
autoencoder = tf.keras.Model(input_img, decoded2)
autoencoder.compile(optimizer = 'adadelta',
loss='binary_crossentropy')
autoencoder.fit(x_train, x_train,
epochs=100,
batch_size=256,
shuffle=False,
validation_data=(x_test, x_test))
目前,您的输入形状是(batch, 16, 16, 256)
.
如果要明确指定batch
,256
则应使用batch_shape
参数,而不是shape
在Input
图层内。但是你不应该这样做,因为最好保持它的灵活性,以防你想改变它(或者批次大小不等,这通常是这种情况)。
您的输出必须是相同的形状,所以应该keras.layers.Dense(16 * 16, activation="sigmoid")
用keras.layers.Reshape((16, 16))
在最后输出节点。请注意,您没有在任何地方指定批次,只指定其余的维度。
本文收集自互联网,转载请注明来源。
如有侵权,请联系 [email protected] 删除。
我来说两句