我正在尝试使用TensorFlow(而非Keras)重现Coursera ML课程的NN练习。
我发现使用计算精度tf.metrics.accuracy
会得出比计算精度低的结果。
相关代码为:
accuracy, update_op = tf.metrics.accuracy(labels=y, predictions=tf.argmax(tf.sigmoid(output), axis=1))
...
# in session:
acc = sess.run(accuracy, feed_dict={tf_x: X, tf_y: y})
sess.run(update_op, feed_dict={tf_x: X, tf_y: y})
print(f'step {step} - accuracy: {acc}')
...
# real accuracy
predictions = sess.run(tf.argmax(tf.sigmoid(output), axis=1), feed_dict={tf_x: X})
pred_y = predictions == y
print(f'Training Set Accuracy after training: {np.mean(pred_y) * 100}%')
甚至可以相差30%(即acc为0.5,实际精度为0.8)
难道我做错了什么?
请注意,如果我这样做:
equal = tf.equal(tf.cast(tf.argmax(tf.sigmoid(output), 1), tf.int32), y)
acc_op = tf.reduce_mean(tf.cast(equal, tf.float32))
acc = sess.run(acc_op, feed_dict={tf_x: X, tf_y: y})
我得到相同的结果... tf.metrics.accuracy是否以其他方式计算?
解决方案:首先打电话sess.run(update_op, feed_dict)
,然后sess.run(accuracy)
。如果要补料一个新批次,并且希望达到该批次的精度,则必须首先重置一些隐藏的变量-工作流程如下:
accuracy, update_op = tf.metrics.accuracy(tf_labels, tf_predictions, scope="my_metrics")
running_vars = tf.get_collection(tf.GraphKeys.LOCAL_VARIABLES, scope="my_metrics")
running_vars_initializer = tf.variables_initializer(var_list=running_vars)
for i in range(num_batches):
# explicitly initialize/reset 'total' and 'count' to 0
sess.run(running_vars_initializer)
# feed labels and predictions at i-th batch to update_ops
feed_dict={tf_labels: y[i], tf_predictions: tf.argmax(tf.sigmoid(output[i]), axis=1)}
session.run(update_op, feed_dict=feed_dict)
# compute and print accuracy from current 'total' and 'count'
print('Batch {} accuracy: {}'.format(i, session.run(accuracy)))
tf.metrics.accuracy
利用两个运行时变量, total
(正确预测的数量)和 count
(馈送的标签数量),在后台进行本地初始化。 仅一次 accuracy
更新 一次 -在步骤中: update_op
total
并count
初始化为零sess.run(update_op, feed_dict)
- >total
和count
每更新feed_dict
sess.run(accuracy)
->accuracy
使用当前 total
和count
来计算度量sess.run(accuracy, feed_dict)
->accuracy
使用当前 total
和count
来计算度量最后两个说的是,feed_dict
实际上什么也没改变accuracy
。accuracy
在total
和上运行count
,只能通过进行更新update_op
。最后,
sess.run(accuracy, ...)
并没有复位total
和count
0这在很大程度上是原因total
并count
完全用于可扩展性; 通过保持运行历史记录,它可以一次性计算太大而无法放入内存的数据指标。
最后,您的占位符逻辑看起来很简单-您将数据输入tf_x
和tf_y
,但在其中都找不到tf.metrics.accuracy(...)
,但是这很容易解决。
本文收集自互联网,转载请注明来源。
如有侵权,请联系 [email protected] 删除。
我来说两句