我得到了日志:
2018-06-18 20:33:24.218811: W tensorflow/core/common_runtime/bfc_allocator.cc:217] Allocator (GPU_1_bfc) ran out of memory trying to allocate 2.27GiB. The caller indicates that this is not a failure, but may mean that there could be performance gains if more memory is available.
并且我的程序仍然可以运行。因此,我怀疑如果有更多的可用内存会获得哪种性能?训练速度,准确性或其他方面?
谢谢!
如果您的GPU缺少内存,但是程序仍在运行,则意味着不会进行某些优化,或者某些操作将在CPU而非GPU上运行,这将降低程序的计算速度。
因此,如果有更多的可用内存,则可以提高培训和测试速度。但是,精度不应改变。
本文收集自互联网,转载请注明来源。
如有侵权,请联系 [email protected] 删除。
我来说两句