如果一个gpu / cpu的GFlops是后者的两倍,那是否意味着该设备上的神经网络的训练速度快两倍?
每秒的FLOP或浮点运算是性能的量度,这意味着计算机执行计算的速度。GFLOP只是Giga FLOP。因此,拥有GFLOP值高2倍的GPU很有可能会加快训练过程。但是因子2是上限,因为您将拥有不依赖于计算能力的其他部分,例如内存速度,RAM甚至其他条件,例如GPU / CPU的冷却系统等(是的,影响计算速度)。在这里,您应该问GPU / CPU计算实际上占培训时间的百分之几?如果是80%,则可以大大加快培训速度;如果是20%,则可能不会。如果您确定大部分时间都花在了GPU计算上,那么接下来应该考虑的是影响FLOP量的因素:
因此,很难说您将从更高数量的FLOP中获得多少收益。如果使用两个GPU,则将类似于第1段,将FLOP增加2。使用两个GPU也将增加GPU内存,如果单个GPU不够,并且代码必须频繁地从内存中读取数据,这将很有帮助。
因此,FLOP对训练速度的影响非常复杂,因此它将取决于许多因素,例如网络的并行程度,如何实现更高数量的FLOP,内存使用率等。
本文收集自互联网,转载请注明来源。
如有侵权,请联系 [email protected] 删除。
我来说两句