最近,我发现这个库似乎提供了自己的类型和实数运算,比普通浮点运算快2到3个数量级。
该库基于对实数使用不同的表示形式。它被描述为比浮点数位置更有效且数学上更准确。
如果这种表示非常有效,为什么不将它广泛用于各种应用程序中并在硬件中实现呢?据我所知,最典型的硬件使用某种IEEE浮点表示形式来表示实数。
是否以某种方式仅适用于某些非常特殊的AI研究,因为他们似乎大多将其列为示例?
如果这种表示方法不仅比浮点数快数百至数千倍,而且更具确定性,并且设计用于并发系统,那么为什么不在基本上由大量并发计算器计算实数的GPU中实现它呢?它不会在渲染性能和GPU计算功能方面带来巨大的进步吗?
我所知道的最客观和令人信服的原因是,假设是在不到4年前推出的。这还不足以进入市场(人们需要时间来开发实现),更不用说接手了(这尤其需要克服与现有软件的不兼容性)。
业界是否要进行这样的更改是一个趋于主观性的独立问题。
本文收集自互联网,转载请注明来源。
如有侵权,请联系 [email protected] 删除。
我来说两句