计算机每秒的运算次数是怎么计算出来的?

一般是理论最大运算指令吞吐量,是按照计算机所有处理单元(CPU和GPU)的频率、流水线数、单条SIMD指令数据数量等属性计算出来的。

例如Intel给出的Core i7 4770每秒单精度浮点运算次数:
3.8GHz(最高Boost频率)*4(物理核心数)*8(单条AVX指令可执行8个浮点运算)=121.6GFLOPS

有些支持FMA运算的处理器还很不厚道得乘上2或者3。实际应用中的运算次数都比这个理论值低得多。

猜你喜欢

转载自blog.csdn.net/kwame211/article/details/81298391