算法的效率衡量

算法的优劣

'''
原题:如果 a+b+c=1000,且 a^2 + b^2 =c^2(a,b,c 为自然数),如何求出所有a、b、c可能的组合?
'''

# 代码表示、Enumeration(枚举法)

def Enumeration():
    for a in range(0, 1001):
        for b in range(0, 1001):
            for c in range(0, 1001):
                if a + b + c == 1000 and a ** 2 + b ** 2 == c ** 2:
                    print('a , b , c : %d, %d, %d' % (a, b, c))


if __name__ == "__main__":
    
    Enumeration()

优化后的算法

在这里估计大家也会有很大的疑惑,你这个算法就是最优解的嘛?然而不是!且听我下面分解~~~

'''
刚才说到上述算法不是最优的,那我们来看看上述算法还可以怎么优化!
'''
import time

# 原来的代码 , Enumeration(枚举法)

def Enumeration_begin():
    start_time = time.time()
    for a in range(0, 1001):
        for b in range(0, 1001):
            for c in range(0, 1001):
                if a + b + c == 1000 and a ** 2 + b ** 2 =f= c ** 2:
                    print('a , b , c : %d, %d, %d' % (a, b, c))
    end_time = time.time()
    print('上述代码执行的时间:%f'%(end_time - start_time))

# 优化后代码表示

def Enumeration_end():
    start_time = time.time()
    for a in range(0, 1001):
        for b in range(0 , 1000-a):
            c = 1000 - a - b
                if a ** 2 + b ** 2 == c ** 2:
                    print('a , b , c : %d, %d, %d' % (a, b, c))

    end_time = time.time()
    print('上述代码执行的时间:%f'%(end_time - start_time))


if __name__ == "__main__":
    Enumeration_begin()
    Enumeration_end()

结果

# 原来的代码执行时间

a , b , c : 0, 500, 500
a , b , c : 200, 375, 425
a , b , c : 375, 200, 425
a , b , c : 500, 0, 500
上述代码执行的时间: 214.583347


# 优化后代码执行时间

a , b , c : 0, 500, 500
a , b , c : 200, 375, 425
a , b , c : 375, 200, 425
a , b , c : 500, 0, 500
上述代码执行的时间: 0.182897

'''
可以看出咱们的算法是有优劣之分的,执行效率一个是`214.583347秒`,一个是`0.182897秒`,
如果把值的大小干到很大,那就差距更加明显了,所以算法的牛逼之处就出来了!
'''

但是光靠运算时间来衡量算法的优劣就一定靠谱吗,且听我下面分解~~

单靠时间来衡量算法优劣就可靠吗?

'''
假设我们将优化后的算法程序运行在一台配置古老、性能低下的计算机中,情况会如何?
很可能运行的时间并不会比在我们的电脑中运行优化前的算法的214.583347秒快多少。
'''

# 单纯依靠运行的时间来比较算法的优劣并不一定是客观准确的!

'''
程序的运行离不开计算机环境(包括硬件和操作系统),这些客观原因会影响程序运行的速度并反应在程序的执行时间上。
那么如何才能客观的评判一个算法的优劣呢?
'''

时间复杂度和大"O"表示法

我们假定计算机执行算法每一个基本操作的时间是固定的一个时间单位,那么有多少个基本操作就代表会花费多少时间单位。算然对于不同的机器环境而言,确切的单位时间是不同的,但是对于算法进行多少个基本操作(即花费多少时间单位)在规模数量级上却是相同的,由此可以忽略机器环境的影响而客观的反应算法的时间效率。

对于算法的时间效率,我们可以用大"O"表示法来表示

大"O"表示法:对于单调的整数函数f,如果存在一个整数函数g和实常数c>0,使得对于充分大的n总有f(n)<=c*g(n),就说函数g是f的一个渐近函数(忽略常数),记为f(n)=O(g(n))。也就是说,在趋向无穷的极限意义下,函数f的增长速度受到函数g的约束,亦即函数f与函数g的特征相似。

时间复杂度

假设存在函数g,使得算法A处理规模为n的问题示例所用时间为T(n)=O(g(n)),则称O(g(n))为算法A的渐近时间复杂度,简称时间复杂度,记为T(n)

猜你喜欢

转载自www.cnblogs.com/chao-sir/p/12585710.html