极客时间-数据结构与算法之美笔记-3 复杂度分析(上):如何分析、统计算法的执行效率和资源消耗

我们都知道,数据结构和算法本身解决的是“快”和“省”的问题,即如何让代码运行得更快,如何让代码更省存储空间。所以,执行效率是算法一个非常重要的考量指标。那如何来衡量你编写的算法代码的执行效率呢?这里就要用到我们今天要讲的内容:时间、空间复杂度分析。

复杂度分析是整个算法学习的精髓,只要掌握了它,数据结构和算法的内容基本上就掌握了一半。

一、大 O 复杂度表示法

我们来估算一下这段代码的执行时间。

 int cal(int n) {
 	int sum = 0;
 	int i = 1;
 	int j = 1;
 	for (; i <= n; ++i) {
 		j = 1;
 		for (; j <= n; ++j) {
 			sum = sum + i * j;
 		}		
 	}
 }

我们假设每个语句的执行时间是 unit_time。那这段代码的总执行时间 T(n) 是多少呢?

第 2、3、4 行代码,每行都需要 1 个 unit_time 的执行时间,第 5、6 行代码循环执行了 n遍,需要 2n * unit_time 的执行时间,第 7、8 行代码循环执行了 n^2遍,所以需要 2n^2 *unit_time 的执行时间。所以,整段代码总的执行时间 T(n) = (2n^2 +2n+3) * unit_time。

尽管我们不知道 unit_time 的具体值,但是通过这两段代码执行时间的推导过程,我们可以得到一个非常重要的规律,那就是,所有代码的执行时间 T(n) 与每行代码的执行次数 n 成正比

我们可以把这个规律总结成一个公式。注意,大 O 就要登场了!
T ( n ) = O ( f ( n ) ) T(n)=O(f(n))
T(n) 表示代码执行的时间;n 表示数据规模的大小;f(n) 表示每行代码执行的次数总和。因为这是一个公式,所以用 f(n) 来表示。

上个例子中 T ( n ) = O ( 2 n 2 + 2 n + 3 ) T(n)=O\left(2 n^{2}+2 n+3\right) ,这就是大 O时间复杂度表示法。大 O 时间复杂度实际上并不具体表示代码真正的执行时间,而是表示代码执行时间随数据规模增长的变化趋势,所以,也叫作渐进时间复杂度(asymptotic time complexity),简称时间复杂度

当 n 很大时,你可以把它想象成 10000、100000。而公式中的低阶、常量、系数三部分并不左右增长趋势,所以都可以忽略。我们只需要记录一个最大量级就可以了,如果用大 O 表示法表示上面代码的时间复杂度,就可以记为$ T(n)=O\left(n^{2}\right)$

二、时间复杂度分析

前面介绍了大 O 时间复杂度的由来和表示方法。现在我们来看下,如何分析一段代码的时间复杂度?这儿有三个比较实用的方法。

1.只关注循环执行次数最多的一段代码

大 O 这种复杂度表示方法只是表示一种变化趋势。我们通常会忽略掉公式中的常量、低阶、系数,只需要记录一个最大阶的量级就可以了。所以,我们在分析一个算法、一段代码的时间复杂度的时候,也只关注循环执行次数最多的那一段代码就可以了。这段核心代码执行次数的 n 的量级,就是整段要分析代码的时间复杂度。

int cal(int n) {
	int sum = 0;
	int i = 1;
	for (; i <= n; ++i) {
		sum = sum + i;
	}
	return sum;
}

上面代码第 2、3 行代码都是常量级的执行时间,与 n 的大小无关,所以对于复杂度并没有影响。循环执行次数最多的是第 4、5 行代码,所以这块代码要重点分析。这两行代码被执行了 n 次,所以总的时间复杂度就是 O(n)。

2.加法法则:总复杂度等于量级最大的那段代码的复杂度

int cal(int n) {
  int sum_1 = 0;
  int p = 1;
  for (; p < 100; ++p) {
    sum_1 = sum_1 + p; 
  }

  int sum_2 = 0;
  int q = 1;
  for (; q < n; ++q) {
    sum_2 = sum_2 + q;
  }

  int sum_3 = 0;
  int i = 1;
  int j = 1;
  for (; i <= n; ++i) {
    j = 1;
    for (; j <= n; ++j) {
      sum_3 = sum_3 + i * j;
    }
  }
  return sum_1 + sum_2 + sum_3;
}

这个代码分为三部分,分别是求 sum_1、sum_2、sum_3。我们可以分别分析每一部分的时间复杂度,然后把它们放到一块儿,再取一个量级最大的作为整段代码的复杂度。

第一段的时间复杂度是多少呢?这段代码循环执行了 100 次,所以是一个常量的执行时间,跟n 的规模无关。

这里我要再强调一下,即便这段代码循环 10000 次、100000 次,只要是一个已知的数,跟 n无关,照样也是常量级的执行时间。当 n 无限大的时候,就可以忽略,尽管对代码的执行时间会有很大影响。

那第二段代码和第三段代码的时间复杂度是多少呢?答案是 O ( n ) O(n) ​ 和$ O\left(n^{2}\right)​$

综合这三段代码的时间复杂度,我们取其中最大的量级。所以,整段代码的时间复杂度就为$ O\left(n^{2}\right)$ 。也就是说:总的时间复杂度就等于量级最大的那段代码的时间复杂度。那我们将这个规律抽象成公式就是:

如果 T 1 ( n ) = O ( f ( n ) ) , T 2 ( n ) = O ( g ( n ) ) \mathrm{T} 1(\mathrm{n})=\mathrm{O}(\mathrm{f}(\mathrm{n})), \mathrm{T} 2(\mathrm{n})=\mathrm{O}(\mathrm{g}(\mathrm{n})) ;那么 T ( n ) = T 1 ( n ) + T 2 ( n ) = max ( O ( f ( n ) ) , O ( g ( n ) ) ) \mathrm{T}(\mathrm{n})=\mathrm{T} 1(\mathrm{n})+\mathrm{T} 2(\mathrm{n})=\max (\mathrm{O}(\mathrm{f}(\mathrm{n})), \mathrm{O}(\mathrm{g}(\mathrm{n}))) = O ( max ( f ( n ) , g ( n ) ) ) =\mathrm{O}(\max (\mathrm{f}(\mathrm{n}), \mathrm{g}(\mathrm{n})))

3.乘法法则:嵌套代码的复杂度等于嵌套内外代码复杂度的乘积

对应也有一个公式:

如果 T 1 ( n ) = O ( f ( n ) ) , T 2 ( n ) = O ( g ( n ) ) \mathrm{T} 1(\mathrm{n})=\mathrm{O}(\mathrm{f}(\mathrm{n})), \mathrm{T} 2(\mathrm{n})=\mathrm{O}(\mathrm{g}(\mathrm{n})) ,那么 T ( n ) = T 1 ( n ) T 2 ( n ) = O ( f ( n ) ) O ( g ( n ) ) = O ( f ( n ) g ( n ) ) T(n)=T 1(n)^{\star} T 2(n)=O(f(n))^{\star} O(g(n))=O\left(f(n)^{\star} g(n)\right)

落实到具体的代码上,我们可以把乘法法则看成是嵌套循环,举个例子。

int cal(int n) {
  int ret = 0;
  int i = 1;
  for (; i < n; ++i) {
    ret = ret + f(i);
  }
}

int f(int n) {
  int sum = 0;
  int i = 1;
  for (; i < n; ++i) {
    sum = sum + i;
  }
  return sum;
}

cal() 函数的时间复杂度就是: T ( n ) = T 1 ( n ) T 2 ( n ) = O ( n n ) = O ( n 2 ) \mathrm{T}(\mathrm{n})=\mathrm{T} 1(\mathrm{n}) * \mathrm{T} 2(\mathrm{n})=\mathrm{O}\left(\mathrm{n}^{\star} \mathrm{n}\right)=\mathrm{O}\left(\mathrm{n}^{2}\right)

三、几种常见时间复杂度实例分析

虽然代码千差万别,但是常见的复杂度量级并不多。

在这里插入图片描述

对于刚罗列的复杂度量级,我们可以粗略地分为两类,多项式量级和非多项式量级。其中,非多项式量级只有两个: O ( 2 n ) \mathrm{O}\left(2^{n}\right) O ( n ! ) O(n !)

我们把时间复杂度为非多项式量级的算法问题叫作NP(Non-Deterministic Polynomial,非确定多项式)问题。

当数据规模 n 越来越大时,非多项式量级算法的执行时间会急剧增加,求解问题的执行时间会无限增长。所以,非多项式时间复杂度的算法其实是非常低效的算法。因此,关于 NP 时间复杂度就不展开讲了。我们主要来看几种常见的多项式时间复杂度。

1.O(1)

首先必须明确一个概念,O(1) 只是常量级时间复杂度的一种表示方法,并不是指只执行了一行代码。

只要代码的执行时间不随 n 的增大而增长,这样代码的时间复杂度我们都记作 O(1)。或者说,一般情况下,只要算法中不存在循环语句、递归语句,即使有成千上万行的代码,其时间复杂度也是Ο(1)

2.O(logn)、O(nlogn)

对数阶时间复杂度非常常见,同时也是最难分析的一种时间复杂度。以下是一个例子:

i=1;
while (i <= n) {
  i = i * 2;
}

根据我们前面讲的复杂度分析方法,第三行代码是循环执行次数最多的。所以,我们只要能计算出这行代码被执行了多少次,就能知道整段代码的时间复杂度。

从代码中可以看出,变量 i 的值从 1 开始取,每循环一次就乘以 2。当大于 n 时,循环结束。还记得我们高中学过的等比数列吗?实际上,变量 i 的取值就是一个等比数列。如果我把它一个一个列出来,就应该是这个样子的:
在这里插入图片描述
所以,我们只要知道 x 值是多少,就知道这行代码执行的次数了。通过 2 x = n 2^{x}=n ,解得 x = log 2 n x=\log _{2} n ,所以,这段代码的时间复杂度就是O( log 2 n \log _{2} n )

现在,把代码稍微改下,这段代码的时间复杂度是多少?

i=1;
while (i <= n) {
  i = i * 3;
}

实际上,不管是以 2 为底、以 3 为底,还是以 10 为底,我们可以把所有对数阶的时间复杂度都记为 O(logn)。

因为对数之间是可以互相转换的, log 3 n \log _{3} n 就等于 log 3 2 log 2 n \log _{3} 2^{\star} \log _{2} n ,所以 O ( log 3 n ) O\left(\log _{3} n\right) = O ( C log 2 n ) O\left(C*\log _{2} n\right) ,其中 C = log 3 2 C=\log _{3} 2 是一个常量。基于我们前面的一个理论:在采用大 O 标记复杂度的时候,可以忽略系数,即 O ( C f ( n ) ) = O ( f ( n ) ) O(C f(n))=O(f(n)) ,所以 O ( log 3 n ) O\left(\log _{3} n\right) 就等于 O ( log 2 n ) O\left(\log _{2} n\right) 。因此,在对数阶时间复杂度的表示方法里,我们忽略对数的“底”,统一表示为 O(logn)。

那 O(nlogn) 就很容易理解了。还记得我们刚讲的乘法法则吗?如果一段代码的时间复杂度是 O(logn),我们循环执行 n 遍,时间复杂度就是 O(nlogn)了。而且,O(nlogn) 也是一种非常常见的算法时间复杂度。比如,归并排序、快速排序的时间复杂度都是 O(nlogn)。

3.O(m+n)、O(m*n)

这种复杂度由两个数据的规模来决定,先看代码:

int cal(int m, int n) {
  int sum_1 = 0;
  int i = 1;
  for (; i < m; ++i) {
    sum_1 = sum_1 + i;
  }

  int sum_2 = 0;
  int j = 1;
  for (; j < n; ++j) {
    sum_2 = sum_2 + j;
  }

  return sum_1 + sum_2;
}

从代码中可以看出,m 和 n 是表示两个数据规模。我们无法事先评估 m 和 n 谁的量级大,所以我们在表示复杂度的时候,就不能简单地利用加法法则,省略掉其中一个。

针对这种情况,原来的加法法则就不正确了,我们需要将加法规则改为: T 1 ( m ) + T 2 ( n ) = \mathrm{T} 1(\mathrm{m})+\mathrm{T} 2(\mathrm{n})= O ( f ( m ) + g ( n ) ) \mathrm{O}(\mathfrak{f}(\mathrm{m})+\mathrm{g}(\mathrm{n})) 。但是乘法法则继续有效: T 1 ( m ) T 2 ( n ) = O ( f ( m ) f ( n ) ) \mathrm{T} 1(\mathrm{m})^{\star} \mathrm{T} 2(\mathrm{n})=\mathrm{O}\left(\mathrm{f}(\mathrm{m})^{*} \mathrm{f}(\mathrm{n})\right)

四、空间复杂度分析

类比时间复杂度,空间复杂度全称就是渐进空间复杂度(asymptotic space complexity),表示算法的存储空间与数据规模之间的增长关系。

void print(int n) {
 int i = 0;
 int[] a = new int[n];
 for (i; i <n; ++i) {
  a[i] = i * i;
 }
 for (i = n-1; i >= 0; --i) {
  print out a[i]
 }
}

第 2 行代码中,我们申请了一个空间存储变量 i,但是它是常量阶的,跟数据规模 n 没有关系,所以我们可以忽略。第 3 行申请了一个大小为 n 的int 类型数组,除此之外,剩下的代码都没有占用更多的空间,所以整段代码的空间复杂度就是O(n)。

我们常见的空间复杂度就是 O(1)、O(n)、O(n^2),像 O(logn)、O(nlogn) 这样的对数阶复杂度平时都用不到。而且,空间复杂度分析比时间复杂度分析要简单很多。所以,对于空间复杂度,掌握这些内容已经足够了。

内容小结

复杂度也叫渐进复杂度,包括时间复杂度和空间复杂度,用来分析算法执行效率与数据规模之间的增长关系,可以粗略地表示,越高阶复杂度的算法,执行效率越低。常见的复杂度并不多,从低阶到高阶有:O(1)、O(logn)、O(n)、O(nlogn)、O(n^2)。
在这里插入图片描述

复杂度分析并不难,关键在于多练。

课后思考

有人说,我们项目之前都会进行性能测试,再做代码的时间复杂度、空间复杂度分析,是不是多此一举呢?而且,每段代码都分析一下时间复杂度、空间复杂度,是不是很浪费时间呢?你怎么看待这个问题呢?

学员优秀回答:

我不认为是多此一举,渐进时间,空间复杂度分析为我们提供了一个很好的理论分析的方向,并且它是宿主平台无关的,能够让我们对我们的程序或算法有一个大致的认识,让我们知道,比如在最坏的情况下程序的执行效率如何,同时也为我们交流提供了一个不错的桥梁,我们可以说,算法1的时间复杂度是O(n),算法2的时间复杂度是O(logN),这样我们立刻就对不同的算法有了一个“效率”上的感性认识。

当然,渐进式时间,空间复杂度分析只是一个理论模型,只能提供给粗略的估计分析,我们不能直接断定就觉得O(logN)的算法一定优于O(n), 针对不同的宿主环境,不同的数据集,不同的数据量的大小,在实际应用上面可能真正的性能会不同,个人觉得,针对不同的实际情况,进而进行一定的性能基准测试是很有必要的,比如在同一批手机上(同样的硬件,系统等等)进行横向基准测试,进而选择适合特定应用场景下的最优算法。

综上所述,渐进式时间,空间复杂度分析与性能基准测试并不冲突,而是相辅相成的,但是一个低阶的时间复杂度程序有极大的可能性会优于一个高阶的时间复杂度程序,所以在实际编程中,时刻关心理论时间,空间度模型是有助于产出效率高的程序的,同时,因为渐进式时间,空间复杂度分析只是提供一个粗略的分析模型,因此也不会浪费太多时间,重点在于在编程时,要具有这种复杂度分析的思维。

发布了28 篇原创文章 · 获赞 5 · 访问量 3149

猜你喜欢

转载自blog.csdn.net/hsk6543210/article/details/89422089