时间复杂度——大O算法

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/u010712012/article/details/83017561

算法的执行效率,就是算法代码的执行时间。我们需要能够用肉眼就看出一段代码的执行时间。

int cal(int n){
	int sum = 0;
	int i = 1;
	for(; i<=n; ++i){
		sum=sum+1;
		}
		return sum;
}

2,3行都执行了1个unit_time的执行时间,4,5行都运行了n遍,所以是2n*unit_time的执行时间,所以一共是(2n+2)*unit_time。所有的代码的执行时间T(n)与每行代码的执行次数成正比。

T(n)=O(f(n))
T(n)表示代码的执行时间;n表示数据规模的大小;f(n)表示每行代码执行的次数总和,T(n) = O(2n+2),这就是大O时间复杂度表示法。大O时间复杂度实际上并不具体表示代码真正的执行时间,而是表示代码执行时间岁数据规模增长的变化趋势,所以,也叫作渐进时间复杂度。

而我们只需要记录一个最大量级就可以了。

时间复杂度分析

1.只关注循环执行次数最多的一段代码
我们通常可以忽略掉工事中的敞亮,低阶,系数,只需要记录一个最大阶的量级即可。

int cal(int n){
	int sum = 0;
	int i = 1;
	for(; i<=n; ++i){
		sum=sum+1;
		}
		return sum;
}

还是这个例子,2,3行都是常量级别的,4,5行是循环执行次数最多的,这两行代码被执行了n次,所以总的时间复杂度是O(n)

加法规则:总复杂度等于量级最大的那段代码的复杂度
举个例子:

int cal(int n) {
   int sum_1 = 0;
   int p = 1;
   for (; p < 100; ++p) {
     sum_1 = sum_1 + p;
   }
 
   int sum_2 = 0;
   int q = 1;
   for (; q < n; ++q) {
     sum_2 = sum_2 + q;
   }
 
   int sum_3 = 0;
   int i = 1;
   int j = 1;
   for (; i <= n; ++i) {
     j = 1; 
     for (; j <= n; ++j) {
       sum_3 = sum_3 +  i * j;
     }
   }
 
   return sum_1 + sum_2 + sum_3;
 }

这个代码分三个部分,分别是求sum_1,sum_2,sum_3。分析每一部分的时间复杂度,然后再把他们放在一块,再取一个量级最大的作为整段代码的复杂度。
第一段是一个常量;第二段是O(n);第三段是O(n^2)
所以取最高的O(n^2).

3.乘法法则:嵌套代码的复杂度等于嵌套内外代码复杂度的乘积

int cal(int n) {
   int ret = 0; 
   int i = 1;
   for (; i < n; ++i) {
     ret = ret + f(i);
   } 
 } 
 
 int f(int n) {
  int sum = 0;
  int i = 1;
  for (; i < n; ++i) {
    sum = sum + i;
  } 
  return sum;
 }

单独看cal()函数,假设f()只是一个普通函数,那么4-6行就是O(n),但是f()本身并不是一个简单的操作,他的时间复杂度是O(n),所以,整个cal()函数的时间复杂度就是,T1(n)T2(n)=O(nn)=O(n^2)

比较常见的算法时间复杂度:O(1),O(logn),O(nlogn),O(2^n),
O(n^k)等等。。。

参考:极客时间

猜你喜欢

转载自blog.csdn.net/u010712012/article/details/83017561