前言

部分内容摘自程杰的《大话数据结构》

1. 算法时间复杂度

1.1 算法时间复杂度的定义

  在进行算法分析时,语句总的执行次数T(n)是关于问题规模n的函数,进而分析T(n)随n的变化情况并确定T(n)的数量级。算法的时间复杂度,也就是算法的时间量度,记作:T(n)= O(f(n))。它表示随问题规模n的增大,算法执行时间的增长率和f(n)的增长率相同,称作算法的渐近时间复杂度,简称为时间复杂度。其中f(n)是问题规模n的某个函数。

  这样用大写O()来体现算法时间复杂度的记法,我们称之为大О记法
  一般情况下,随着n的增大,T(n)增长最慢的算法为最优算法。

1.2 推导大O阶方法

  那么如何分析一个算法的时间复杂度呢?即如何推导大O阶呢?我们给出了下面的推导方法,基本上,这也就是总结前面我们举的例子。
  推导大O阶:

  1. 用常数 1 取代运行时间中的所有加法常数。
  2. 在修改后的运行次数函数中,只保留最高阶项。
  3. 如果最高阶项存在且不是 1,则去除与这个项相乘的常数。

  得到的结果就是大O阶。

  事实上,分析一个算法的时间复杂度,没有这么简单,我们还需要多看几个例子。

1.3 常数阶

  首先顺序结构的时间复杂度。下面这个算法,为什么时间复杂度不是O(3),而是O(1)

1
2
3
int sum = 0,n = 100;	/* 执行1次 */
sum = (1 + n) * n / 2; /* 执行1次 */
printf ("%d", sum); /* 执行1次 */

  这个算法的运行次数函数是f(n)=3。根据我们推导大О阶的方法,第一步就是把常数项3改为1。在保留最高阶项时发现,它根本没有最高阶项,所以这个算法的时间复杂度为O(1)
  另外,我们试想一下,如果这个算法当中的语句sum=(1+n)*n/2有 10 句,即:

1
2
3
4
5
6
7
8
9
10
11
12
int sum = 0, n = 100;	/* 执行1次 */
sum = (1 + n) * n / 2; /* 执行1次 */
sum = (1 + n) * n / 2; /* 执行2次 */
sum = (1 + n) * n / 2; /* 执行3次 */
sum = (1 + n) * n / 2; /* 执行4次 */
sum = (1 + n) * n / 2; /* 执行5次 */
sum = (1 + n) * n / 2; /* 执行6次 */
sum = (1 + n) * n / 2; /* 执行7次 */
sum = (1 + n) * n / 2; /* 执行8次 */
sum = (1 + n) * n / 2; /* 执行9次 */
sum = (1 + n) * n / 2; /* 执行10次 */
printf ("%d", sum); /* 执行1次 */

  事实上无论n为多少,上面的两段代码就是3次和12次执行的差异。这种与问题的大小无关(n的多少),执行时间恒定的算法,我们称之为具有O(1)的时间复杂度,又叫常数阶。
  注意:不管这个常数是多少,我们都记作O(1),而不能是O(3)、O(12)等其他任何数字,这是初学者常常犯的错误。
  对于分支结构而言,无论是真,还是假,执行的次数都是恒定的,不会随着n的变大而发生变化,所以单纯的分支结构(不包含在循环结构中),其时间复杂度也是O(1)

1.4 线性阶

  线性阶的循环结构会复杂很多。要确定某个算法的阶次,我们常常需要确定某个特定语句或某个语句集运行的次数。因此,我们要分析算法的复杂度,关键就是要分析循环结构的运行情况。
  下面这段代码,它的循环的时间复杂度为O(n),因为循环体中的代码须要执行n次。

1
2
3
4
5
int i;
for (i = 0; i < n; i++)
{
/* 时间复杂度为O(1)的程序步骤序列 */
}

1.5 对数阶

  下面的这段代码,时间复杂度又是多少呢?

1
2
3
4
5
6
int count = 1;
while (count < n)
{
count = count * 2;
/* 时间复杂度为O(1)的程序步骤序列 */
}

  由于每次count乘以2之后,就距离n更近了一分。也就是说,有多少个2相乘后大于n,则会退出循环。由2^x^=n得到x=log2{_2}n。所以这个循环的时间复杂度为O(logn)

1.6 平方阶

  下面例子是一个循环嵌套,它的内循环刚才我们已经分析过,时间复杂度为O(n)

1
2
3
4
5
6
7
8
int i,j;
for (i = 0; i < n; i++)
{
for (j = 0; j < n; j++)
{
/* 时间复杂度为O(1)的程序步骤序列 */
}
}

  而对于外层的循环,不过是内部这个时间复杂度为O(n)的语句,再循环n次。所以这段代码的时间复杂度为O(n^2^)。
  如果外循环的循环次数改为了m,时间复杂度就变为O(m×n)

1
2
3
4
5
6
7
8
int i,j;
for (i = 0; i < m; i++)
{
for (j = 0; j < n; j++)
{
/* 时间复杂度为O(1)的程序步骤序列 */
}
}

  所以我们可以总结得出,循环的时间复杂度等于循环体的复杂度乘以该循环运行的次数。
  那么下面这个循环嵌套,它的时间复杂度是多少呢?

1
2
3
4
5
6
7
8
int i,j;
for (i = 0; i < n; i++)
{
for (j = i; j < n; j++) /* 注意j = i而不是0 */
{
/* 时间复杂度为O(1)的程序步骤序列 */
}
}

  由于当i=0时,内循环执行了n次,当i=1时,执行了n-1次,……当i=n-1时,执行了1次。所以总的执行次数为:

n+(n1)+(n2)++1=n(n+1)2=n22+n2n+(n-1)+(n- 2)+…+1=\frac{n(n+1)} {2}=\frac{n^2}{2}+\frac{n}{2}

  用我们推导大О阶的方法,第一条,没有加法常数不予考虑;第二条,只保留最高阶项,因此保留n^2^/2 ;第三条,去除这个项相乘的常数,也就是去除1/2,最终这段代码的时间复杂度为O(n^2^)
  从这个例子,我们也可以得到一个经验,其实理解大О推导不算难,难的是对数列的一些相关运算,这更多的是考察你的数学知识和能力,所以想考研的朋友,要想在求算法时间复杂度这里不失分,可能需要强化你的数学,特别是数列方面的知识和解题能力。

  我们继续看例子,对于方法调用的时间复杂度又如何分析。

1
2
3
4
5
int i,j;
for (i = 0; i < n; i++)
{
function (i);
}

  上面这段代码调用一个function()函数

1
2
3
4
void function (int count)
{
print (count);
}

  函数体是打印count这个参数。其实这很好理解,function()函数的时间复杂度是O(1)。所以整体的时间复杂度为O(1)
  假如function()是下面这样的:

1
2
3
4
5
6
7
8
void function (int count)
{
int j;
for (j = count; j < n; j++)
{
/* 时间复杂度为O(1)的程序步骤序列 */
}
}

  事实上,这和刚才举的例子是一样的,只不过把嵌套内循环放到了函数中,所以最终的时间复杂度为O(n^2^)
  下面这段相对复杂的语句:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
n++;						/* 执行次数为1 */
function (n); /* 执行次数为n */
int i,j;
for (i = 0; i < n; i++) /* 执行次数为n×n */
{
function (i);
}
for (i = 0; i < n; i++) /* 执行次数为n(n+1)/2 */
{
for (j = i; j < n; j++)
{
/* 时间复杂度为O(1)的程序步骤序列 */
}
}

  它的执行次数f(n)=1+n+n^2^+n(n+1)2\frac{n(n+1)}{2}=32\frac{3}{2}n^2^+32\frac{3}{2}n+1,根据推导大O阶的方法,最终这段代码的时间复杂度也是O(n^2^)

2. 常见的时间复杂度

执行次级函数 非正式术语
12 O(1) 常数阶
2n+3 O(n) 线性阶
3n2+2n+1 O(n2) 平方阶
5log2n+20 O(logn) 对数阶
2n+3nlog2n+19 O(nlogn) nlogn阶
6n3+2n2+3n+4 O(N3) 立方阶
2n O(2n) 指数阶

  常用的时间复杂度所耗费的时间从小到大依次是:

O(1)<O(logn)<O(n)<O(nlogn)<O(n2)<O(n3)<O(n!)<O(nn)O(1)<O(logn)<O(n)<O(nlogn)<O(n^2)<O(n^3)<O(n!)<O(n^n)

  我们前面已经谈到了O(1)常数阶O(logn)对数阶O(n)线性阶O(n^2^)平方阶等,至于O(nlogn)会在后面介绍,而像O(n^3^),过大的n都会使得结果变得不现实。同样指数阶O(2^n^)阶乘阶O(n!) 等除非是很小的n值,否则哪怕n只是100,都是噩梦般的运行时间。所以这种不切实际的算法时间复杂度,一般我们都不去讨论它。

3. 最坏情况和平均情况

  你早晨上班出门后突然想起来,手机忘记带了,这年头,钥匙、钱包、手机三大件,出门哪样也不能少呀。于是回家找。打开门一看,手机就在门口玄关的台子上,原来是出门穿鞋时忘记拿了。这当然是比较好,基本没花什么时间寻找。可如果不是放在那里,你就得进去到处找,找完客厅找卧室、找完卧室找厨房、找完厨房找卫生间,就是找不到,时间一分一秒的过去,你突然想起来,可以用家里座机打一下手机,听着手机铃声来找呀,真是笨。终于找到了,在床上枕头下面。你再去上班,迟到。见鬼,这一年的全勤奖,就因为找手机给黄了。
  找东西有运气好的时候,也有怎么也找不到的情况。但在现实中,通常我们碰到的绝大多数既不是最好的也不是最坏的,所以算下来是平均情况居多。
  算法的分析也是类似,我们查找一个有n个随机数字数组中的某个数字,最好的情况是第一个数字就是,那么算法的时间复杂度为O(1),但也有可能这个数字就在最后一个位置上待着,那么算法的时间复杂度就是O(n),这是最坏的一种情况了。
  最坏情况运行时间是一种保证,那就是运行时间将不会再坏了。在应用中,这是一种最重要的需求,通常,除非特别指定,我们提到的运行时间都是最坏情况的运行时间。
  而平均运行时间也就是从概率的角度看,这个数字在每一个位置的可能性是相同的,所以平均的查找时间为n/2次后发现这个目标元素。
  平均运行时间是所有情况中最有意义的,因为它是期望的运行时间。 也就是说,我们运行一段程序代码时,是希望看到平均运行时间的。可现实中,平均运行时间很难通过分析得到,一般都是通过运行一定数量的实验数据后估算出来的。
  对算法的分析,一种方法是计算所有情况的平均值,这种时间复杂度的计算方法称为平均时间复杂度。另一种方法是计算最坏情况下的时间复杂度,这种方法称为最坏时间复杂度。一般在没有特殊说明的情况下,都是指最坏时间复杂度。

4. 算法空间复杂度

  我们在写代码时,完全可以用空间来换取时间,比如说,要判断某某年是不是闰年,你可能会花一点心思写了一个算法,而且由于是一个算法,也就意味着,每次给一个年份,都是要通过计算得到是否是闰年的结果。还有另一个办法就是,事先建立一个有2050个元素的数组(年数略比现实多一点),然后把所有的年份按下标的数字对应,如果是闰年,此数组项的值就是1,如果不是值为0。这样,所谓的判断某一年是否是闰年,就变成了查找这个数组的某一项的值是多少的问题。此时,我们的运算是最小化了,但是硬盘上或者内存中需要存储这205001
  这是通过一笔空间上的开销来换取计算时间的小技巧。到底哪一个好,其实要看你用在什么地方。
  算法的空间复杂度通过计算算法所需的存储空间实现,算法空间复杂度的计算公式记作:S(n)=o(f(n)),其中,n为问题的规模,f(n)为语句关于n所占存储空间的函数。
  一般情况下,一个程序在机器上执行时,除了需要存储程序本身的指令、常数、变量和输入数据外,还需要存储对数据操作的存储单元。若输入数据所占空间只取决于问题本身,和算法无关,这样只需要分析该算法在实现时所需的辅助单元即可。若算法执行时所需的辅助空间相对于输入数据量而言是个常数,则称此算法为原地工作,空间复杂度为O(1)
  通常,我们都使用“时间复杂度”来指运行时间的需求,使用“空间复杂度”指空间需求。当不用限定词地使用“复杂度”时,通常都是指时间复杂度。

4.1 递归情况

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
int BinarySearch2(const int* ptr,const int x,const int left,const int right)  
{
int mid=(left+right)/2;
while(left<=right)
{
if(x<ptr[mid])
{
return BinarySearch2(ptr,x,left,mid-1);
}
else if(x>ptr[mid])
{
return BinarySearch2(ptr,x,mid+1,right);
}
return mid;
}
}

  递归情况下的空间复杂度: 递归深度为N*每次递归的辅助空间大小,如果每次递归的辅助空间为常数,则空间复杂度为O(N)
  对于递归的二分查找,递归深度是log2^n^,每次递归的辅助空间为常数,所以空间复杂度为O(log2_2N)

4.2 非递归情况

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
int BinarySearch1(const int* ptr,const int x,const int len)  
{
int left=0;
int right=len-1;
int mid=(left+right)/2;
while(left<=right)
{
if(x<ptr[mid])
{
right=mid-1;
}
else if(x>ptr[mid])
{
left=mid+1;
}
else
{
return mid;
}
}
return -1;
}

  在这个过程中,辅助空间为常数级别,所以空间复杂度为O(1)

5. 总结

  推导大O阶的步骤:

  • 用常数 1 取代运行时间中的所有加法常数。
  • 在修改后的运行次数函数中,只保留最高阶项。
  • 如果最高阶项存在且不是1,则去除与这个项相乘的常数。

  得到的结果就是大О阶。

  通过这个步骤,我们可以在得到算法的运行次数表达式后,很快得到它的时间复杂度,即大О阶。同时我也提醒了大家,其实推导大О阶很容易,但如何得到运行次数的表达式却是需要数学功底的。

  常见的时间复杂度所耗时间的大小排列:

O(1)<O(logn)<O(n)<O(nlogn)<O(n2)<O(n3)<O(n!)<O(nn)O(1)<O(logn)<O(n)<O(nlogn)<O(n^2)<O(n^3)<O(n!)<O(n^n)