算法之时间复杂度

虽然计算机能快速的完成运算处理,但实际上,它也需要根据输入数据的大小和算法效率来消耗一定的处理器资源。要想编写出能高效运行的程序,我们就需要考虑到算法的效率。

算法的效率主要由二哥复杂度来评估:

时间复杂度:评估执行程序所需的时间。可以估算出程序对处理器的使用程度。

空间复杂度:评估执行程序所需的存储空间。可以估算出程序对计算机内存的使用程度。

时间复杂度

时间频度

一个算法执行所耗费的时间,从理论上是不能算出来的,必须上机运行测试才能知道。但我们不可能也没有必要对每个算法都上机测试,只需知道哪个算法花费的时间多,哪个算法花费的时间少就可以了。并且一个算法花费的时间与算法中语句的执行次数成正比例,哪个算法中语句执行次数多,它花费时间就多。一个算法中的语句执行次数称为语句频度或时间频度。记为T(n)。

时间复杂度

前面提到的时间频度T(n)中,n称为问题的规模,当n不断变化时,时间频度T(n)也会不断变化。但有时我们想知道它变化时呈现什么规律,为此我们引入时间复杂度的概念。一般情况下,算法中基本操作重复执行的次数是问题规模n的某个函数,用T(n)表示,若有某个辅助函数f(n),使得当n趋近于无穷大时,T(n)/f(n)的极限值为不等于零的常数,则称f(n)是T(n)的同数量级函数,记作T(n)=O(f(n))【大O表示法】,它称为算法的渐进时间复杂度,简称时间复杂度

大O表示法

像前面用O( )来体现算法时间复杂度的记法,我们称之为大O表示法。

大O表示法O(f(n)中的f(n)的值可以为1、n、logn、n²等,因此我们可以将O(1)、O(n)、O(logn)、O(n²)分别可以称为常数阶、线性阶、对数阶和平方阶,那么如何推导出f(n)的值呢?我们接着来看推导大O阶的方法。

推到大O阶

  1. 用常数1来取代运行时间中所有加法常数。

  2. 修改后的运行次数函数中,只保留最高阶项 。

  3. 如果最高阶项存在且不是1,则去除与这个项相乘的常数。

举例:

常数阶

int a=1 ;//执行一次
int b-1; //执行一次
int c=a+b;//执行一次

上面算法的运行的次数的函数为f(n)=3,根据推导大O阶的规则1,我们需要将常数3改为1,则这个算法的时间复杂度为O(1) 。如果int c =a+b这条语句再执行100遍,时间复杂度仍然是O(1), 因为这与问题大小n的值并没有关系,我们可以称之为常数阶。

线性阶

for(int i=0;i<n;i++)
{
  var a=n; // 1*n次 
}

上面的循环执行了n次,因此时间复杂度为O(n)。 如果再循环体里面再加一条 var b=2n, 时间复杂度仍然为O(n)。

对数阶

int number=1;
while(number<n){
number=number*2;
//时间复杂度为O(1)的算法
...
}

可以看出上面的代码,随着number每次乘以2后,都会越来越接近n,当number不小于n时就会退出循环。假设循环的次数为X,则由2^x=n得出x=log₂n,因此得出这个算法的时间复杂度为O(logn)。

平方阶

for(int i=0;i<n;i++){   
      for(int j=0;j<n;i++){
         //复杂度为O(1)的算法
         ... 
      }
  }

内层循环的时间复杂度在讲到线性阶时就已经得知是O(n),现在经过外层循环n次,那么这段算法的时间复杂度则为O(n²)。

常见算法的时间复杂度

冒泡排序(交换排序)

最好:O(N)

平均:O(N^2)

最坏:O(N^2)

特点:1、冒泡排序是一种用时间换空间的排序方法,n小时好 。2、最坏情况是把顺序的排列变成逆序,或者把逆序的数列变成顺序,最差时间复杂度O(N^2)只是表示其操作次数的数量级 3、最好的情况是数据本来就有序,复杂度为O(n)

快速排序(交换排序)

最好:O(N*log2N)

平均:O(N*log2N)

最坏:O(N^2)

特点:1、n大时好,快速排序比较占用内存,内存随n的增大而增大,但却是效率高不稳定的排序算法。 2、划分之后一边是一个,一边是n-1个, 这种极端情况的时间复杂度就是O(N^2) 3、最好的情况是每次都能均匀的划分序列,O(N*log2N)

直接选择(选择排序)

最好:O(N)

平均:O(N^2)

最坏:O(N^2)

版权声明:本文为HKKD原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://www.cnblogs.com/HKKD/p/9360721.html