在计算机科学中,时间复杂性,又称时间复杂度,算法的时间复杂度是一个函数,它定性描述该算法的运行时间。这是一个代表算法输入值的字符串的长度的函数。时间复杂度常用大O符号表述,不包括这个函数的低阶项和首项系数。使用这种方式时,时间复杂度可被称为是渐近的,亦即考察输入值大小趋近无穷时的情况。
算法的时间复杂度,也就是算法的时间量度。记作:T(n)=O(f(n))。它表示随问题n的增大,算法执行时间的增长率和f(n)的增长率相同。其中,f(n)是问题规模n的某个函数。这样用大写O()来体现算法时间复杂度的记法,我们称之为大0记法。
大O阶推导一共分为下面3个步骤:
首先顺序结构的时间复杂度。下面这个算法,是利用高斯定理计算1,2,……n个数的和。
int sum = 0, n = 100; /*执行一次*/
sum = (1 + n) * n / 2; /*执行一次*/
printf("%d",sum); /*执行一次*/
这个算法的运行次数函数是f (n) =3。 根据我们推导大0阶的方法,第一步就是把常数项3 改为1。在保留最高阶项时发现,它根本没有最高阶项,所以这个算法的时间复杂度为0(1)。
另外,我们试想一下,如果这个算法当中的语句 sum = (1+n)*n/2; 有10 句,则与示例给出的代码就是3次和12次的差异。这种与问题的大小无关(n的多少),执行时间恒定的算法,我们称之为具有O(1)的时间复杂度,又叫常数阶。对于分支结构而言,无论是真,还是假,执行的次数都是恒定的,不会随着n 的变大而发生变化,所以单纯的分支结构(不包含在循环结构中),其时间复杂度也是O(1)。如下面这段代码的时间复杂度就是O(1)。
var m = 100
console.log(n+1);
console.log(n+2);
console.log(n+3); // O(1)
线性阶的循环结构会复杂很多。要确定某个算法的阶次,我们常常需要确定某个特定语句或某个语句集运行的次数。因此,我们要分析算法的复杂度,关键就是要分析循环结构的运行情况。
下面这段代码,它的循环的时间复杂度为O(n), 因为循环体中的代码须要执行n次。
int i;
for(i = 0; i < n; i++){
/*时间复杂度为O(1)的程序步骤序列*/
}
再比如,下面这段代码循环了n*n次,时间复杂度为O(n2)。
for (int i = 0 ;i <n; i++){
for (int j = 0 ;j < n; j ++) {
System.out.println("第几次" + i+""+j);
}
}
下面代码:
int count = 1;
while (count < n){
count = count * 2;
/*时间复杂度为O(1)的程序步骤序列*/
}
由于每次count乘以2之后,就距离n更近了一分。 也就是说,有多少个2相乘后大于n,则会退出循环。 由2^x=n 得到x=logn。 所以这个循环的时间复杂度为O(logn)。
下面例子是一个循环嵌套,它的内循环刚才我们已经分析过,时间复杂度为O(n)。
int i, j;
for(i = 0; i < n; i++){
for(j = 0; j < n; j++){
/*时间复杂度为O(1)的程序步骤序列*/
}
}
而对于外层的循环,不过是内部这个时间复杂度为O(n)的语句,再循环n次。 所以这段代码的时间复杂度为O(n2)。 如果外循环的循环次数改为了m,时间复杂度就变为O(m*n)。所以我们可以总结得出,循环的时间复杂度等于循环体的复杂度乘以该循环运行的次数。
那么下面这个循环嵌套,它的时间复杂度是多少呢?
int i,j;
for(i = 0; i < n; i++)
{
for(j = i; j < n; j++) /* 注意 j = i 而不是0 */
{
/* 时间复杂度为O(1)的程序步骤序列 */
}
}
解析:
由于当i = 0 时,内循环执行了n次,当i=1时,执行了n-1次,…当i = n-1时,执行了1次。所以总的执行次数为:
用我们推导大O阶的方法:
从这个例子我们也可以得到一个经验,其实理解大O推导不算难,难的是对数列的一些相关运算,这更多的是考察你的数学知识的能力。
有下面一个函数:
void function(int count)
{
print(count);
}
上面的函数经过以下这个调用的方法:
int i,j;
for(i = 0; i < n; i++)
{
funtion(i);
}
函数体是打印这个参数。其实这很好理解,function函数的时间复杂度是O(1)。所以整体的时间复杂度为O(n)。
但如果调用函数是下面这样的:
void function(int count)
{
int j;
for(j = count; j < n; j++)
{
/* 时间复杂度为O(1)的程序步骤序列 */
}
}
事实上,这和刚才举的例子是一样的,只不过把嵌套内循环放到了函数中,所以最终的时间复杂度为O(n²)。
最后,我们考虑一下下面这个相对复杂的语句:
n++; /* 执行次数为1 */
function(n); /* 执行次数为n */
int i,j;
for(i = 0; i < n; i++) /* 执行次数为n² */
{
function(i);
}
for(i = 0;i < n; i++) /* 执行次数为 n(n+1)/2 */
{
for(j = i; j < n; j++)
{
/* 时间复杂度为O(1)的程序步骤序列 */
}
}
他的执行次数:
根据推导大O阶的方法,最终这段代码的时间复杂度也是O(n²)。
常见的时间复杂度如下表所示
执行次数 | 阶 | 非正式术语 |
---|---|---|
12 | O(1) | 常数阶 |
2n+3 | O(n) | 线性阶 |
3n²+2n+1 | O(n²) | 平方阶 |
5logn+20 | O(logn) | 对数阶 |
2n+3nlogn+19 | O(nlogn) | nlogn阶 |
6n³+2n²+3n+4 | O(n³) | 立方阶 |
2ⁿ | O(2ⁿ) | 指数阶 |
常用的时间复杂度所耗费的时间从大到小依次是:
O(1)<O(logn)<O(n)<O(nlogn)<O(n²)<O(n³)<O(2ⁿ)<O(n!)<O(nⁿ)
我们前面以及谈到了O(1)常数阶、O(logn)对数阶、O(n)线性阶、O(n²)平方阶等,至于O(nlogn)等都类似分析,而像O(n³),过大的n都会使得结果变得不现实。同样指数阶O(2ⁿ)和阶乘阶O(n!)等除非是很小的n值,否则哪怕n只是100,都是噩梦般的运行时间。所以这种不切实际的算法时间复杂度,一般我们都不去讨论它。
复杂度与时间效率的关系:
c(常数) < logn < n < n*logn < n^2 < n^3 < 2^n < 3^n < n!
l------------------------------l--------------------------l--------------l
较好 一般 较差
我们查找一个有n 个随机数字数组中的某个数字,最好的情况是第一个数字就是,那么算法的时间复杂度为O(1),但也有可能这个数字就在最后一个位置上待着,那么算法的时间复杂度就是O(n),这是最坏的一种情况了。
最坏情况运行时间是一种保证,那就是运行时间将不会再坏了。 在应用中,这是一种最重要的需求, 通常, 除非特别指定, 我们提到的运行时间都是最坏情况的运行时间。
而平均运行时间也就是从概率的角度看, 这个数字在每一个位置的可能性是相同的,所以平均的查找时间为n/2次后发现这个目标元素。平均运行时间是所有情况中最有意义的,因为它是期望的运行时间。也就是说,我们运行一段程序代码时,是希望看到平均运行时间的。可现实中,平均运行时间很难通过分析得到,一般都是通过运行一定数量的实验数据后估算出来的。一般在没有特殊说明的情况下,都是指最坏时间复杂度。
空间复杂度(Space Complexity)是对一个算法在运行过程中临时占用存储空间大小的量度,记做S(n)=O(f(n))。
简单的讲就是包括下面几部分。
1.存储算法本身所占用的存储空间。
2.算法的输入输出数据所占用的存储空间。
3.算法在运算过程中临时占用的存储空间这三个方面。
int a[] = new int[n];
这个例子的空间复杂度是多少呢?这个数组开辟的空间是多少呢? O(n)。
时间复杂度和空间复杂度本就是一个相互博弈的过程,一个多另一个就少,根据适当的问题,找到适当的解,这才是好办法。下面给一张常见数据结构时间和空间复杂度的图。