算法的时间复杂度

时间复杂度定义

在进行算法分析时,语句总的执行次数T(n) 是关于问题规模n 的函数,进而分析T(n)随n 的变化情况而确定T(n)的数量级。
算法的时间复杂度,也就是算法的时间量度,记作T(n) = O(f(n))。它表示随问题规模n 的增大,算法执行时间的增长率和
f(n) 的增长率相同。f(n) 是问题规模n 的某个函数。

这种使用大写O来体现算法时间复杂度的记法,我们称之为大O记法。一般而言,随着n的增大,T(n) 增长最慢的算法为最优算法,如O(1)。

推导大O阶方法

1 用常数1取代运行时间中的所有加法常数。f(n) = 6 -> f(n) = 1
2 在修改后的运行次数函数中,只保留最高级阶项。 f(n) = n² + n -> f(n) = n²
3 如果最高次项存在且不是1,则去除与这个项相乘的常数。f(n) => n²/2 -> f(n) = n²

常数阶

不论n的大小,运行次数恒定的算法,我们称之为具有O(1)的时间复杂度,又为常数阶。如hash算法,即为f(n) = 1。

线性阶

运行次数与n的大小呈线性关系,我们称之为具有O(n) 的时间复杂度,又称线性阶。如遍历一个集合,即为f(n) = n。

对数阶

运行次数与n 的大小呈对数关系,我们称之为具有O(logn)的时间复杂度,又称对数阶。
如下程序,f(n) = log2n, 时间复杂度为O(n) = logn。

int count =1;
while(count < n) {
  count = count *2;
}

平方阶

运行次数与n 的大小呈平方阶关系,我们称之为O(n2)的时间复杂度,又称平方阶。如等比数列。

常见的时间复杂度

| 执行函数 | 阶 |
| ---- | ---- | ---- |
| 19 | O(1) |
| n + 1 | O(n) |
| n² + 1 | O(n2) |
| 3log2n + 2 | O(logn) |
| n + nlog2n | O(nlogn) |
| n³ + n | O(n³) |

时间复杂度大小依此为:
O(1) < O(logn) < O(n) < O(nlogn) < O(n2) < O(n³)

posted @ 2021-05-16 20:16  cd_along  阅读(699)  评论(0)    收藏  举报