No.1 入门篇——复杂度分析

复杂度分析是整个算法学习的精髓,只要掌握了它,数据结构和算法的内容基本上就掌握了一半。

01 | 为什么需要复杂度分析?

相比于事后统计法,其有很多的局限性

  • 测试结果非常依赖测试环境
  • 测试结果受数据规模影响较大

02 | 大 O 复杂度表示法

22900968aa2b190072c985a08b0e92ef.png (1133×109) (geekbang.org)

其中,T(n) 表示代码执行的时间;n 表示数据规模的大小;f(n) 表示每行代码执行的次数总和。因为这是一个公式,所以用 f(n) 来表示。公式中的 O,表示代码的执行时间 T(n)f(n) 表达式成正比。

O时间复杂度实际上并不具体表示代码真正的执行时间,而是表示代码执行时间随数据规模增长的变化趋势,所以,也叫作渐进时间复杂度(asymptotic time complexity),简称时间复杂度。

再比如:T(n) = O(2n+2)T(n) = O(2n2+2n+3)。当 n 很大时,你可以把它想象成 10000、100000。而公式中的低阶、常量、系数三部分并不左右增长趋势,所以都可以忽略。我们只需要记录一个最大量级就可以了,如果用大 O 表示法表示刚讲的那两段代码的时间复杂度,就可以记为:T(n) = O(n)T(n) = O(n2)

03 | 时间复杂度分析

  • 只关注循环执行次数最多的一段代码

    大 O 这种复杂度表示方法只是表示一种变化趋势。我们通常会忽略掉公式中的常量、低阶、系数,只需要记录一个最大阶的量级就可以了。所以,我们在分析一个算法、一段代码的时间复杂度的时候,也只关注循环执行次数最多的那一段代码就可以了。这段核心代码执行次数的 n 的量级,就是整段要分析代码的时间复杂度。

int cal(int n) { 
    int sum = 0; 
    int i = 1; 
    for (; i <= n; ++i) { 
        sum = sum + i; 
    } 
    return sum; 
}
//这段代码中,只有 for 循环中 ++i,sum += i; 被执行了 n 次,所以总时间复杂度是O(n).
  • 加法法则:总复杂度等于量级最大的那段代码的复杂度

  • 乘法法则:嵌套代码的复杂度等于嵌套内外代码复杂度的乘积

    如果 T1(n)=O(f(n))T2(n)=O(g(n));那么 T(n)=T1(n)*T2(n)=O(f(n))*O(g(n))=O(f(n)*g(n)).

    也就是说,假设 T1(n) = O(n)T2(n) = O(n2),则 T1(n) * T2(n) = O(n3)。落实到具体的代码上,我们可以把乘法法则看成是嵌套循环

04 | 几种常见时间复杂度案例分析

3723793cc5c810e9d5b06bc95325bf0a.jpg (1142×572) (geekbang.org)

1. O(1)

O(1) 只是常量级时间复杂度的一种表示方法,并不是指只执行了一行代码。

int sum = 0;
for(int i = 0;i < 10000;i ++){
    sum += i;
}
System.out.println("sum: " + sum);

对于上面这行代码,执行行数与数据量无关,是可以肉眼可见的,因此依然是O(1)

2. O( \(log^n\))、O(\(nlog^n\))
int sum = 1;
while(sum < n){
    sum *= 2;
}
System.out.println("sum: " + sum);

从代码中可以看出,变量 i 的值从 1 开始取,每循环一次就乘以 2。

9b1c88264e7a1a20b5954be9bc4bec9a.jpg (1142×147) (geekbang.org)

所以,我们只要知道 x 值是多少,就知道这行代码执行的次数了。通过 \(2^x = n\) 求解 \(x\) 这个问题我们想高中应该就学过了。\(x = log_2^n\),所以,这段代码的时间复杂度就是 \(O(log_2^n)\)

在数学中,对数之间是可以互相转换的,\(log_3^n\) 就等于 \(log_3^2 * log_2^n\) ,所以 \(O(log_3^n) = O(C * log_2^n)\) ,其中 \(C = log_3^2\) 是一个常量。基于我们前面的一个理论:在采用大O标记复杂度的时候,可以忽略系数,即 \(O(Cf(n)) = O(f(n))\) 。所以,\(log_2^n\)就等于\(log_3^n\)。因此,在对数阶时间复杂度的表示方法里,我们忽略对数的“底”,统一表示为 \(O(log n)\)

05 | 空间复杂度分析

时间复杂度的全称是渐进时间复杂度,表示算法的执行时间与数据规模之间的增长关系。类比一下,空间复杂度全称就是渐进空间复杂度(asymptotic space complexity),表示算法的存储空间与数据规模之间的增长关系。

void print(int n) {
  int i = 0;
  int[] a = new int[n];
  for (i; i <n; ++i) {
    a[i] = i * i;
  }

  for (i = n-1; i >= 0; --i) {
    System.out.println(a[i]);
  }
}

跟时间复杂度分析一样,我们可以看到,第 2 行代码中,我们申请了一个空间存储变量 i,但是它是常量阶的,跟数据规模 n 没有关系,所以我们可以忽略。第 3 行申请了一个大小为 n 的 int 类型数组,除此之外,剩下的代码都没有占用更多的空间,所以整段代码的空间复杂度就是 O(n)。

06 | 最好、最坏时间复杂度

// n表示数组array的长度
int find(int[] array, int n, int x) {
  int i = 0;
  int pos = -1;
  for (; i < n; ++i) {
    if (array[i] == x) {
       pos = i;
       break;
    }
  }
  return pos;
}
  • 最好情况时间复杂度就是,在最理想的情况下,执行这段代码的时间复杂度。

    上面示例代码最好时间复杂度:O(1)

  • 最坏情况时间复杂度就是,在最糟糕的情况下,执行这段代码的时间复杂度。

    上面示例代码最好时间复杂度:O(n)

07 | 平均情况时间复杂度

在日常生活中,最好、最坏所对应的极端情况,发生的概率其实并不大。为了更好地表示平均情况下的复杂度,我们需要引入另一个概念:平均情况时间复杂度,后面我简称为平均时间复杂度。

还是借助06中的例子,要查找的变量 x 在数组中的位置,有 n+1 种情况:在数组的 0~n-1 位置中和不在数组中。我们把每种情况下,查找需要遍历的元素个数累加起来,然后再除以 n+1,就可以得到需要遍历的元素个数的平均值,即:

\[\frac{1+2+3+ ... + n + n}{n + 1} = \frac{n(n + 3)}{2(n + 1)} \]

我们知道,时间复杂度的大O标记法中,可以省略掉系数、低阶、常量,所以,咱们把刚刚这个公式简化之后,得到的平均时间复杂度就是 O(n)

要查找的变量 x,要么在数组里,要么就不在数组里。这两种情况对应的概率统计起来很麻烦,为了方便你理解,我们假设在数组中与不在数组中的概率都为 1/2。另外,要查找的数据出现在 0~n-1 这 n 个位置的概率也是一样的,为 1/n。所以,根据概率乘法法则,要查找的数据出现在 0~n-1 中任意位置的概率就是 1/(2n)。

因此,前面的推导过程中存在的最大问题就是,没有将各种情况发生的概率考虑进去。如果我们把每种情况发生的概率也考虑进去,那平均时间复杂度的计算过程就变成了这样:

\[1*\frac{1}{2n} + 2*\frac{1}{2n} + 3*\frac{1}{2n} + ... + N*\frac{1}{2n} +N*\frac{1}{2} = \frac{3n + 1}{4} \]

这个值就是概率论中的加权平均值,也叫作期望值,所以平均时间复杂度的全称应该叫加权平均时间复杂度或者期望时间复杂度

08 | 均摊时间复杂度

大部分情况下,我们并不需要区分最好、最坏、平均三种复杂度。平均复杂度只在某些特殊情况下才会用到,而均摊时间复杂度应用的场景比它更加特殊、更加有限。

 // array表示一个长度为n的数组
 // 代码中的array.length就等于n
 int[] array = new int[n];
 int count = 0;
 
 void insert(int val) {
    if (count == array.length) {
       int sum = 0;
       for (int i = 0; i < array.length; ++i) {
          sum = sum + array[i];
       }
       array[0] = sum;
       count = 1;
    }

    array[count] = val;
    ++count;
 }

上面这段代码,最好时间复杂度是O(1),最坏时间复杂度是数组中没有空闲位置时,需要先求和再插入,所以最坏时间复杂度是O(n)。平均时间复杂度O(1)

假设数组的长度是 n,根据数据插入的位置的不同,我们可以分为 n 种情况,每种情况的时间复杂度是 O(1)。除此之外,还有一种“额外”的情况,就是在数组没有空闲空间时插入一个数据,这个时候的时间复杂度是 O(n)。而且,这 n+1 种情况发生的概率一样,都是 \(\frac{1}{n+1}\) 。所以,根据加权平均的计算方法,我们求得的平均时间复杂度就是:

\[1 * \frac{1}{n + 1} + 1 * \frac{1}{n + 1} + ... + 1 * \frac{1}{n + 1} + n * \frac{1}{n + 1} = O(1) \]

首先,find() 函数在极端情况下,复杂度才为 O(1)。但 insert() 在大部分情况下,时间复杂度都为 O(1)。只有个别情况下,复杂度才比较高,为 O(n)。这是 insert()第一个区别于 find() 的地方。

我们再来看第二个不同的地方。对于 insert() 函数来说,O(1) 时间复杂度的插入和 O(n) 时间复杂度的插入,出现的频率是非常有规律的,而且有一定的前后时序关系,一般都是一个O(n)插入之后,紧跟着 n-1O(1)的插入操作,循环往复。

针对这种特殊的场景,我们引入了一种更加简单的分析方法:摊还分析法,通过摊还分析得到的时间复杂度我们起了一个名字,叫均摊时间复杂度。

我们还是继续看在数组中插入数据的这个例子。每一次 O(n) 的插入操作,都会跟着 n-1O(1) 的插入操作,所以把耗时多的那次操作均摊到接下来的 n-1 次耗时少的操作上,均摊下来,这一组连续的操作的均摊时间复杂度就是 O(1)。这就是均摊分析的大致思路。你都理解了吗?

对一个数据结构进行一组连续操作中,大部分情况下时间复杂度都很低,只有个别情况下时间复杂度比较高,而且这些操作之间存在前后连贯的时序关系,这个时候,我们就可以将这一组操作放在一块儿分析,看是否能将较高时间复杂度那次操作的耗时,平摊到其他那些时间复杂度比较低的操作上。而且,在能够应用均摊时间复杂度分析的场合,一般均摊时间复杂度就等于最好情况时间复杂度。

09 | 小结

497a3f120b7debee07dc0d03984faf04.jpg (1142×640) (geekbang.org)

10 | 参考

极客时间—数据结构与算法(https://time.geekbang.org/column/intro/126)

posted @ 2020-11-26 14:36  Tonylp  阅读(181)  评论(0)    收藏  举报