top K
之前小史在BAT三家的面试中已经挂了两家,今天小史去了BAT中的最后一家面试了。
如果在10亿数据找到前1000大的数
简单的自我介绍后,面试官给了小史一个问题。
【面试现场】
**
**
题目:****如何在10亿数中找出前1000大的数?
**
**
小史:我可以用分治法,这有点类似快排中partition的操作。随机选一个数t,然后对整个数组进行partition,会得到两部分,前一部分的数都大于t,后一部分的数都小于t。
小史:如果说前一部分总数大于1000个,那就继续在前一部分进行partition寻找。如果前一部分的数小于1000个,那就在后一部分再进行partition,寻找剩下的数。
小史:首先,partition的过程,时间是o(n)。我们在进行第一次partition的时候需要花费n,第二次partition的时候,数据量减半了,所以只要花费n/2,同理第三次的时候只要花费n/4,以此类推。而n+n/2+n/4+...显然是小于2n的,所以这个方法的渐进时间只有o(n)
(注:这里的时间复杂度计算只是简化计算版,真正严谨的数学证明可以参考算法导论相关分析。)
半分钟过去了。
小史一时慌了神。
他回忆起了之前吕老师给他讲解bitmap时的一些细节。突然有了一个想法。
小史在纸上画了画。
理解了算法之后,小史的代码写起来也是非常快,不一会儿就写好了:
#include<stdio.h>
int n; ///数字个数,n很大(n>10000)
int dui[10];
#define K 10 ///Top K,K的取值
void create_dui(); ///建堆
void UpToDown(int); ///从上到下调整
int main()
{
int i;
int tmp;
while(scanf("%d",&n)!=EOF)
{
for(i=1;i<=K;i++) ///先输入K个
scanf("%d",&dui[i]);
create_dui(); ///建小顶堆
for(i=K+1;i<=n;i++)
{
scanf("%d",&tmp);
if(tmp>dui[1]) ///只有大于根节点才处理
{
dui[1]=tmp;
UpToDown(1); ///向下调整堆
}
}
}
return 1;
}
void create_dui()
{
int i;
int pos=K/2; ///从末尾数,第一个非叶节点的位置K/2
for(i=pos;i>=1;i--)
UpToDown(i);
}
void UpToDown(int i)
{
int t1,t2,tmp,pos;
t1=2*i; ///左孩子(存在的话)
t2=t1+1; ///右孩子(存在的话)
if(t1>K) ///无孩子节点
return;
else
{
if(t2>K) ///只有左孩子
pos=t1;
else
pos=dui[t1]>dui[t2]? t2:t1;
if(dui[i]>dui[pos]) ///pos保存在子孩子中,数值较小者的位置
{
tmp=dui[i];dui[i]=dui[pos];dui[pos]=tmp;
UpToDown(pos);
}
}
}
//试编写一个算法,从数组L[1....n]找出第K小的元素。
//思想:快速排序
void main(){
//....
QuickSort(L,1,n,k);
}
int findMinK(int L, int low, int high, int k){
L[0]=L[1];
int low1=low, high1=high; // store the initially number of low&high
while(low<high){ //quicksort
while(low<high&&L[high]>L[0])
--high;
L[low]=L[high];
while(low<high&&L[low]<L[0])
++low;
L[high]=L[low];
}
if(low==k)
return k;
else if(low>k)
findMinK(L,low1,low-1,k);
else
findMink(L,low+1,high1,k-low);
}
baidu
搜索引擎会通过日志文件把用户每次检索使用的所有检索串都记录下来,每个查询串的长度为1-255字节。假设目前有一千万个记录
(这些查询串的重复度比较高,虽然总数是1千万,但如果除去重复后,不超过3百万个。一个查询串的重复度越高,说明查询它的用户
越多,也就是越热门。),请你统计最热门的10个查询串,要求使用的内存不能超过1G。
必备知识:
什么是哈希表?
哈希表(Hash table,也叫散列表),是根据关键码值(Key value)而直接进行访问的数据结构。也就是说,它通过把关键码值映射到
表中一个位置来访问记录,以加快查找的速度。这个映射函数叫做散列函数,存放记录的数组叫做散列表。
哈希表hashtable(key,value) 的做法其实很简单,就是把Key通过一个固定的算法函数既所谓的哈希函数转换成一个整型数字,
然后就****将该数字对数组长度进行取余,取余结果就当作数组的下标,将value存储在以该数字为下标的数组空间里。
而当使用哈希表进行查询的时候,就是再次使用哈希函数将key转换为对应的数组下标,并定位到该空间获取value,如此一来,就可以
充分利用到数组的定位性能进行数据定位。
问题解析:
要统计最热门查询,首先就是要统计每个Query出现的次数,然后根据统计结果,找出Top 10。所以我们可以基于这个思路分两步来设计
该算法。 即,此问题的解决分为以下两个步骤:
**第一步:Query统计
** Query统计有以下俩个方法,可供选择:
**1、直接排序法
** 首先我们最先想到的的算法就是排序了,首先对这个日志里面的所有Query都进行排序,然后再遍历排好序的Query,统计每个Query出现的次数。
但是题目中有明确要求,那就是内存不能超过1G,一千万条记录,每条记录是255Byte,很显然要占据2.375G内存,这个条件就不满足要求了。
让我们回忆一下数据结构课程上的内容,当数据量比较大而且内存无法装下的时候,我们可以采用外排序的方法来进行排序,这里我们可以采用
归并排序,因为归并排序有一个比较好的时间复杂度O(NlgN)。
排完序之后我们再对已经有序的Query文件进行遍历,统计每个Query出现的次数,再次写入文件中。
综合分析一下,排序的时间复杂度是O(NlgN),而遍历的时间复杂度是O(N),因此该算法的总体时间复杂度就是O(N+NlgN)=O(NlgN)。
**2、Hash Table法
** 在第1个方法中,我们采用了排序的办法来统计每个Query出现的次数,时间复杂度是NlgN,那么能不能有更好的方法来存储,而时间复杂度更低呢?
题目中说明了,虽然有一千万个Query,但是由于重复度比较高,因此事实上只有300万的Query,每个Query255Byte,因此我们可以考虑把他们都放进内存中去,而现在只是需要一个合适的数据结构,在这里,Hash Table绝对是我们优先的选择,因为Hash Table的查询速度非常的快,几乎是O(1)的时间复杂度。
那么,我们的算法就有了:维护一个Key为Query字串,Value为该Query出现次数的HashTable,每次读取一个Query,如果该字串不在Table中,那么加入该字串,并且将Value值设为1;如果该字串在Table中,那么将该字串的计数加一即可。最终我们在O(N)的时间复杂度内完成了对该海量数据的处理。
本方法相比算法1:在时间复杂度上提高了一个数量级,为O(N),但不仅仅是时间复杂度上的优化,该方法只需要IO数据文件一次,而算法1的IO次数较多的,因此该算法2比算法1在工程上有更好的可操作性。
**第二步:找出Top 10
** **算法一:普通排序
** 对于排序算法大家都已经不陌生了,这里不在赘述,要注意的是排序算法的时间复杂度是NlgN,在本题目中,三百万条记录,用1G内存是可以存下的。
**算法二:部分排序
** 题目要求是求出Top 10,因此我们没有必要对所有的Query都进行排序,我们只需要维护一个10个大小的数组,初始化放入10个Query,按照每个Query的统计次数由大到小排序,然后遍历这300万条记录,每读一条记录就和数组最后一个Query对比,如果小于这个Query,那么继续遍历,否则,将数组中最后一条数据淘汰,加入当前的Query。最后当所有的数据都遍历完毕之后,那么这个数组中的10个Query便是我们要找的Top10了。
不难分析出,这样,算法的最坏时间复杂度是N*K, 其中K是指top多少。
**算法三:堆
** 在算法二中,我们已经将时间复杂度由NlogN优化到NK,不得不说这是一个比较大的改进了,可是有没有更好的办法呢?
分析一下,在算法二中,每次比较完成之后,需要的操作复杂度都是K,因为要把元素插入到一个线性表之中,而且采用的是顺序比较。这里我们注意一下,该数组是有序的,一次我们每次查找的时候可以采用二分的方法查找,这样操作的复杂度就降到了logK,可是,随之而来的问题就是数据移动,因为移动数据次数增多了。不过,这个算法还是比算法二有了改进。
基于以上的分析,我们想想,有没有一种既能快速查找,又能快速移动元素的数据结构呢?回答是肯定的,那就是堆。
借助堆结构,我们可以在log量级的时间内查找和调整/移动。因此到这里,我们的算法可以改进为这样,维护一个K(该题目中是10)大小的小根堆,然后遍历300万的Query,分别和根元素进行对比。
具体过程是,堆顶存放的是整个堆中最小的数,现在遍历N个数,把最先遍历到的k个数存放到最小堆中,并假设它们就是我们要找的最大的k个数,X1>X2...Xmin(堆顶),而后遍历后续的N-K个数,一一与堆顶元素进行比较,如果遍历到的Xi大于堆顶元素Xmin,则把Xi放入堆中,而后更新整个堆,更新的时间复杂度为logK,如果XilogK)+O((N-K)logK)=O(NlogK)。
思想与上述算法二一致,只是在算法三,我们采用了最小堆这种数据结构代替数组,把查找目标元素的时间复杂度有O(K)降到了O(logK)。
那么这样,采用堆数据结构,算法三,最终的时间复杂度就降到了N‘logK,和算法二相比,又有了比较大的改进。
** 至此,算法就完全结束了,经过上述第一步、先用Hash表统计每个Query出现的次数,O(N);然后第二步、采用堆数据结构找出Top 10,N*O(logK)。所以,我们最终的时间复杂度是:O(N) + N'*O(logK)。(N为1000万,N’为300万)。如果各位有什么更好的算法,欢迎留言评论。

浙公网安备 33010602011771号