海量数据处理方法总结
ok,看了上面这么多的面试题,是否有点头晕。是的,需要一个总结。接下来,本文将简单总结下一些处理海量数据问题的常见方法
下面的方法,对海量数据处理方法进行了一个一般性的总结,当然这些方法可能并不能完全覆盖所有的问题,但是这样的一些方法也基本可以处理绝大多数遇到的问题。下面的一些问题基本直接来源于公司的面试笔试题目,方法不一定最优
一。Bloom filter
适用范围:可以用来实现数据字典,进行数据的判重,或者集合求交集
基本原理及要点:
对于原理来说很简单,位数组+k个独立hash函数。将hash函数对应的值的位数组置1,查找时如果发现所有hash函数对应位都是1说明存在,很明显这个过程并不保证查找的结果是100%正确。同时也不支持删除一个已经插入的关键字,因为该关键字对应的位会牵动其他的关键字。所以一个简单的改进就是counting bloom filter,用一个counter数组代替位数组,就可以支持删除了。
还有一个比较重要的问题,如何根据输入元素个数N,确定位数组M的大小及hash函数个数。当hash函数个数k=(ln2)*(m/n)时错误率最小。在错误率不大于E的情况下,m至少要等于n*lg(1/E)才能表示任意n个元素的集合,但m还应该更大些,因为还要保证bit数组里至少一半为0,则m应该》=nlg(1/E)*lge大概就是nlg(1/e)1.44倍(lg表示以2为底的对数)
举个例子我们假设错误率为0.01,则此时m应该大概是n的13倍,这样k大概是8个
二、hashing
使用范围:快速查找,删除的基本数据结构,通常需要总数据可以放入内存。
基本原理及要点:
hash函数选择,针对字符串,整数,排列,具体相应的hash方法。
碰撞处理,一种是open hashing,也称为拉链法;另一种就是closed hashing,也称开放地址法,opened addressing.
扩展:
d-left hashing中的d是多个的意思,我们先简化这个问题,看看2-left hashing.2-left hashing指的是将一个哈希表分成长度相等的两半,分别叫做T1和T2,给T1和T2分配一个哈希函数,h1和h2.在存储一个新的key时,同时用两个哈希函数进行计算,得出两个地址h1[key]和h2[key].这时需要检查T1中的h1[key]位置和T2中的h2[key]位置,哪一个位置已经存储的(有碰撞)key比较多。然后将新key存储在左边的T1子表中,2-left也由此而来。在查找一个Key时,必须进行两次hash,同时查找两个位置。
三、bit-map
适用范围:可进行数据的快速查找,判重,删除,一般来说数据范围是int的10倍以下
基本原理及要点:使用bit数组来表示某些元素是否存在,比如8位电话号码
扩展:bloom filter可以看做是对bit-map的扩展
问题实例:
1)已知某个文件内包含一些电话号码,每个号码为8位数字,统计不同号码的个数。
8位最多99 999 999,大概需要99m个bit,大概10几m字节的内存即可。
2)2.5亿个整数中找出不重复的整数的个数,内存空间不足以容纳这2.5亿个整数。
将bit-map扩展一下,用2bit表示一个数组即可,0表示未出现,1表示出现一次,2表示出现2次及以上,或者我们不用2bit来进行表示,我们用两个bit-map即可模拟实现这个2bit-map
四、堆
使用范围:海量数据前n大,并且n比较小,堆可以放入内存
基本原理及要点:最大堆求前n小,最小堆求前n大。方法,比如求前n小,我们比较当前元素与最大堆里的最大元素,如果它小于最大元素,则应该替换那个最大元素,这样最后得到的n个元素就是最小的n个,适合大数据量,求前n小,n的大小比较小的情况,这样可以扫描一遍即可得到所有前n元素,效率很高。
扩展:双堆,一个最大堆与一个最小堆结合,可以用来维护中位数。
问题实例
1.100w个数中找最大的前100个数
用一个100元素的大小的最小堆即可

浙公网安备 33010602011771号