阅读更多
1 前言
Bloom Filter
是由Bloom
在1970年提出的一种多哈希函数映射的快速查找算法。通常应用在一些需要快速判断某个元素是否属于集合,但是并不严格要求100%正确的场合
2 问题引入
假设要你写一个网络蜘蛛(web crawler
)。由于网络间的链接错综复杂,蜘蛛在网络间爬行很可能会形成环。为了避免形成环,就需要知道蜘蛛已经访问过那些URL
。给一个URL
,怎样知道蜘蛛是否已经访问过呢?稍微想想,就会有如下几种方案:
- 将访问过的
URL
保存到数据库 - 用
HashSet
将访问过的URL
保存起来。那只需接近O(1)
的代价就可以查到一个URL是否被访问过了 URL
经过MD5
或SHA-1
等单向哈希后再保存到HashSet
或数据库Bit-Map
方法。建立一个BitSet
,将每个URL
经过一个哈希函数映射到某一位
- 方法
1~3
都是将访问过的URL
完整保存,方法4
则只标记URL
的一个映射位
以上方法在数据量较小的情况下都能完美解决问题,但是当数据量变得非常庞大时问题就来了。
- 方法1的缺点:数据量变得非常庞大后关系型数据库查询的效率会变得很低。而且每来一个
URL
就启动一次数据库查询是不是太小题大做了? - 方法2的缺点:太消耗内存。随着
URL
的增多,占用的内存会越来越多。就算只有1亿个URL
,每个URL
只算50
个字符,就需要5GB
内存 - 方法3:由于字符串经过
MD5
处理后的信息摘要长度只有128Bit
,SHA-1
处理后也只有160Bit
,因此方法3比方法2节省了好几倍的内存 - 方法4:该方法消耗内存是相对较少的,但缺点是单一哈希函数发生冲突的概率太高。还记得数据结构课上学过的
Hash
表冲突的各种解决方法么?若要降低冲突发生的概率到1%,就要将BitSet
的长度设置为URL
个数的100倍
实质上上面的算法都忽略了一个重要的隐含条件:允许小概率的出错,不一定要100%准确!也就是说少量url实际上没有没网络蜘蛛访问,而将它们错判为已访问的代价是很小的——大不了少抓几个网页呗。
其实还有一种方法也可行。我们可以将这海量的
URL
分成若干份,每份的数量相对较小,单个机器足以处理。那么问题是如何进行分发呢?如果采用随机分发的方式,那么相同的URL
可能会被分到不同的机器中,最后整合时还需要在做一次去重操作。另一种方式就是在分发的时候先进行一次聚合操作,所有相同的URL
必定被分发到同一个机器上,这样一来,每台机器就可以单独工作,最后进行一次汇总即可。那么如何在分发时进行聚合呢?利用hash
函数即可,例如构造一个可以产生m
位整数的hash
函数,那么m
位整数总共有2^m
个可能的数值,对每一个URL
进行一次hash
计算,映射到这其中的一个整数,就分发给对应的机器进行处理
3 Bloom Filter的算法
废话说到这里,下面引入本篇的主角——Bloom Filter
。其实上面方法4的思想已经很接近Bloom Filter了
。方法四的致命缺点是冲突概率高,为了降低冲突的概念,Bloom Filter
使用了多个哈希函数,而不是一个
Bloom Filter
算法如下:
创建一个
m
位BitSet
,先将所有位初始化为0
,然后选择k
个不同的哈希函数。第i
个哈希函数对字符串str
哈希的结果记为h(i,str)
,且h(i,str)
的范围是0
到m-1
3.1 加入字符串的过程
下面是每个字符串处理的过程,首先是将字符串str
记录到BitSet
中的过程:
对于字符串str
,分别计算h(1, str), h(2, str), ..., h(k, str)
。然后将BitSet
的第h(1, str), h(2, str), ..., h(k, str)
位设为1
3.2 检查字符串是否存在的过程
下面是检查字符串str
是否被BitSet
记录过的过程:
对于字符串
str
,分别计算h(1, str), h(2, str), ..., h(k, str)
。然后检查BitSet
的第h(1, str), h(2, str), ..., h(k, str)
位是否为1
,若其中任何一位不为1
则可以判定str
一定没有被记录过。若全部位都是1
,则认为字符串str
存在
若一个字符串对应的Bit
不全为1
,则可以肯定该字符串一定没有被Bloom Filter
记录过。(这是显然的,因为字符串被记录过,其对应的二进制位肯定全部被设为1
了)
但是若一个字符串对应的Bit
全为1
,实际上是不能100%
的肯定该字符串被Bloom Filter
记录过的。(因为有可能该字符串的所有位都刚好是被其他字符串所对应)这种将该字符串划分错的情况,称为false positive
3.3 删除字符串过程
字符串加入了就被不能删除了,因为删除会影响到其他字符串。实在需要删除字符串的可以使用Counting bloomfilter(CBF)
,这是一种基本Bloom Filter
的变体,CBF
将基本Bloom Filter
每一个Bit
改为一个计数器,这样就可以实现删除字符串的功能了
Bloom Filter
跟单哈希函数Bit-Map
不同之处在于:Bloom Filter
使用了k
个哈希函数,每个字符串跟k
个bit
对应。从而降低了冲突的概率
4 Bloom Filter参数选择
哈希函数选择:哈希函数的选择对性能的影响应该是很大的,一个好的哈希函数要能近似等概率的将字符串映射到各个Bit
。选择k
个不同的哈希函数比较麻烦,一种简单的方法是选择一个哈希函数,然后送入k
个不同的参数
Bit
数组大小选择:哈希函数个数k
、位数组大小m
、加入的字符串数量n
的关系可以参考Bloom Filters - the math。该文献证明了对于给定的m
、n
,当k = ln(2)* m/n
时出错的概率是最小的
- 同时该文献还给出特定的
k
,m
,n
的出错概率。例如:根据参考文献1,哈希函数个数k
取10
,位数组大小m
设为字符串个数n
的20
倍时,false positive
发生的概率是0.0000889
,这个概率基本能满足网络爬虫的需求了
5 Bloom Filter的优化
上面提到的Bloom Filter
中的k
个hash
函数共享同一个BitSet
,且他们之间并没有先后次序的关系hash(1, str) = 1, hash(2, str) = 2
与hash(1, str) = 2,hash(2, str) = 1
的结果是相同的),这样做实际上会增加重复的概率,因为不同的hash
函数可能会让同一个bit
置位。因此我们以牺牲空间复杂度为代价,将一个BitSet
扩充为k
个BitSet
,每一个hash
独占一个BitSet
,这样可以大大降低误判的概率
举个简单的例子,假设BitSet
共有4
位,有2
个hash
函数
我们以两个
URL
进行分析:对于URL1
,hash1(URL1) = 1,hash2(URL1) = 2
;对于URL2
,hash1(URL2) = 2,hash2(URL2) = 1
若
2
个hash
共享同一个BitSet
,初始化的时候BitSet = 0000
,存入URL1后,BitSet = 0110
。此时对于URL2而言,经过两个hash函数映射到第2位和第1位,发现此时BitSet中这两位全是1,因此判定为重复。究其原因,就是因为URL1
在存入bit
位的时候丢失了部分信息(该位是由哪个hash
函数产生的)
若
2
个hash
分别独占一个BitSet
,初始化的时候BitSet1 = 0000, BitSet2 = 0000
,存入URL1后,BitSet1 = 0100, BitSet2 = 0010
。此时对于URL2
而言,发现BitSet1
的第2
位与BitSet2
的第1
位是0
,因此判定没有重复
6 示例代码
1 |
|