大数据常见处理方法总结.docx
- 文档编号:10068990
- 上传时间:2023-05-23
- 格式:DOCX
- 页数:38
- 大小:62.06KB
大数据常见处理方法总结.docx
《大数据常见处理方法总结.docx》由会员分享,可在线阅读,更多相关《大数据常见处理方法总结.docx(38页珍藏版)》请在冰点文库上搜索。
大数据常见处理方法总结
《海量数据处理常用思路和方法》
大数据量,海量数据处理方法总结
最近有点忙,稍微空闲下来,发篇总结贴。
大数据量的问题是很多面试笔试中经常出现的问题,比如baidugoogle腾讯这样的一些涉及到海量数据的公司经常会问到。
下面的方法是我对海量数据的处理方法进行了一个一般性的总结,当然这些方法可能并不能完全覆盖所有的问题,但是这样的一些方法也基本可以处理绝大多数遇到的问题。
下面的一些问题基本直接来源于公司的面试笔试题目,方法不一定最优,如果你有更好的处理方法,欢迎与我讨论。
1.Bloomfilter
适用范围:
可以用来实现数据字典,进行数据的判重,或者集合求交集
基本原理及要点:
对于原理来说很简单,位数组+k个独立hash函数。
将hash函数对应的值的位数组置1,查找时如果发现所有hash函数对应位都是1说明存在,很明显这个过程并不保证查找的结果是100%正确的。
同时也不支持删除一个已经插入的关键字,因为该关键字对应的位会牵动到其他的关键字。
所以一个简单的改进就是countingBloomfilter,用一个counter数组代替位数组,就可以支持删除了。
还有一个比较重要的问题,如何根据输入元素个数n,确定位数组m的大小及hash函数个数。
当hash函数个数k=(ln2)*(m/n)时错误率最小。
在错误率不大于E的情况下,m至少要等于n*lg(1/E)才能表示任意n个元素的集合。
但m还应该更大些,因为还要保证bit数组里至少一半为0,则m应该>=nlg(1/E)*lge大概就是nlg(1/E)1.44倍(lg表示以2为底的对数)。
举个例子我们假设错误率为0.01,则此时m应大概是n的13倍。
这样k大概是8个。
注意这里m与n的单位不同,m是bit为单位,而n则是以元素个数为单位(准确的说是不同元素的个数)。
通常单个元素的长度都是有很多bit的。
所以使用bloomfilter内存上通常都是节省的。
扩展:
Bloomfilter将集合中的元素映射到位数组中,用k(k为哈希函数个数)个映射位是否全1表示元素在不在这个集合中。
Countingbloomfilter(CBF)将位数组中的每一位扩展为一个counter,从而支持了元素的删除操作。
SpectralBloomFilter(SBF)将其与集合元素的出现次数关联。
SBF采用counter中的最小值来近似表示元素的出现频率。
问题实例:
给你A,B两个文件,各存放50亿条URL,每条URL占用64字节,内存限制是4G,让你找出A,B文件共同的URL。
如果是三个乃至n个文件呢?
根据这个问题我们来计算下内存的占用,4G=2^32大概是40亿*8大概是340亿,n=50亿,如果按出错率0.01算需要的大概是650亿个bit。
现在可用的是340亿,相差并不多,这样可能会使出错率上升些。
另外如果这些urlip是一一对应的,就可以转换成ip,则大大简单了。
2.Hashing
适用范围:
快速查找,删除的基本数据结构,通常需要总数据量可以放入内存
基本原理及要点:
hash函数选择,针对字符串,整数,排列,具体相应的hash方法。
碰撞处理,一种是openhashing,也称为拉链法;另一种就是closedhashing,也称开地址法,openedaddressing。
扩展:
d-lefthashing中的d是多个的意思,我们先简化这个问题,看一看2-lefthashing。
2-lefthashing指的是将一个哈希表分成长度相等的两半,分别叫做T1和T2,给T1和T2分别配备一个哈希函数,h1和h2。
在存储一个新的key时,同时用两个哈希函数进行计算,得出两个地址h1[key]和h2[key]。
这时需要检查T1中的h1[key]位置和T2中的h2[key]位置,哪一个位置已经存储的(有碰撞的)key比较多,然后将新key存储在负载少的位置。
如果两边一样多,比如两个位置都为空或者都存储了一个key,就把新key存储在左边的T1子表中,2-left也由此而来。
在查找一个key时,必须进行两次hash,同时查找两个位置。
问题实例:
1).海量日志数据,提取出某日访问XX次数最多的那个IP。
IP的数目还是有限的,最多2^32个,所以可以考虑使用hash将ip直接存入内存,然后进行统计。
3.bit-map
适用范围:
可进行数据的快速查找,判重,删除,一般来说数据范围是int的10倍以下
基本原理及要点:
使用bit数组来表示某些元素是否存在,比如8位电话号码
扩展:
bloomfilter可以看做是对bit-map的扩展
问题实例:
1)已知某个文件内包含一些电话号码,每个号码为8位数字,统计不同号码的个数。
8位最多99999999,大概需要99m个bit,大概10几m字节的内存即可。
2)2.5亿个整数中找出不重复的整数的个数,内存空间不足以容纳这2.5亿个整数。
将bit-map扩展一下,用2bit表示一个数即可,0表示未出现,1表示出现一次,2表示出现2次及以上。
或者我们不用2bit来进行表示,我们用两个bit-map即可模拟实现这个2bit-map。
4.堆
适用范围:
海量数据前n大,并且n比较小,堆可以放入内存
基本原理及要点:
最大堆求前n小,最小堆求前n大。
方法,比如求前n小,我们比较当前元素与最大堆里的最大元素,如果它小于最大元素,则应该替换那个最大元素。
这样最后得到的n个元素就是最小的n个。
适合大数据量,求前n小,n的大小比较小的情况,这样可以扫描一遍即可得到所有的前n元素,效率很高。
扩展:
双堆,一个最大堆与一个最小堆结合,可以用来维护中位数。
问题实例:
1)100w个数中找最大的前100个数。
用一个100个元素大小的最小堆即可。
5.双层桶划分 ----其实本质上就是【分而治之】的思想,重在“分”的技巧上!
适用范围:
第k大,中位数,不重复或重复的数字
基本原理及要点:
因为元素范围很大,不能利用直接寻址表,所以通过多次划分,逐步确定范围,然后最后在一个可以接受的范围内进行。
可以通过多次缩小,双层只是一个例子。
扩展:
问题实例:
1).2.5亿个整数中找出不重复的整数的个数,内存空间不足以容纳这2.5亿个整数。
有点像鸽巢原理,整数个数为2^32,也就是,我们可以将这2^32个数,划分为2^8个区域(比如用单个文件代表一个区域),然后将数据分离到不同的区域,然后不同的区域在利用bitmap就可以直接解决了。
也就是说只要有足够的磁盘空间,就可以很方便的解决。
2).5亿个int找它们的中位数。
这个例子比上面那个更明显。
首先我们将int划分为2^16个区域,然后读取数据统计落到各个区域里的数的个数,之后我们根据统计结果就可以判断中位数落到那个区域,同时知道这个区域中的第几大数刚好是中位数。
然后第二次扫描我们只统计落在这个区域中的那些数就可以了。
实际上,如果不是int是int64,我们可以经过3次这样的划分即可降低到可以接受的程度。
即可以先将int64分成2^24个区域,然后确定区域的第几大数,在将该区域分成2^20个子区域,然后确定是子区域的第几大数,然后子区域里的数的个数只有2^20,就可以直接利用directaddrtable进行统计了。
6.数据库索引
适用范围:
大数据量的增删改查
基本原理及要点:
利用数据的设计实现方法,对海量数据的增删改查进行处理。
扩展:
问题实例:
7.倒排索引(Invertedindex)
适用范围:
搜索引擎,关键字查询
基本原理及要点:
为何叫倒排索引?
一种索引方法,被用来存储在全文搜索下某个单词在一个文档或者一组文档中的存储位置的映射。
以英文为例,下面是要被索引的文本:
T0="itiswhatitis"
T1="whatisit"
T2="itisabanana"
我们就能得到下面的反向文件索引:
"a":
{2}
"banana":
{2}
"is":
{0,1,2}
"it":
{0,1,2}
"what":
{0,1}
检索的条件"what","is"和"it"将对应集合的交集。
正向索引开发出来用来存储每个文档的单词的列表。
正向索引的查询往往满足每个文档有序频繁的全文查询和每个单词在校验文档中的验证这样的查询。
在正向索引中,文档占据了中心的位置,每个文档指向了一个它所包含的索引项的序列。
也就是说文档指向了它包含的那些单词,而反向索引则是单词指向了包含它的文档,很容易看到这个反向的关系。
扩展:
问题实例:
文档检索系统,查询那些文件包含了某单词,比如常见的学术论文的关键字搜索。
8.外排序
适用范围:
大数据的排序,去重
基本原理及要点:
外排序的归并方法,置换选择败者树原理,最优归并树
扩展:
问题实例:
1).有一个1G大小的一个文件,里面每一行是一个词,词的大小不超过16个字节,内存限制大小是1M。
返回频数最高的100个词。
这个数据具有很明显的特点,词的大小为16个字节,但是内存只有1m做hash有些不够,所以可以用来排序。
内存可以当输入缓冲区使用。
9.trie树
适用范围:
数据量大,重复多,但是数据种类小可以放入内存
基本原理及要点:
实现方式,节点孩子的表示方式
扩展:
压缩实现。
问题实例:
1).有10个文件,每个文件1G,每个文件的每一行都存放的是用户的query,每个文件的query都可能重复。
要你按照query的频度排序。
2).1000万字符串,其中有些是相同的(重复),需要把重复的全部去掉,保留没有重复的字符串。
请问怎么设计和实现?
3).寻找热门查询:
查询串的重复度比较高,虽然总数是1千万,但如果除去重复后,不超过3百万个,每个不超过255字节。
10.分布式处理mapreduce
适用范围:
数据量大,但是数据种类小可以放入内存
基本原理及要点:
将数据交给不同的机器去处理,数据划分,结果归约。
1.Bloom-Filter算法简介
Bloom-Filter,即布隆过滤器,1970年由Bloom中提出。
它可以用于检索一个元素是否在一个集合中。
BloomFilter(BF)是一种空间效率很高的随机数据结构,它利用位数组很简洁地表示一个集合,并能判断一个元素是否属于这个集合。
它是一个判断元素是否存在集合的快速的概率算法。
BloomFilter有可能会出现错误判断,但不会漏掉判断。
也就是BloomFilter判断元素不再集合,那肯定不在。
如果判断元素存在集合中,有一定的概率判断错误。
因此,BloomFilter不适合那些“零错误”的应用场合。
而在能容忍低错误率的应用场合下,BloomFilter比其他常见的算法(如hash,折半查找)极大节省了空间。
它的优点是空间效率和查询时间都远远超过一般的算法,缺点是有一定的误识别率和删除困难。
BloomFilter的详细介绍:
BloomFilter
2、Bloom-Filter的基本思想
Bloom-Filter算法的核心思想就是利用多个不同的Hash函数来解决“冲突”。
计算某元素x是否在一个集合中,首先能想到的方法就是将所有的已知元素保存起来构成一个集合R,然后用元素x跟这些R中的元素一一比较来判断是否存在于集合R中;我们可以采用链表等数据结构来实现。
但是,随着集合R中元素的增加,其占用的内存将越来越大。
试想,如果有几千万个不同网页需要下载,所需的内存将足以占用掉整个进程的内存地址空间。
即使用MD5,UUID这些方法将URL转成固定的短小的字符串,内存占用也是相当巨大的。
于是,我们会想到用Hashtable的数据结构,运用一个足够好的Hash函数将一个URL映射到二进制位数组(位图数组)中的某一位。
如果该位已经被置为1,那么表示该URL已经存在。
Hash存在一个冲突(碰撞)的问题,用同一个Hash得到的两个URL的值有可能相同。
为了减少冲突,我们可以多引入几个Hash,如果通过其中的一个Hash值我们得出某元素不在集合中,那么该元素肯定不在集合中。
只有在所有的Hash函数告诉我们该元素在集合中时,才能确定该元素存在于集合中。
这便是Bloom-Filter的基本思想。
原理要点:
一是位数组,而是k个独立hash函数。
1)位数组:
假设BloomFilter使用一个m比特的数组来保存信息,初始状态时,BloomFilter是一个包含m位的位数组,每一位都置为0,即BF整个数组的元素都设置为0。
2)添加元素,k个独立hash函数
为了表达S={x1,x2,…,xn}这样一个n个元素的集合,BloomFilter使用k个相互独立的哈希函数(HashFunction),它们分别将集合中的每个元素映射到{1,…,m}的范围中。
当我们往BloomFilter中增加任意一个元素x时候,我们使用k个哈希函数得到k个哈希值,然后将数组中对应的比特位设置为1。
即第i个哈希函数映射的位置hashi(x)就会被置为1(1≤i≤k)。
注意,如果一个位置多次被置为1,那么只有第一次会起作用,后面几次将没有任何效果。
在下图中,k=3,且有两个哈希函数选中同一个位置(从左边数第五位,即第二个“1“处)。
3)判断元素是否存在集合
在判断y是否属于这个集合时,我们只需要对y使用k个哈希函数得到k个哈希值,如果所有hashi(y)的位置都是1(1≤i≤k),即k个位置都被设置为1了,那么我们就认为y是集合中的元素,否则就认为y不是集合中的元素。
下图中y1就不是集合中的元素(因为y1有一处指向了“0”位)。
y2或者属于这个集合,或者刚好是一个falsepositive。
显然这个判断并不保证查找的结果是100%正确的。
BloomFilter的缺点:
1)BloomFilter无法从BloomFilter集合中删除一个元素。
因为该元素对应的位会牵动到其他的元素。
所以一个简单的改进就是countingBloomfilter,用一个counter数组代替位数组,就可以支持删除了。
此外,BloomFilter的hash函数选择会影响算法的效果。
2)还有一个比较重要的问题,如何根据输入元素个数n,确定位数组m的大小及hash函数个数,即hash函数选择会影响算法的效果。
当hash函数个数k=(ln2)*(m/n)时错误率最小。
在错误率不大于E的情况下,m至少要等于n*lg(1/E) 才能表示任意n个元素的集合。
但m还应该更大些,因为还要保证bit数组里至少一半为0,则m应该>=nlg(1/E)*lge,大概就是nlg(1/E)1.44倍(lg表示以2为底的对数)。
举个例子我们假设错误率为0.01,则此时m应大概是n的13倍。
这样k大概是8个。
注意:
这里m与n的单位不同,m是bit为单位,而n则是以元素个数为单位(准确的说是不同元素的个数)。
通常单个元素的长度都是有很多bit的。
所以使用bloomfilter内存上通常都是节省的。
一般BF可以与一些key-value的数据库一起使用,来加快查询。
由于BF所用的空间非常小,所有BF可以常驻内存。
这样子的话,对于大部分不存在的元素,我们只需要访问内存中的BF就可以判断出来了,只有一小部分,我们需要访问在硬盘上的key-value数据库。
从而大大地提高了效率。
一个BloomFilter有以下参数:
m
bit数组的宽度(bit数)
n
加入其中的key的数量
k
使用的hash函数的个数
f
FalsePositive的比率
BloomFilter的f满足下列公式:
在给定m和n时,能够使f最小化的k值为:
此时给出的f为:
根据以上公式,对于任意给定的f,我们有:
n=mln(0.6185)/ln(f) [1]
同时,我们需要k个hash来达成这个目标:
k=-ln(f)/ln
(2) [2]
由于k必须取整数,我们在BloomFilter的程序实现中,还应该使用上面的公式来求得实际的f:
f=(1–e-kn/m)k [3]
以上3个公式是程序实现BloomFilter的关键公式。
3、扩展 CounterBloomFilter
CounterBloomFilter
BloomFilter有个缺点,就是不支持删除操作,因为它不知道某一个位从属于哪些向量。
那我们可以给BloomFilter加上计数器,添加时增加计数器,删除时减少计数器。
但这样的Filter需要考虑附加的计数器大小,假如同个元素多次插入的话,计数器位数较少的情况下,就会出现溢出问题。
如果对计数器设置上限值的话,会导致CacheMiss,但对某些应用来说,这并不是什么问题,如WebSharing。
CompressedBloomFilter
为了能在服务器之间更快地通过网络传输BloomFilter,我们有方法能在已完成BloomFilter之后,得到一些实际参数的情况下进行压缩。
将元素全部添加入BloomFilter后,我们能得到真实的空间使用率,用这个值代入公式计算出一个比m小的值,重新构造BloomFilter,对原先的哈希值进行求余处理,在误判率不变的情况下,使得其内存大小更合适。
4、 Bloom-Filter的应用
Bloom-Filter一般用于在大数据量的集合中判定某元素是否存在。
例如邮件服务器中的垃圾邮件过滤器。
在搜索引擎领域,Bloom-Filter最常用于网络蜘蛛(Spider)的URL过滤,网络蜘蛛通常有一个URL列表,保存着将要下载和已经下载的网页的URL,网络蜘蛛下载了一个网页,从网页中提取到新的URL后,需要判断该URL是否已经存在于列表中。
此时,Bloom-Filter算法是最好的选择。
1.key-value加快查询
一般Bloom-Filter可以与一些key-value的数据库一起使用,来加快查询。
一般key-value存储系统的values存在硬盘,查询就是件费时的事。
将Storage的数据都插入Filter,在Filter中查询都不存在时,那就不需要去Storage查询了。
当FalsePosition出现时,只是会导致一次多余的Storage查询。
由于Bloom-Filter所用的空间非常小,所有BF可以常驻内存。
这样子的话,对于大部分不存在的元素,我们只需要访问内存中的Bloom-Filter就可以判断出来了,只有一小部分,我们需要访问在硬盘上的key-value数据库。
从而大大地提高了效率。
如图:
2.Google的BigTable
Google的BigTable也使用了BloomFilter,以减少不存在的行或列在磁盘上的查询,大大提高了数据库的查询操作的性能。
3. Proxy-Cache
在InternetCacheProtocol中的Proxy-Cache很多都是使用BloomFilter存储URLs,除了高效的查询外,还能很方便得传输交换Cache信息。
4.网络应用
1)P2P网络中查找资源操作,可以对每条网络通路保存BloomFilter,当命中时,则选择该通路访问。
2)广播消息时,可以检测某个IP是否已发包。
3)检测广播消息包的环路,将BloomFilter保存在包里,每个节点将自己添加入BloomFilter。
4)信息队列管理,使用CounterBloomFilter管理信息流量。
5.垃圾邮件地址过滤
像网易,QQ这样的公众电子邮件(email)提供商,总是需要过滤来自发送垃圾邮件的人(spamer)的垃圾邮件。
一个办法就是记录下那些发垃圾邮件的 email地址。
由于那些发送者不停地在注册新的地址,全世界少说也有几十亿个发垃圾邮件的地址,将他们都存起来则需要大量的网络服务器。
如果用哈希表,每存储一亿个 email地址,就需要 1.6GB的内存(用哈希表实现的具体办法是将每一个 email地址对应成一个八字节的信息指纹,然后将这些信息指纹存入哈希表,由于哈希表的存储效率一般只有 50%,因此一个 email地址需要占用十六个字节。
一亿个地址大约要 1.6GB,即十六亿字节的内存)。
因此存贮几十亿个邮件地址可能需要上百 GB的内存。
而BloomFilter只需要哈希表 1/8到 1/4 的大小就能解决同样的问题。
BloomFilter决不会漏掉任何一个在黑名单中的可疑地址。
而至于误判问题,常见的补救办法是在建立一个小的白名单,存储那些可能别误判的邮件地址。
5、 Bloom-Filter的具体实现
c语言实现:
stdafx.h:
1.#pragma once
2.#include
3.#include "stdlib.h"
4.#include
5.#include
6.using namespace std;
1.#include "stdafx.h"
2.
3.
4.#define ARRAY_SIZE 256 /*we get the 256 chars of each line*/
5.#define SIZE /* size should be 1/8 of max*/
6.#define MAX /*the max bit space*/
7.
8.#define SETBIT(ch,n) ch[n/8]|=1<<(7-n%8)
9.#define GETBIT(ch,n) (ch[n/8]&1<<(7-n%8))>>(7-n%8)
10.
11.unsigned int len(char *ch);/* functions to calculate the length of the url*/
12.
13.unsigned int RSHash(char* str, unsigned int len);/* functions to calculate the hash value of the url*/
14.unsigned int JSHash(char* str, unsigned int len);/* functions
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 数据 常见 处理 方法 总结