精品网络爬虫的设计与实现毕业论文.docx
- 文档编号:16638977
- 上传时间:2023-07-15
- 格式:DOCX
- 页数:47
- 大小:58.98KB
精品网络爬虫的设计与实现毕业论文.docx
《精品网络爬虫的设计与实现毕业论文.docx》由会员分享,可在线阅读,更多相关《精品网络爬虫的设计与实现毕业论文.docx(47页珍藏版)》请在冰点文库上搜索。
精品网络爬虫的设计与实现毕业论文
摘要
网络爬虫是一种自动搜集互联网信息的程序。
通过网络爬虫不仅能够为搜索引擎采集网络信息,而且可以作为定向信息采集器,定向采集某些网站下的特定信息,如招聘信息,租房信息等。
本文通过JAVA实现了一个基于广度优先算法的多线程爬虫程序。
本论文阐述了网络爬虫实现中一些主要问题:
为何使用广度优先的爬行策略,以及如何实现广度优先爬行;为何要使用多线程,以及如何实现多线程;系统实现过程中的数据存储;网页信息解析等。
通过实现这一爬虫程序,可以搜集某一站点的URLs,并将搜集到的URLs存入数据库。
【关键字】网络爬虫;JAVA;广度优先;多线程。
ABSTRACT
SPIDERisaprogramwhichcanautocollectinformationsfrominternet.SPIDERcancollectdataforsearchengines,alsocanbeaDirectionalinformationcollector,collectsspecificallyinformationsfromsomewebsites,suchasHRinformations,thispaper,useJAVAimplementsabreadth-firstalgorithmmulti-threadSPDIER.ThispaperexpatiatessomemajorproblemsofSPIDER:
whytousebreadth-firstcrawlingstrategy,andcollectURLsfromonewebsite,andstoreURLsintodatabase.
【KEYWORD】SPIDER;JAVA;BreadthFirstSearch;multi-threads.
第一章引言1
第二章相关技术介绍2
2.1JAVA线程2
2.1.1线程概述2
2.1.2JAVA线程模型2
2.1.3创建线程3
2.1.4JAVA中的线程的生命周期4
2.1.5JAVA线程的结束方式4
2.1.6多线程同步5
2.2URL消重5
2.2.1URL消重的意义5
2.2.2网络爬虫URL去重储存库设计5
2.2.3LRU算法实现URL消重7
2.3URL类访问网络8
2.4 爬行策略浅析8
2.4.1宽度或深度优先搜索策略8
2.4.2聚焦搜索策略9
2.4.3基于内容评价的搜索策略9
2.4.4基于链接结构评价的搜索策略10
2.4.5基于巩固学习的聚焦搜索11
2.4.6基于语境图的聚焦搜索11
第三章系统需求分析及模块设计13
3.1系统需求分析13
3.2SPIDER体系结构13
3.3各主要功能模块(类)设计14
3.4SPIDER工作过程14
第四章系统分析与设计16
4.1SPIDER构造分析16
4.2爬行策略分析17
4.3URL抽取,解析和保存18
4.3.1URL抽取18
4.3.2URL解析19
4.3.3URL保存19
第五章系统实现21
5.1实现工具21
5.2爬虫工作21
5.3URL解析22
5.4URL队列管理24
5.4.1URL消重处理24
5.4.2URL等待队列维护26
5.4.3数据库设计27
第六章系统测试29
第七章结论32
参考文献33
致谢34
外文资料原文35
译文51
第一章引言
随着互联网的飞速发展,网络上的信息呈爆炸式增长。
这使得人们在网上找到所需的信息越来越困难,这种情况下搜索引擎应运而生。
搜索引擎搜集互联网上数以亿计的网页,并为每个词建立索引。
在建立搜索引擎的过程中,搜集网页是非常重要的一个环节。
爬虫程序就是用来搜集网页的程序。
以何种策略偏历互联网上的网页,也成了爬虫程序主要的研究方向。
现在比较流行的搜索引擎,比如google,XX,它们爬虫程序的技术内幕一般都不公开。
目前几种比较常用的爬虫实现策略:
广度优先的爬虫程序,Repetitive爬虫程序,定义爬行爬虫程序,深层次爬行爬虫程序。
此外,还有根据概率论进行可用Web页的数量估算,用于评估互联网Web规模的抽样爬虫程序;采用爬行深度、页面导入链接量分析等方法,限制从程序下载不相关的Web页的选择性爬行程序等等。
爬虫程序是一个自动获取网页的程序。
它为搜索引擎从互联网上下载网页,是搜索引擎的重要组成部分。
爬虫程序的实现策略,运行效率直接影响搜索引擎的搜索结果。
不同的搜索引擎,会根据对搜索结果的不同需求,选择最合适的爬行策略来搜集互联网上的信息。
高效,优秀的爬虫程序可以使人们在互联网上寻找到更及时,更准确的信息。
实现网络爬虫的重点和难点有:
多线程的实现;对临界资源的分配;遍历web图的遍历策略选择和实现;存储数据结构的选择和实现。
本文通过JAVA语言实现一个基于广度优先偏历算法的多线程爬虫程序。
通过实现此爬虫程序可以定点搜集某一站点的URLs,如果需要搜集其他信息,可以在解析URLs的同时,解析获取相应信息。
第二章相关技术介绍
2.1JAVA线程
2.1.1线程概述
几乎每种操作系统都支持线程的概念—进程就是在某种程度上相互隔离的,独立运行的程序。
一般来说,这些操作系统都支持多进程操作。
所谓多进程,就是让系统(好像)同时运行多个程序。
比如,我在MicrosoftWord编写本论文的时候,我还打开了一个mp3播放器来播放音乐,偶尔的,我还会再编辑Word的同时让我的机器执行一个打印任务,而且我还喜欢通过IE从网上下载一个Flash动画。
对于我来说,这些操作都是同步进行的,我不需要等一首歌曲放完了再来编辑我的论文。
看起来,它们都同时在我的机器上给我工作。
事实的真相是,对于一个CPU而言,它在某一个时间点上,只能执行一个程序。
CPU不断的在这些程序之间“跳跃”执行。
那么,为什么我们看不出任何的中断现象呢?
这是因为,相对于我们的感觉,它的速度实在太快了。
我们人的感知时间可能以秒来计算。
而对于CPU而言,它的时间是以毫秒来计算的,从我们肉眼看来,它们就是一个连续的动作。
因此,虽然我们看到的都是一些同步的操作,但实际上,对于计算机而言,它在某个时间点上只能执行一个程序,除非你的计算机是多CPU的。
多线程(Multi-Thread)扩展了多进程(multi-Process)操作的概念,将任务的划分下降到了程序级别,使得各个程序似乎可以在同一个时间内执行多个任务。
每个任务称为一个线程,能够同时运行多个线程的程序称为多线程程序。
多线程和多进程有什么区别呢?
对于进程来说,每个进程都有自己的一组完整的变量,而线程则共享相同的数据。
2.1.2JAVA线程模型
我们知道,计算机程序得以执行的三个要素是:
CPU,程序代码,可存取的数据。
在JAVA语言中,多线程的机制是通过虚拟CPU来实现的。
可以形象的理解为,在一个JAVA程序内部虚拟了多台计算机,每台计算机对应一个线程,有自己的CPU,可以获取所需的代码和数据,因此能独立执行任务,相互间还可以共用代码和数据。
JAVA的线程是通过java.lang.Thread类来实现的,它内部实现了虚拟CPU的功能,能够接收和处理传递给它的代码和数据,并提供了独立的运行控制功能。
我们知道,每个JAVA应用程序都至少有一个线程,这就是所谓的主线程。
它由JVM创建并调用JAVA应用程序的main()方法。
JVM还通常会创建一些其他的线程,不过,这些线程对我们而言通常都是不可见的。
比如,用于自动垃圾收集的线程,对象终止或者其他的JVM处理任务相关的线程。
2.1.3创建线程
2.1.3.1创建线程方式一
在JAVA中创建线程的一种方式是通过Thread来实现的。
Thread有很多个构造器来创建一个线程(Thread)实例:
Thread();创建一个线程。
Thread(Runnabletarget);创建一个线程,并指定一个目标。
Thread(Runnabletarget,Stringname);创建一个名为name的目标为target的线程。
Thread(Stringname);创建一个名为name的线程。
Thread(ThreadGroupgroup,Runnabletarget);创建一个隶属于group线程组,目标为target的线程。
通常,我们可以将一个类继承Thread,然后,覆盖Thread中的run()方法,这样让这个类本身也就成了线程。
每个线程都是通过某个特定Thread对象所对应的方法run()来完成其操作的,方法run()称为线程体。
使用start()方法,线程进入Runnable状态,它将线程调度器注册这个线程。
调用start()方法并不一定马上会执行这个线程,正如上面所说,它只是进入Runnble而不是Running。
2.1.3.2创建线程方式二
通过实现Runnable接口并实现接口中定义的唯一方法run(),可以创建一个线程。
在使用Runnable接口时,不能直接创建所需类的对象并运行它,而是必须从Thread类的一个实例内部运行它。
从上面两种创建线程的方法可以看出,如果继承Thread类,则这个类本身可以调用start方法,也就是说将这个继承了Thread的类当作目标对象;而如果实现Runnable接口,则这个类必须被当作其他线程的目标对象。
2.1.4JAVA中的线程的生命周期
JAVA的线程从产生到消失,可分为5种状态:
新建(New),可运行(Runnable),运行(Running),阻塞(Blocked)以及死亡(Dead)。
其中,Running状态并非属于JAVA规范中定义的线程状态,也就是说,在JAVA规范中,并没有将运行(Running)状态真正的设置为一个状态,它属于可运行状态的一种。
当使用new来新建一个线程时,它处于New状态,这个时候,线程并未进行任何操作。
然后,调用线程的start()方法,来向线程调度程序(通常是JVM或操作系统)注册一个线程,这个时候,这个线程一切就绪,就等待CPU时间了。
线程调度程序根据调度策略来调度不同的线程,调用线程的run方法给已经注册的各个线程以执行的机会,被调度执行的线程进入运行(Running)状态。
当线程的run方法运行完毕,线程将被抛弃,进入死亡状态。
你不能调用restart方法来重新开始一个处于死亡状态的线程,但是,你可以调用处于死亡状态的线程对象的各个方法。
如果线程在运行(Running)状态中因为IO阻塞,等待键盘键入,调用了线程的sleep方法,调用了对象的wait()方法等,则线程将进入阻塞状态,直到这些阻塞原因被解除,如:
IO完成,键盘输入了数据,调用sleep方法后的睡眠时间到以及其他线程调用了对象的notify或notifyAll方法来唤醒这个因为等待而阻塞的线程等,线程将返回到Runnable状态重新等待调度程序调度,注意,被阻塞的线程不会直接返回到Running状态,而是重新回到Runnable状态等待线程调度程序的调用。
线程调度程序会根据调度情况,将正在运行中的线程设置为Runnable状态,例如,有一个比当前运行状态线程更高运行等级的线程进入Runnable状态,就可能将当前运行的线程从Running状态“踢出”,让它回到Runnable状态。
2.1.5JAVA线程的结束方式
线程会以以下三种方式之一结束:
线程到达其run()方法的末尾;
线程抛出一个未捕获到的Exception或Error;
另一个线程调用一个Deprecated的stop()方法。
注意,因为这个方法会引起线程的安全问题,已经被不推荐使用了,所以,不要再程序调用这个方法。
2.1.6多线程同步
当同时运行的相互独立的线程需要共享数据并且需要考虑其他线程的状态时,就需要使用一套机制使得这些线程同步,避免在争用资源时发生冲突,甚至发生死锁。
JAVA提供了多种机制以实现线程同步。
多数JAVA同步是以对象锁定为中心的。
JAVA中从Object对象继承来的每个对象都有一个单独的锁。
由于JAVA中的每个对象都是从Object继承来的。
所以JAVA中的每个对象都有自己的锁。
这样使它在共享的线程之间可以相互协调。
在JAVA中实现线程同步的另一个方法是通过使用synchronized关键字。
JAVA使用synchronized关键字来定义程序中要求线程同步的部分。
synchronized关键字实现的基本操作是把每个需要线程同步的部分定义为一个临界区,在临界区中同一时刻只有一个线程被执行。
2.2URL消重
2.2.1URL消重的意义
在SPIDER系统实际运行的过程中,每秒下载的10个页面中,分析的URL大多数是重复的,实际上新的URL才几个。
在持续下载的过程中,新的URL非常少,还是以新浪网举例,1天24小时中总共出现的新URL也就是10000左右。
这种情况非常类似于操作系统中虚拟储存器管理。
所谓的虚拟储存器,是指具有请求调入和置换功能,能从逻辑上对内存容量加以扩充的一种储存器系统。
其关键在于允许一个作业只装入部分的页或段就可以启动运行,当作业运行的时候在内存中找不到所需要的页或段的时候,就会发生请求调入,而从外存中找到的页或段将会置换内存中暂时不运行的页面到外存。
URL消重工作量是非常巨大的。
以下在新浪新闻页面为例,新浪一个新闻页面大小为50~60k,每个页面有90~100个URL,如果每秒下载10个页面,就会产生900~1000次的URL排重操作,每次排重操作都要在几百万至几千万的URL库中去查询。
这种操作对数据库系统是一个灾难,理论上任何需要产生磁盘IO动作的存储系统都无法满足这种查询的需求。
2.2.2网络爬虫URL去重储存库设计
在爬虫启动工作的过程中,我们不希望同一个网页被多次下载,因为重复下载不仅会浪费CPU机时,还会为搜索引擎系统增加负荷。
而想要控制这种重复性下载问题,就要考虑下载所依据的超链接,只要能够控制待下载的URL不重复,基本可以解决同一个网页重复下载的问题。
非常容易想到,在搜索引擎系统中建立一个全局的专门用来检测,是否某一个URL对应的网页文件曾经被下载过的URL存储库,这就是方案。
接着要考虑的就是如何能够更加高效地让爬虫工作,确切地说,让去重工作更加高效。
如果实现去重,一定是建立一个URL存储库,并且已经下载完成的URL在进行检测时候,要加载到内存中,在内存中进行检测一定会比直接从磁盘上读取速度快很多。
我们先从最简单的情况说起,然后逐步优化,最终得到一个非常不错的解决方案。
2.2.2.1基于磁盘的顺序存储
这里,就是指把每个已经下载过的URL进行顺序存储。
你可以把全部已经下载完成的URL存放到磁盘记事本文件中。
每次有一个爬虫线程得到一个任务URL开始下载之前,通过到磁盘上的该文件中检索,如果没有出现过,则将这个新的URL写入记事本的最后一行,否则就放弃该URL的下载。
这种方式几乎没有人考虑使用了,但是这种检查的思想是非常直观的。
试想,如果已经下载了100亿网页,那么对应着100亿个链接,也就是这个检查URL是否重复的记事本文件就要存储这100亿URL,况且,很多URL字符串的长度也不小,占用存储空间不说,查找效率超级低下,这种方案肯定放弃。
2.2.2.2基于Hash算法的存储
对每一个给定的URL,都是用一个已经建立好的Hash函数,映射到某个物理地址上。
当需要进行检测URL是否重复的时候,只需要将这个URL进行Hash映射,如果得到的地址已经存在,说明已经被下载过,放弃下载,否则,将该URL及其Hash地址作为键值对存放到Hash表中。
这样,URL去重存储库就是要维护一个Hash表,如果Hash函数设计的不好,在进行映射的时候,发生碰撞的几率很大,则再进行碰撞的处理也非常复杂。
而且,这里使用的是URL作为键,URL字符串也占用了很大的存储空间。
2.2.2.3基于MD5压缩映射的存储
MD5算法是一种加密算法,同时它也是基于Hash的算法。
这样就可以对URL字符串进行压缩,得到一个压缩字符串,同时可以直接得到一个Hash地址。
另外,MD5算法能够将任何字符串压缩为128位整数,并映射为物理地址,而且MD5进行Hash映射碰撞的几率非常小,这点非常好。
从另一个方面来说,非常少的碰撞,对于搜索引擎的爬虫是可以容忍的。
况且,在爬虫进行检测的过程中,可以通过记录日志来保存在进行MD5时发生碰撞的URL,通过单独对该URL进行处理也是可行的。
在Java中有一个Map类非常好,你可以将压缩后的URL串作为Key,而将Boolean作为Value进行存储,然后将工作中的Map在爬虫停止工作后序列化到本地磁盘上;当下一次启动新的爬虫任务的时候,再将这个Map反序列化到内存中,供爬虫进行URL去重检测。
2.2.2.4基于嵌入式BerkeleyDB的存储
BerkeleyDB的特点就是只存储键值对类型数据,这和URL去重有很大关系。
去重,可以考虑对某个键,存在一个值,这个值就是那个键的状态。
使用了BerkeleyDB,你就不需要考虑进行磁盘IO操作的性能损失了,这个数据库在设计的时候很好地考虑了这些问题,并且该数据库支持高并发,支持记录的顺序存储和随机存储,是一个不错的选择。
URL去重存储库使用BerkeleyDB,压缩后的URL字符串作为Key,或者直接使用压缩后的URL字节数组作为Key,对于Value可以使用Boolean,一个字节,或者使用字节数组,实际Value只是一个状态标识,减少Value存储占用存储空间。
2.2.2.5基于布隆过滤器(BloomFilter)的存储
使用布隆过滤器,设计多个Hash函数,也就是对每个字符串进行映射是经过多个Hash函数进行映射,映射到一个二进制向量上,这种方式充分利用了比特位。
不过,我没有用过这种方式,有机会可以尝试一下。
可以参考Google的);
如果传递无效的URL给URL对象,该对象会抛出MalformedURLException异常。
当成功创建一个URL对象后,我们调用openConnection函数建立与URL的通信,此时,我们就获得了一个URLConnection对象的引用,URLConnection类包含了许多与网络上的URL通信的函数。
在下载网页前,我们需要判断目标网页是否存在,这时调用URLConnection类的getHeaderField()方法,获得服务器返回给SPIDER程序的响应码,如果响应码包含”20*”字样,表示目标网页存在,下一步就下载网页,否则就不下载。
getHeaderField()方法仅仅获得服务器返回的头标志,其通信开销是最小的,因此在下载网页前进行此测试,不仅能减小网络流量,而且能提高程序效率。
当目标网页存在时2调用URLConnection类getInputStream()函数明确打开到URL的连接,获取输入流,再用java.io包中的InputStreamReader类读取该输入流,将网页下载下来。
2.4 爬行策略浅析
2.4.1宽度或深度优先搜索策略
搜索引擎所用的第一代网络爬虫主要是基于传统的图算法,如宽度优先或深度优先算法来索引整个Web,一个核心的URL集被用来作为一个种子集合,这种算法递归的跟踪超链接到其它页面,而通常不管页面的内容,因为最终的目标是这种跟踪能覆盖整个Web.这种策略通常用在通用搜索引擎中,因为通用搜索引擎获得的网页越多越好,没有特定的要求.
2.4.1.1 宽度优先搜索算法
宽度优先搜索算法(又称广度优先搜索)是最简便的图的搜索算法之一,这一算法也是很多重要的图的算法的原型.Dijkstra单源最短路径算法和Prim最小生成树算法都采用了和宽度优先搜索类似的思想.宽度优先搜索算法是沿着树的宽度遍历树的节点,如果发现目标,则算法中止.该算法的设计和实现相对简单,属于盲目搜索.在目前为覆盖尽可能多的网页,一般使用宽度优先搜索方法.也有很多研究将宽度优先搜索策略应用于聚焦爬虫中.其基本思想是认为与初始URL在一定链接距离内的网页具有主题相关性的概率很大.另外一种方法是将宽度优先搜索与网页过滤技术结合使用,先用广度优先策略抓取网页,再将其中无关的网页过滤掉.这些方法的缺点在于,随着抓取网页的增多,大量的无关网页将被下载并过滤,算法的效率将变低.
2.4.1.2 深度优先搜索
深度优先搜索所遵循的搜索策略是尽可能“深”地搜索图.在深度优先搜索中,对于最新发现的顶点,如果它还有以此为起点而未探测到的边,就沿此边继续汉下去.当结点v的所有边都己被探寻过,搜索将回溯到发现结点v有那条边的始结点.这一过程一直进行到已发现从源结点可达的所有结点为止.如果还存在未被发现的结点,则选择其中一个作为源结点并重复以上过程,整个进程反复进行直到所有结点都被发现为止.深度优先在很多情况下会导致爬虫的陷入(trapped)问题,所以它既不是完备的,也不是最优的.
2.4.2聚焦搜索策略
基于第一代网络爬虫的搜索引擎抓取的网页一般少于1000000个网页,极少重新搜集网页并去刷新索引.而且其检索速度非常慢,一般都要等待10s甚至更长的时间.随着网页页信息的指数级增长及动态变化,这些通用搜索引擎的局限性越来越大,随着科学技术的发展,定向抓取相关网页资源的聚焦爬虫便应运而生.聚焦爬虫的爬行策略只挑出某一个特定主题的页面,根据“最好优先原则”进行访问,快速、有效地获得更多的与主题相关的页面,主要通过内容和Web的链接结构来指导进一步的页面抓取[2].
聚焦爬虫会给它所下载下来的页面分配一个评价分,然后根据得分排序,最后插入到一个队列中.最好的下一个搜索将通过对弹出队列中的第一个页面进行分析而执行,这种策略保证爬虫能优先跟踪那些最有可能链接到目标页面的页面.决定网络爬虫搜索策略的关键是如何评价链接价值,即链接价值的计算方法,不同的价值评价方法计算出的链接的价值不同,表现出的链接的“重要程度”也不同,从而决定了不同的搜索策略.由于链接包含于页面之中,而通常具有较高价值的页面包含的链接也具有较高的价值,因而对链接价值的评价有时也转换为对页面价值的评价.这种策略通常运用在专业搜索引擎中,因为这种搜索引擎只关心某一特定主题的页面.
2.4.3基于内容评价的搜索策略
基于内容评价的搜索策略[3,4],主要是根据主题(如关键词、主题相关文档)与链接文本的相似度来评价链接价值的高低,并以此决定其搜索策略:
链接文本是指链接周围的说明文字和链接URL上的文字信息,相似度的评价通常采用以下公式:
sim(di,dj)=Σmk=1wik×wjk(Σmk=1w2ik)(Σmk=1w2jk)
其中,di为新文本的特征向量,dj为第j类的中心向量,m为特征向量的维数,wk为向量的第K维.由于Web页面不同于传统的文本,它是一种半结构化的文档,包含许多结构信息Web页面不是单独存在的,页面中的链接指示了页面之间的相互关系,因而有些学者提出了基于
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 精品 网络 爬虫 设计 实现 毕业论文