山东建筑大学计算机网络课程设计报告基于Python网络爬虫设计.doc

上传人:夺命阿水 文档编号:76371 上传时间:2025-07-10 格式:DOC 页数:11 大小:79.50KB
下载 相关 举报
山东建筑大学计算机网络课程设计报告基于Python网络爬虫设计.doc_第1页
第1页 / 共11页
山东建筑大学计算机网络课程设计报告基于Python网络爬虫设计.doc_第2页
第2页 / 共11页
山东建筑大学计算机网络课程设计报告基于Python网络爬虫设计.doc_第3页
第3页 / 共11页
山东建筑大学计算机网络课程设计报告基于Python网络爬虫设计.doc_第4页
第4页 / 共11页
山东建筑大学计算机网络课程设计报告基于Python网络爬虫设计.doc_第5页
第5页 / 共11页
点击查看更多>>
资源描述

1、建筑大学课 程 设 计 成 果 报 告题 目: 基于Python的网络爬虫设计课 程: 计算机网络A院 部: 管理工程学院专 业: 信息管理与信息系统班 级:学生:学 号:指导教师:完成日期:. z-目 录1 设计目的12 设计任务容13 网络爬虫程序总体设计14 网络爬虫程序详细设计14.1 设计环境和目标分析14.1.1 设计环境14.1.2目标分析24.2 爬虫运行流程分析24.3控制模块详细设计34.3 爬虫模块详细设计34.3.1 URL管理器设计34.3.2 网页下载器设计34.3.3 网页解析器设计34.4数据输出器详细设计45 调试与测试45.1调试过程中遇到的问题45.2测

2、试数据及结果显示56 课程设计心得与体会57 参考文献68 附录1 网络爬虫程序设计代码69 附录2 网络爬虫爬取的数据文档9. z-1 设计目的本课程设计是信息管理与信息系统专业重要的实践性环节之一,是在学生学习完计算机网络课程后进展的一次全面的综合练习。本课程设计的目的和任务:1稳固和加深学生对计算机网络根本知识的理解和掌握;2培养学生进展对网络规划、管理及配置的能力或加深对网络协议体系构造的理解或提高网络编程能力;3提高学生进展技术总结和撰写说明书的能力。2 设计任务容网络爬虫是从web中发现,下载以及存储容,是搜索引擎的核心局部。传统爬虫从一个或假设干初始网页的URL开场,获得初始网页

3、上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停顿条件。参照开放源码分析网络爬虫实现方法,给出设计方案,画出设计流程图。选择自己熟悉的开发环境,实现网络爬虫抓取页面、从而形成构造化数据的根本功能,界面适当美化。给出软件测试结果。3 网络爬虫程序总体设计URL管理器数据输出器网页下载器网页解析器爬虫控制器在本爬虫程序中共有三个模块:1、 爬虫调度端:启动爬虫,停顿爬虫,监视爬虫的运行情况2、 爬虫模块:包含三个小模块,URL管理器、网页下载器、网页解析器。(1) URL管理器:对需要爬取的URL和已经爬取过的URL进展管理,可以从URL管理器中取出一个

4、待爬取的URL,传递给网页下载器。(2) 网页下载器:网页下载器将URL指定的网页下载下来,存储成一个字符串,传递给网页解析器。(3) 网页解析器:网页解析器解析传递的字符串,解析器不仅可以解析出需要爬取的数据,而且还可以解析出每一个网页指向其他网页的URL,这些URL被解析出来会补充进URL管理器3、数据输出模块:存储爬取的数据4 网络爬虫程序详细设计4.1 设计环境和目标分析4.1.1 设计环境IDE:pycharm4.1.2目标分析目标:从百度词条Python开场,以广度优先的方式,爬取相关联的假设干词条网页的标题和简介1初始URL:baike.baidu./item/Pythonsef

5、r=ps2词条页面URL格式:baike.baidu./item/%E8%87%AA%E7%94%B1%E8%BD%AF%E4%BB%B6(3) 数据格式:标题Python简介4页面编码:utf-84.2 爬虫运行流程分析爬虫程序的运行流程如下图。(1) 爬虫控制器从给定的URL开场,将给定的初始URL添加到URL管理器中,然后调用URL管理器的相关方法,判断是否有待爬取的URL(2) URL判断是否有待爬取的URL,如果有待爬取的URL,则返回给控制器,控制器将这个URL传递给网页下载器,下载该网页(3) 网页下载器将下载好的数据返回给控制器,控制器再将返回的数据传递给网页解析器解析(4)

6、网页解析器解析网页之后获取网页数据和网页的URL,再将这两个数据传递给控制器(5) 控制器得到解析出来的数据之后,将新的URL传递给URL管理器,将价值数据传递给数据输出器输出(6) 数据输出器以文本的形式输出传递进来的数据。(7) 回到第一步,循环4.3控制模块详细设计爬虫控制器主要负责调度各个模块,所以在设计的时候只需要一次调用其他模块的方法,给对应的模块传递数据即可。比拟简单,可参见附录1查看源码。4.3 爬虫模块详细设计4.3.1 URL管理器设计URL管理器主要管理待抓取的URL集合和已抓取的URL集合。URL管理器设计的难点在于:防止重复抓取,防止循环抓取。判断是否还有待爬取URL

7、添加新URL到待爬取集合中获取待爬取URLURL管理器将URL从待爬取集合移动端已爬取集合判断待添加URL是否在容器中常用的URL管理器存储方式有三种,一是使用python存即set集合来存储URL,二是使用数据库,例如MySQL,三是使用缓存数据库,例如redis。因为这只是个简单的python爬虫,所以我们选择利用存存储URL。建立两个集合,一个为待爬取集合,一个为已爬取集合,功能上图所示。4.3.2 网页下载器设计网页下载器是将互联网上URL对应的网页下载到本地的工具。Python常用的网页下载器有两种,一个是python自带的urllib2,一个是第三方包requests。这里我们选用

8、的是urllib2,比拟简单的网页下载工具,其中最简洁的下载网页的代码如下:import urllib2response = urllib2.urlopen(url)* 如果请求码不是200,则表示请求不成功。* 典型的错误包括404页面无法找到,403请求制止,401待验证的请求* 5* 回应代码以5开头的状态码表示效劳器端发现自己出现错误,不能继续执行请求if response.getcode() != 200: print download html failedcont= response.read()4.3.3 网页解析器设计网页解析器是从网页中提取有价值数据的工具。价值数据网页解析

9、器新URL列表HTML网页字符串Python常用的解析器有四种,一是正则表达式,二是html.parser,三是beautifulSoup,四是l*ml。这里我选用的是beautifulSoup作为我的网页解析器,相对于正则表达式来说,使用beautifulSoup来解析网页更为简单。beautifulSoup将网页转化为DOM树来解析,每一个节点是网页的每个标签,通过它提供的方法,你可以很容易的通过每个节点获取你想要的信息。使用方法如下:*创立BeautifulSoup对象soup = BeautifulSoup(html_cont, html.parser, from_encoding=u

10、tf-8)*查找所有标签为a的节点,且href匹配正则表达式links = soup.find_all(a, href=re.pile(r/item/%)*查找所欲标签为div的节点summary_node = soup.find(div, class_=lemma-summary)4.4数据输出器详细设计数据输出器是负责数据输出的工具。如果要输出的文件不存在,程序会自动创立,并且每次重写之前都会清空网页的容。这里我选择的输出方式是T*T文档,直接将数据分析器得到的数据存储在output.t*t文件中。5 调试与测试5.1调试过程中遇到的问题(1) 爬取第一个页面之后没有新的页面解决方案:根据

11、子网页,选择适宜的正则表达式1测试过程中*些网页中缺少标题或简介。解决方案:往集合中添加数据的时候,判断一下是否为空,不为空再添加。5.2测试数据及结果显示测试的结果以t*t文档形式显示,生成的文档路径和代码路径一致、6 课程设计心得与体会Python是一门面向对象的解释性语言脚本语言,这一类语言的特点就是不用编译,程序在运行的过程中,由对应的解释器向CPU进展翻译,个人理解就是一边编译一边执行。而Java这一类语言是需要预先编译的。没有编译最大的痛苦就是无法进展断点调试,唯一的方法就是在有疑问的地方打印各个变量的值来进展调试。这一类语言也没用类型,也就是说一个变量即可能是int型,但是也可能

12、是String型,而且可以随时变化。python对于代码格式要求也相当严格,通过对于缩进的距离来判断代码是否处于同一个代码块。Python也不依靠分号来决定一句代码是否完毕,一行代码就是一句代码。这样做的好处在于代码编写看上去很统一,不过习惯了java再看python,一开场还真的有点懵。总得来说,对Python的初涉感觉不错,这门语言相比拟Java更加的简洁,这次的课设是初步接触python,以后会自己深入学习。7 参考文献1钱程,阳小兰,朱福喜等.基于Python的网络爬虫技术J.科技信息,2021,(36):273.2戚利娜,建东.基于Python的简单网络爬虫的实现J.电脑编程技巧与维

13、护,2021,(8):72-73.3 ,Core Python Programming. 2001-9-118 附录1 网络爬虫程序设计代码spiderMain.py* coding:utf-8import loggingfrom webCraler import url_manager, html_downloader, html_outputer, html_parserclass SpiderMain(object): *初始化URL管理器,网页下载器,网页解析器和数据输出器 def _init_(self): self.urls = url_manager.UrlManager() s

14、elf.downloader = html_downloader.HtmlDownloader() self.parser = html_parser.HtmlParser() self.outputer = html_outputer.HtmlOutputer() *爬取网页 def craw(self, url): count = 1 *向URL管理器添加新的URL self.urls.add_new_url(url) while self.urls.has_new_url(): try: *如果有新的URL,获取这个新的URL new_url = self.urls.get_new_ur

15、l() *打印这是第几个爬取的URL print craw %d : %s % (count, new_url) *使用网页下载器下载这个网页的容 html_cont = self.downloader.download(new_url) *使用网页解析器解析这个网页的容,分别为URL和数据 new_urls, new_data = self.parser.parse(new_url, html_cont) *将解析器解析的 RL添加到URL管理器 self.urls.add_new_urls(new_urls) *将解析器解析的数据传递给数据输器 self.outputer.collect_

16、data(new_data) * 爬取10个数据后自动完毕 if count = 20: break count = count+1 e*cept E*ception as e: logging.e*ception(e) print craw failed *数据输出器将数据使用HTML的方式输出 self.outputer.output_html()if _name_ = _main_: print begin root_url = baike.baidu./item/Pythonsefr=ps obj_spider = SpiderMain() obj_spider.craw(root_u

17、rl)url_manager.py* coding:utf-8class UrlManager(object): def _init_(self): self.new_urls = set() self.old_urls = set() * 添加URL def add_new_url(self, url): if url is None: return if url not in self.new_urls and url not in self.old_urls: self.new_urls.add(url) def add_new_urls(self, urls): if urls is

18、None or len(urls) = 0: return for url in urls: self.add_new_url(url) def has_new_url(self): return len(self.new_urls) != 0 def get_new_url(self): new_url = self.new_urls.pop() self.old_urls.add(new_url) return new_urlhtml_downloader.py* coding:utf-8import urllib2class HtmlDownloader(object): def dow

19、nload(self, url): if url is None: return None response = urllib2.urlopen(url) * 如果请求码不是200,则表示请求不成功。 * 典型的错误包括404页面无法找到,403请求制止,401待验证的请求 * 5* 回应代码以5开头的状态码表示效劳器端发现自己出现错误,不能继续执行请求 if response.getcode() != 200: print download html failed return None return response.read()url_parse.py* coding:utf-8impo

20、rt urlparsefrom bs4 import BeautifulSoupimport reclass HtmlParser(object): def parse(self, page_url, html_cont): if page_url is None or html_cont is None: return soup = BeautifulSoup(html_cont, html.parser, from_encoding=utf-8) *解析URL列表,获取URL new_urls = self._get_new_urls(page_url, soup) * 解析数据 new_

21、data = self._get_new_date(page_url, soup) print new_data return new_urls, new_data def _get_new_urls(self, page_url, soup): new_urls = set() * baike.baidu./item/%E8%87%AA%E7%94%B1%E8%BD%AF%E4%BB%B6 * baike.baidu./item/%E6%BA%90%E4%BB%A3%E7%A0%81/3969 links = soup.find_all(a, href=re.pile(r/item/%) f

22、or link in links: new_url = linkhref * baike.baidu./item/Pythonsefr=ps new_full_url = urlparse.urljoin(baike.baidu./,new_url) new_urls.add(new_full_url) return new_urls def _get_new_date(self, page_url, soup): res_data = * url res_dataurl = page_url * Python title_node = soup.find(dd,class_=lemmaWgt

23、lemmaTitle-title).find(h1) res_datatitle = title_node.get_te*t() * summary_node = soup.find(div, class_=lemma-summary) *这句话有可能出现空! res_datasummary = summary_node.get_te*t() print res_datasummary return res_datahtml_outputer.py* coding:utf-8class HtmlOutputer(object): def _init_(self): * 建立列表存放数据 se

24、lf.datas = * 收集数据 def collect_data(self, data): if data is None: return self.datas.append(data) * 输出数据 def output_html(self): fout = open(output.t*t, w) for data in self.datas: fout.write(dataurl+n) fout.write(datatitle.encode(utf-8) fout.write(datasummary.encode(utf-8)+nn) fout.close()9 附录2 网络爬虫爬取的

25、数据文档baike.baidu./item/Pythonsefr=psPythonPython1英国发音:/pan/ 美国发音:/pan/, 是一种面向对象的解释型计算机程序设计语言,由荷兰人Guido van Rossum于1989年创造,第一个公开发行版发行于1991年。Python是纯粹的自由软件, 源代码和解释器CPython遵循 GPL(GNU General Public License)协议2。Python语法简洁清晰,特色之一是强制用空白符(white space)作为语句缩进。Python具有丰富和强大的库。它常被昵称为胶水语言,能够把用其他语言制作的各种模块尤其是C/C+很

26、轻松地联结在一起。常见的一种应用情形是,使用Python快速生成程序的原型有时甚至是程序的最终界面,然后对其中3有特别要求的局部,用更适宜的语言改写,比方3D游戏中的图形渲染模块,性能要求特别高,就可以用C/C+重写,而后封装为Python可以调用的扩展类库。需要注意的是在您使用扩展类库时可能需要考虑平台问题,*些可能不提供跨平台的实现。baike.baidu./item/%E7%BC%96%E8%AF%91%E5%99%A8编译器简单讲,编译器就是将一种语言通常为高级语言翻译为另一种语言通常为低级语言的程序。一个现代编译器的主要工作流程:源代码 (source code) 预处理器 (pre

27、processor) 编译器 (piler) 目标代码 (object code) 器 (Linker) 可执行程序 (e*ecutables)高级计算机语言便于人编写,阅读交流,维护。机器语言是计算机能直接解读、运行的。编译器将汇编或高级计算机语言源程序Source program作为输入,翻译成目标语言Target language机器代码的等价程序。源代码一般为高级语言 (High-level language), 如Pascal、C、C+、Java、汉语编程等或汇编语言,而目标则是机器语言的目标代码Object code,有时也称作机器代码Machine code。对于C*、VB等高级

28、语言而言,此时编译器完成的功能是把源码SourceCode编译成通用中间语言MSIL/CIL的字节码ByteCode。最后运行的时候通过通用语言运行库的转换,编程最终可以被CPU直接计算的机器码NativeCode。baike.baidu./item/%E8%AE%A1%E7%AE%97%E6%9C%BA%E7%A8%8B%E5%BA%8F%E8%AE%BE%E8%AE%A1%E8%AF%AD%E8%A8%80计算机程序设计语言计算机程序设计语言是2002年9月清华大学出版的图书,作者是Donald E. Knuth 。1baike.baidu./item/%E9%A2%84%E5%A4%84

29、E7%90%86%E5%99%A8预处理器预处理器是在真正的编译开场之前由编译器调用的独立程序。预处理器可以删除注释、包含其他文件以及执行宏宏macro是一段重复文字的简短描写替代。baike.baidu./item/%E7%9B%AE%E6%A0%87%E4%BB%A3%E7%A0%81目标代码目标代码object code指计算机科学中编译器或汇编器处理源代码后所生成的代码,它一般由机器代码或接近于机器语言的代码组成。baike.baidu./item/%E9%AB%98%E7%BA%A7%E8%AF%AD%E8%A8%80高级语言高级语言High-level programming l

30、anguage相对于机器语言machine language,是一种指令集的体系。这种指令集,称机器码machine code,是电脑的CPU可直接解读的数据而言。是高度封装了的编程语言,与低级语言相对。它是以人类的日常语言为根底的一种编程语言,使用一般人易于承受的文字来表示例如汉字、不规则英文或其他外语,从而使程序编写员编写更容易,亦有较高的可读性,以方便对电脑认知较浅的人亦可以大概明白其容。由于早期电脑业的开展主要在美国,因此一般的高级语言都是以英语为蓝本。在1980年代,当东亚地区开场使用电脑时,在日本、及中国大陆都曾尝试开发用各自地方语言编写的高级语言,当中主要都是改编BASIC或专用于数据库数据的语言,但是随着编程者的外语能力提升,现时的有关开发很少。由于汇编语言依赖于硬件体系,且助记符量大难记,于是人们又创造了更加易用的所谓高级语言。在这种语言下,其语法和构造更类似汉字或者普通英文,且由于远离对硬件的直接操作,使得一般人经过学习之后都可以编程。高级语言通常按其根本类型、代系、实现方式、应用围等分类。. z

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 论文 > 大学论文

宁ICP备18001539号-1