收藏 400-998-9776 转2 服务时间 周一至周日 9:00-23:00 注意:本站不提供境外服务
您的位置:首页 >文章内容
分布式爬虫是什么意思?设计分布式爬虫要注意什么?
来源:互联网 作者:admin 时间:2019-02-26 16:43:43

  我们使用爬虫的目的就是为了能够大量快速的抓取数据,满足抓取上百、上千、上万甚至更多网页的需求,这么单个爬虫何时能爬取完呢?怎么能够加快爬取的速度?可以使用多爬虫的框架。比如分布式爬虫,分布式爬虫是什么意思?设计分布式爬虫要注意什么呢?


  一、单机爬虫


  默认情况下,我们使用scrapy框架进行爬虫时使用的是单机爬虫,就是说它只能在一台电脑上运行,因为爬虫调度器当中的队列queue去重和set集合都只能在本机上创建的,其他电脑无法访问另外一台电脑上的内存和内容。


  二、分布式爬虫


  实现了多台电脑使用一个共同的爬虫程序,它可以同时将爬虫任务部署到多台电脑上运行,这样可以提高爬虫速度,实现分布式爬虫。


分布式爬虫是什么意思?设计分布式爬虫要注意什么?


  三、设计分布式爬虫要注意什么


  1.分布式


  多网站抓取,数据量一般也比较大,可分布式扩展,这也是必需的功能了。分布式,需要注意做好消息队列,做好多结点统一去重。


  2.代码复用,功能模块化


  如果针对每个网站都写一个完整的爬虫,那其中必定包含了许多重复的工作,不仅开发效率不高,而且到后期整个爬虫项目会变得臃肿、难以管理。


  3.架构简明


  要方便以后未知功能模块的添加。


  4.易扩展


  多爬虫框架,这最直观的需求就是方便扩展,新增一个待爬的目标网站,我只需要写少量必要的内容(如抓取规则、解析规则、入库规则),这样最快最好。


  5.爬虫优化


  这就是大话题了,但最基本的,框架应该要基于异步,或者使用协程+多进程。


  6.健壮性、可维护性


  这么多网站同时抓取,报错的概率更大,例如断网、中途被防爬、爬到“脏数据”等等。所以必须要做好日志监控,能实时监控爬虫系统的状态,能准确、详细地定位报错信息;另外要做好各种异常处理,如果你放假回来发现爬虫因为一个小问题已经挂掉了,那你会因为浪费了几天时间而可惜的(虽然事实上我个人会不时地远程查看爬虫状态)。


  上文介绍了关于分布式爬虫,其实要写一个支持分布式、多爬虫的框架,具体的实现上还是有一定难度的。另外,在实现主要功能以外,还要注意做到代码严谨规范,爬虫高效健壮的要求。


相关文章内容简介
推荐阅读
  • 26 2018-11
    怎么用python写爬虫?用python写爬虫难吗?

    大数据时代,可以通过收集大量用户的数据,然后分析转化为有价值的数据,比如企业用户利用电商平台数据进行商业分析,但是这些数据通常不会被公布出来,那么我们应该在哪里...

  • 12 2019-10
    怎样维护爬虫代理ip​池?

    怎样维护爬虫代理ip​池?由于进行爬虫采集需要消耗大量的代理ip,所以经常进行爬虫的人都喜欢自己建立一个代理ip池方便调用,但是如果代理ip池没有得到足够好的维护,里面的代理ip就会失

  • 15 2019-10
    获取代理ip​的方法有哪些?

    获取代理ip​的方法有哪些?很多工作都需要大量的代理ip,特别是对于爬虫等消耗量大的工作来说,怎样获得大量的代理ip是他们十分关心的问题,也是很多人都想知道的问题,如此庞大的ip都是

  • 13 2019-05
    哪个代理拥有大量的IP资源?

    哪个代理拥有大量的IP资源?在当前的网络中,有很多代理IP的网站,并且有很多软件提供代理IP。在选择时,我们需要考虑一些因素。那么有什么因素呢?让我在下面详细解释。

  • 27 2020-02
    面对网站的反爬虫,代理ip怎么应对?

    不断增加的网络使用者,不断增加的网络数据,要想把某一个网站的数据进行提取整理,那么首先我们要知道怎么能够快速把它们保存到本地的方式。

  • 21 2019-11
    免费的代理ip软件​能用吗?

    免费的代理ip软件​能用吗?很多网民朋友疑惑,市面中的免费爬虫代理IP到底安不安全?使用后会对自己造成威胁吗?其实大家有这些顾虑是正常的,小编在这里也不推荐使用免费代理IP。