代理ip

>

换ip软件

>

http代理

>

ip代理

您的位置:首页 > 新闻资讯 > 文章内容
网络爬虫分布式抓取的系统结构
来源: 作者:admin 时间:2018-11-18 10:17:01

一般来说,网络爬虫抓取系统需要面对的是整个互联网上数以亿计的网页。单个抓取程序是不可能完成这样的任务的。因此往往需要多个抓取程序一起来处理。网络爬虫抓取系统往往是一个分布式的三层结构。

最下一层是分布在不同地理位置的数据中心,在每个数据中心里有若干台抓取服务器,而每台抓取服务器上可能部署了若干套爬虫程序。这就构成了一个基本的分布式抓取系统。


网连动态IP代理软件可以实现一键IP自动切换,千万IP库存,自动去重,支持电脑、手机多终端使用,智能加速技术多IP池自动分配,数据优化智能千万IP访问。  


对于一个数据中心内的不同抓去服务器,协同工作的方式有几种:
    

1.主从式(Master-Slave)
 

对于主从式而言,有一台专门的Master服务器来维护待抓取URL队列,它负责每次将URL分发到不同的Slave服务器,而Slave服务器则负责实际的网页下载工作。Master服务器除了维护待抓取URL队列以及分发URL之外,还要负责调解各个Slave服务器的负载情况。以免某些Slave服务器过于清闲或者劳累。这种模式下,Master往往容易成为系统瓶颈。

    

2.对等式(Peer to Peer)


在这种模式下,所有的抓取服务器在分工上没有不同。每一台抓取服务器都可以从待抓取在URL队列中获取URL,然后对该URL的主域名的hash值H,然后计算H mod m(其中m是服务器的数量,以上图为例,m为3),计算得到的数就是处理该URL的主机编号。


举例:假设对于URL www.baidu.com,计算器hash值H=8,m=3,则H mod m=2,因此由编号为2的服务器进行该链接的抓取。假设这时候是0号服务器拿到这个URL,那么它将该URL转给服务器2,由服务器2进行抓取。


这种模式有一个问题,当有一台服务器死机或者添加新的服务器,那么所有URL的哈希求余的结果就都要变化。也就是说,这种方式的扩展性不佳。针对这种情况,又有一种改进方案被提出来。这种改进的方案是一致性哈希法来确定服务器分工。


 一致性哈希将URL的主域名进行哈希运算,映射为一个范围在0-232之间的某个数。而将这个范围平均的分配给m台服务器,根据URL主域名哈希运算的值所处的范围判断是哪台服务器来进行抓取。


如果某一台服务器出现问题,那么本该由该服务器负责的网页则按照顺时针顺延,由下一台服务器进行抓取。这样的话,及时某台服务器出现问题,也不会影响其他的工作。 


网连软件作为动态IP行业的领导者,旨在为各行业提供最优质的网络ip服务,为您量身打造行业资讯推荐、软件使用技巧,更有专业人士为您定制IP服务,是您网络爬虫的首要选择。


官网可领取免费试用时长,更多问题请点击官网在线客服咨询。


相关文章内容简介
推荐阅读
  • 10 2018-12
  • 02 2019-09
    如何代理IP进行新媒体营销工作

    代理IP对新媒体的意义比较大,如今越来越多的人开始使用微博,因此很多公司和个人都开始借助微博来发展自己的生意和事业。这种新型业务被人们称作新媒体运营。随着新媒体运营的人群越

  • 21 2019-08
    HTTP代理穿透原理

    HTTP代理服务器中能够提供一种HTTP CONNECT代理服务,能够允许用户建立TCP连接到任何端口。通过CONNECT方法穿透代理的实现方法为:CONNECT代理服务器的代理端口(如:8080);如果成功返回就可以

  • 17 2019-09
    注册用哪家代理IP好

    现在的网络上,我们经常能够看到代理注册,抢购等词汇与代理IP联系在一起,那么代理IP究竟怎么样?是不是真的像网友们说的那么好呢?其实代理IP的原理就是代替用户的真实IP进行网站的访问

  • 24 2019-10
    如何用php定时验证代理IP是否可用

    如何用php定时验证代理IP是否可用?用php先搭建网络爬虫,今天就利用上次爬到的http代理IP讲一讲代理IP的验证。至于为什么说PHP是世界上最好的语言,我也不知道,听别人说的,我个人比较喜

  • 31 2019-01