代理ip

>

换ip软件

>

http代理

>

ip代理

您的位置:首页 > 新闻资讯 > 文章内容
分布式爬虫使用代理IP的几种方案
来源:网连代理 作者:admin 时间:2019-10-26 15:20:12

  没有代理IP,爬虫工作将寸步难行,所以很多爬虫工程师都需要去选购高效稳定的代理IP。有了优质代理IP后,是不是就可以高枕无忧了呢?事情没有那么简单,还需要优化方案,合理分配资源,提高工作效率,更高效更快速更稳定的进行爬虫工作。


分布式爬虫使用代理IP的几种方案


  方案一、每个进程从接口API中随机取一个IP列表(比如一次提取100个IP)来循环使用,失败则再调用API获取,大概逻辑如下:


  1、每个进程(或线程),从接口随机取回一批IP回来,循环尝试IP列表去抓取数据;


  2、如果访问成功,则继续抓取下一条。


  3、如果失败了(比如超时、出现验证码等),再从接口取一批IP,继续尝试。


  方案缺点:每个IP都是有有效期的,如果提取了100个,当使用了第10个的时候,可能后面的大部分都失效了。如果你设置HTTP请求的时候连接时间超时为3秒,读取时间超时为5秒,那你将会有可能浪费3-8秒的时间,说不定这3-8秒已经可以抓取几十次了。


  方案二:每个进程从接口API中随机取一个IP来使用,失败则再调用API获取一个IP,大概逻辑如下:


  1、每个进程(或线程),从接口随机取回一个IP来,用这个IP去访问资源,


  2、如果访问成功,则继续抓下一条。


  3、如果失败了(比如超时、出现验证码等),再从接口随机取一个IP,继续尝试。


  方案缺点:调用API获取IP的行为非常频繁,会对代理服务器造成非常大的压力,影响API接口稳定,可能会被限制提取。这种方案也不适合,不能持久稳定的运行。


  方案三:先提取大量IP导入本地数据库,从数据库里面取IP,大概逻辑如下:


  1、在数据库里面建一个表,写一个导入脚本,每分钟请求多少次API(咨询代理IP服务商建议),把IP列表导入到数据库里面。


  2、在数据库里面记录好导入时间、IP、Port、过期时间、IP可用状态等字段;


  3、写一个抓取脚本,抓取脚本从数据库里面读取可用IP,每个进程从数据库获取一个IP进行使用。


  4、执行抓取,对结果进行判断,处理cookie等,只要出现验证码或者失败就放弃这个IP,重新换一个IP。


  这种方案有效的避开了代理服务器资源的消耗,有效的分配代理IP的使用,更加的高效和稳定,保障了爬虫工作的持久性和稳定性。


相关文章内容简介
推荐阅读
  • 21 2020-10
  • 12 2020-05
  • 06 2019-06
    高质量代理ip在哪里买

    我们再使用网络爬虫进行数据采集的时候,在爬取频率过高、次数过多的时候,会遇到IP被反爬程序封禁的情况,这个时候就需要用到代理IP了。高质量代理ip在哪里买?代理ip的获取途径有这么

  • 21 2019-09
    简述http\https\sockets代理的区别

    http\https\sockets代理之间有什么区别?首先我们先想像下,有一台电脑,装了代理软件、macos、chrome;我们再明确下,http代理工作在应用层(TCP/IP模型中),仅支持http协议,sockets工作在会话层(OSI模

  • 17 2019-09
    为什么要买付费代理IP?

    市面上免费代理IP那么多,为什么还有人愿意花钱使用付费代理IP?下面由小编带大家简单分析一下其中原因。一、免费代理IP传送信息不安全。使用免费代理IP,数据会先进入代理服务器再进行

  • 10 2019-06
    爬虫代理的重要性

    爬虫必须用代理IP吗?很多用户认为爬虫必须要用代理IP,没有代理IP将寸步难行;也有人说,代理IP是非必须的。那么他们这样认为的理由都是什么呢?有的用户他自己写爬虫程序,公司的任务