
qq:800819103
在线客服,实时响应
qq群
在线客服,实时响应
客服电话
13318873961如何使用代理IP来解决爬虫被封的问题?在大量爬取某个网站时,突然被该网站封了IP,再也爬不动了。研究其反爬虫策略时发现,当单个IP访问次数达到某个阈值时,将会限制当天访问。爬虫不能停,工作任务必须按时完成,怎么办呢?同事告知:使用代理IP来解决。
在同事的介绍下,买了黑洞代理IP的一手私密代理IP,接下来就是使用代理IP来继续爬虫工作了。通过python官方文档得知,可用urllib库的request方法中的ProxyHandler方法,build_opener方法,install_opener方法来使用代理IP。
官方文档很官方,有点难以理解,下面是部分关键文档,一起来看下:
class urllib.request.ProxyHandler(proxies=None)
Cause requests to go through a proxy. If proxies is given, it must be a dictionary mapping protocol names to URLs of proxies.(通过代理方法请求,如果给定一个代理,它必须是一个字典映射,key为协议,value为URLs或者代理ip。)
urllib.request.build_opener([handler, ...])
Return an OpenerDirector instance, which chains the handlers in the order given.(build_opener方法返回一个链接着给定顺序的handler的OpenerDirector实例。)
urllib.request.install_opener(opener)
Install an OpenerDirector instance as the default global opener.(install_opener方法安装OpenerDirector实例作为默认的全局opener。)
是不是云里雾里的,如果这样理顺下,就会发现其实很简单:
1、将代理IP及其协议载入ProxyHandler赋给一个opener_support变量;
2、将opener_support载入build_opener方法,创建opener;
3、安装opener。
具体代码如下:
from urllib import request
def ProxySpider(url, proxy_ip, header):
opener_support = request.ProxyHandler({'http': proxy_ip})
opener = request.build_opener(opener_support)
request.install_opener(opener)
req = request.Request(url, headers=header)
rsp = request.urlopen(req).read()
return rsp
有了代理IP,又学会了使用代理IP来做爬虫,这下可以不用担心被目标网站限制了,爬虫工作效率直线上线,按时完成任务不在话下。
相关文章内容简介
1 如何使用代理IP来解决爬虫被封的问题?
如何使用代理IP来解决爬虫被封的问题?在大量爬取某个网站时,突然被该网站封了IP,再也爬不动了。研究其反爬虫策略时发现,当单个IP访问次数达到某个阈值时,将会限制当天访问。爬虫不能停,工作任务必须按时完成,怎么办呢?同事告知:使用代理IP来解决。 在同事的介绍下,买了黑洞代理IP的一手私密代理IP,接下来就是使用代理IP来继续爬... [阅读全文]
最新标签
推荐阅读
15
2019-07
三种代理IP哪种好?
代理IP一般是可以根据价格、用途、协议、匿名度来分类的,大家最常见的分类方法就是匿名度,所以今天按匿名度为大家进行介绍。
22
2019-07
代理IP带来的便利和基本知识
互联网高速发展之下,网络兼职也成了很多人赚钱的一种方式。现如今,越来越多的人士纷纷加入到网赚行业中,一来可以增加收入,二来兼顾一些处于特定阶段的人群,例如孕妇、在职人员、
10
2018-10
什么软件更换ip地址可以做到随时随地操作?
随着大数据时代的到来,爬虫已经成了获取数据的必不可少的方式,对于爬虫来说,为了解决封禁IP的问题,一个有效的方式就是使用代理,使用代理之后可以让爬虫伪装自己的真实IP,如
10
2018-10
有没有能自动更换ip地址的软件?
代理IP是做网站推广必不可少的资源之一,尤其是一些需要换IP的平台推广如:百度知道、天涯论坛、百度贴吧、搜狗问问等。然而这些平台都是目前国内影响力最大,推广效果最好的平台
热门文章