
qq:800819103
在线客服,实时响应
qq群
在线客服,实时响应
客服电话
13318873961一、设置User-Agent
1、创建Request对象时指定headers
url = 'http://ip.zdaye.com/'
head = {}
head['User-Agent'] = 'Mozilla/5.0 (Linux; Android 4.1.1; Nexus 7 Build/JRO03D) AppleWebKit/535.19 (KHTML, like Gecko) Chrome/18.0.1025.166 Safari/535.19'
req = request.Request(url, headers=head)
#传入创建好的Request对象
response = request.urlopen(req)
html = response.read().decode('utf-8')
print(html)
2、创建Request对象后使用add_header
req.add_header('User-Agent', 'Mozilla/5.0 (Linux; Android 4.1.1; Nexus 7 Build/JRO03D) AppleWebKit/535.19 (KHTML, like Gecko) Chrome/18.0.1025.166 Safari/535.19')
# 参数为 (key, value)
二、代理IP设置
使用install_opener方法之后,会将程序默认的urlopen方法替换掉。也就是说,如果使用install_opener之后,在该文件中,再次调用urlopen会使用自己创建好的opener。如果不想替换掉,只是想临时使用一下,可以使用opener.open(url),这样就不会对程序默认的urlopen有影响。
from urllib import request
if __name__ == "__main__":
url = www.16yun.cn'
#这是代理IP
proxy = {'http':'168.68.8.88:66666'}
#创建ProxyHandler
proxy_support = request.ProxyHandler(proxy)
#创建Opener
opener = request.build_opener(proxy_support)
#添加User Angent
opener.addheaders = [('User-Agent','Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Safari/537.36')]
#安装OPener
request.install_opener(opener)
#使用自己安装好的Opener
response = request.urlopen(url)
html = response.read().decode("utf-8")
print(html)
相关文章内容简介
1 ua和代理ip在爬虫代理中如何被设置
一、设置User-Agent 1、创建Request对象时指定headers url∵=∵'http://ip.zdaye.com/' head∵=∵{} head['User-Agent']∵=∵'Mozilla/5.0∵(Linux;∵Android∵4.1.1;∵Nexus∵7∵Build/JRO03D)∵AppleWebKit/535.19∵(KHTML, ∵like∵Gecko)∵Chrome/18.0.1025.166 ∵Safari/535.19' req∵=∵request.Request(url,∵headers=head) #传入创建好的Request对象 response∵=∵request.urlopen(req)... [阅读全文]
最新标签
推荐阅读
30
2019-04
用代理IP可以不被发现爬虫吗?
网络爬虫在爬取目标网站的时候,总是不知不觉就被发现了,然后关进了小黑屋不见天日。那么,到底是什么行为触发了目标网站的反爬机制呢,只有找出了原因才能解决问题,才能避免下次掉
12
2019-08
怎么找代理IP
找代理IP的方法很简单,在网上直接搜索就会出现很多内容,也可以通过广告、网络渠道找到好用的代理。
04
2019-01
维护好动态IP服务器的四点建议
如今,大数据技术迅速的发展趋势,动态IP服务器是目前大数据技术的产物种的一种,如今许多的企业都是需要拥有自家的数据网络部门。这时候动态IP服务器就充分发挥了很大的作用,更具现
14
2019-02
如何找个适合爬虫使用的代理IP?
使用爬虫去采集大量的数据,这是少不了要使用代理IP的,进入这行业越久,所接触的代理IP商家也就越多,那么对应新手而言,选择代理IP要注意些什么呢?如何找个适合爬虫使用的代理IP?
热门文章