您的位置: 首页 > 新闻资讯 > > 正文

python使用ip代理抓取网页

发布时间:2020年01月06日 来源:互联网

    python使用ip代理抓取网页,在抓取一个网站的信息时,如果我们进行频繁的访问,就很有可能被网站检测到而被屏蔽,解决这个问题的方法就是使用ip代理 。在我们接入因特网进行上网时,我们的电脑都会被分配一个全球唯一地ip地址供我们使用,而当我们频繁访问一个网站时,网站也正是因为发现同一个ip地址访问多次而进行屏蔽的,所以这时候如果我们使用多个ip地址进行随机地轮流访问,这样被网站检测的概率就很小了,这时候如果我们再使用多个不同的headers,这时候就有多个ip+主机的组合,访问时被发现的概率又进一步减小了。


python使用ip代理抓取网页


    关于代码中ip代理的使用,下面介绍一下:


    步骤:


    1、urllib2库中的ProxyHandler类,通过此类可以使用ip代理访问网页


    proxy_support=urllib2.ProxyHandler({}),其中参数是一个字典{‘类型':'代理ip:端口号'}


    2、定制、创建一个opener


    opener=urllib2.build_opener(proxy_support)


    3、(1)安装opener


    urlib2.install_opener(opener)


    (2)调用默认的opener


    opener.open(url)


    对于没有设置反爬虫机制的网站,我们只需要直接像上面引入ProxyHandler类进行处理,下面以访问csdn主页为例:


    [python] view plain copy


    import urllib


    url="http://www.csdn.net/"


    for i in range(0,10000):


    html=urllib.urlopen(url)


    print html.info()


    print i


    当使用上述代码时,当循环到20时,就会出现下面的错误


    Traceback (most recent call last):


    File "C:/Users/lenovo/PycharmProjects/untitled1/jt2/__init__.py", line 19, in <module>


    html=urllib.urlopen(url)


    File "C:\Python27\lib\urllib.py", line 87, in urlopen


    return opener.open(url)


    File "C:\Python27\lib\urllib.py", line 213, in open


    return getattr(self, name)(url)


    File "C:\Python27\lib\urllib.py", line 350, in open_http


    h.endheaders(data)


    File "C:\Python27\lib\httplib.py", line 997, in endheaders


    self._send_output(message_body)


    File "C:\Python27\lib\httplib.py", line 850, in _send_output


    self.send(msg)


    File "C:\Python27\lib\httplib.py", line 812, in send


    self.connect()


    File "C:\Python27\lib\httplib.py", line 793, in connect


    self.timeout, self.source_address)


    File "C:\Python27\lib\socket.py", line 571, in create_connection


    raise err


    IOError: [Errno socket error] [Errno 10060]


    这就是因为我们使用了计算机的单一ip进行频繁访问而被检测出来的。


    下面是使用了ip代理的代码:


    [python] view plain copy


    import urllib2


    import random


    def getHtml(url,proxies):


    random_proxy = random.choice(proxies)


    proxy_support = urllib2.ProxyHandler({"http":random_proxy})


    opener = urllib2.build_opener(proxy_support)


    urllib2.install_opener(opener)


    html=urllib2.urlopen(url)


    return html


    url="http://www.csdn.net/"


    proxies=["101.53.101.172:9999","171.117.93.229:8118","119.251.60.37:21387","58.246.194.70:8080"


    "115.173.218.224:9797","110.77.0.70:80"]


    for i in range(0,10000):


    try:


    html=getHtml(url,proxies)


    print html.info()     #打印网页的头部信息,只是为了展示访问到了网页,可以自己修改成想显示的内容


    print i


    except:


    print "出现故障"


    这个代码我测试是在1096次时被检测到了,要知道我的列表中只有6个ip,如果我们增加ip的个数,那么被发现的概率是不是又会更低了。对于上面的例子中的ip代理,有可能在过了一段时间后便不能用了,这个需要自己到网上搜索最新的ip代理,进行替换。还有程序中的异常处理是为了使程序能够处理ip代码访问时出现问题的情况,因为有些ip代理在访问的时候会出现故障的,这样做了可以使程序更加健壮。


    对于有反爬虫机制的网页,下面还是以访问csdn中的博客为例:


    [python] view plain copy


    #coding:utf-8


    import urllib2


    import random


    def get_html(url,headers,proxies):


    random_userAget = random.choice(headers)


    random_proxy = random.choice(proxies)


    #下面是模拟浏览器进行访问


    req = urllib2.Request(url)


    req.add_header("User-Agent", random_userAget)


    req.add_header("GET", url)


    req.add_header("Host", "blog.csdn.net")


    req.add_header("Referer", "http://blog.csdn.net/?&page=6")


    #下面是使用ip代理进行访问


    proxy_support = urllib2.ProxyHandler({"http":random_proxy})


    opener = urllib2.build_opener(proxy_support)


    urllib2.install_opener(opener)


    html = urllib2.urlopen(req)


    return html


    url = "http://blog.csdn.net/?&page=3"


    """


    使用多个主机中的user_agent信息组成一个列表,当然这里面的user_agent都是残缺的,大家使用时可以自己找


    身边的小伙伴借呦


    """


    user_agents = [


    "Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWe。。。hrome/45.0.2454.101 Safari/537.36",


    "Mozilla / 5.0(Windows NT 6.1) AppleWebKit / 537.。。。。likeGecko) Chrome / 45.0.2454.101Safari/ 537.36",


    "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit。。。。。Gecko) Chrome/50.0.2661.102 Safari/537.36",


    "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.3。。。。ML, like Gecko) Chrome/49.0.2623.112 Safari/537.36",


    "User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) 。。。WebKit/537.36 (KHTML, like Gecko) Chrome/46.0.2486.0 Safari/537.36 Edge/13.10586",


    "User-Agent: Mozilla/5.0 (Windows NT 10.0) AppleWebKi。。。。。36 (KHTML, like Gecko) Chrome/46.0.2486.0 Safari/537.36 Edge/13.10586",


    "Mozilla/5.0 (Windows NT 10.0; WOW64) Apple。。。。。KHTML, like Gecko) Chrome/50.0.2661.94 Safari/537.36"


    ]


    #网上的ip有可能是不能用的,需要多做尝试


    myproxies=["220.189.249.80:80","124.248.32.43:80"]


    html = get_html(url,user_agents,myproxies)


    print html.read()


相关文章内容简介

1 免费代理IP能用于爬虫吗

    免费代理IP能用于爬虫吗?免费代理IP就是不需要花钱,在网络上可以直接提取,然后用来替换IP。并不是所有项目都能用免费代理IP的,例如爬虫就不可以。    免费代理IP的来源比较杂,很多没有用,使用时间短,匿名程度也参差不齐,其中有一些是高度匿名的,但数量有限,也很难挑选。而爬虫工作需要的IP,要求比较高,因为爬虫IP一旦质量不高就会被对方网站发现,被禁止抓取数据,无法完成工作。所以,免费代理IP是不适合爬虫的。但如果免费代理IP的匿名程度够的话,使用效率低,也是符合使用需求的。    爬虫大家都知道,是采集数据的方式。通过采集来的数据分析,可以获取有价值的信息。而代理IP是换IP最方便的工具,爬虫工作是要用代理IP的。    爬虫对被爬的网站来说是毫无利益的,反而会影响到服务器的工作,所以现在都设有反爬程序,IP限制是最基本的。爬虫工作的时候,如果速度快,用同一个IP会有访问的问题,这时网络就会有验证或者直接封锁IP,给爬虫工作带来了很大的困难。 ... [阅读全文]

2 发帖用代理IP有什么好处?

    发帖用代理IP有什么好处?发帖是网络营销的主要途径,在发帖的时候,很多时候都要用到代理IP,这并不奇怪,代理IP给网络营销人员带来了很大的便利。那么,发帖用代理IP有什么好处?    贴吧大家都不陌生,很多人在贴吧交流,一般同一个IP只能发布有限的帖子,评论也是有限制的。如果想大量发帖,就需要用代理IP来解决了。有很多热帖有的是真实评论,有的可能需要代理IP来帮忙,用代理IP去访问网站,用户不会被网站监视限制,或者被封锁了。    随着网络的发展,网络营销是很多公司必须要做的,其中网络影响最重要的途径就是发帖。很多发帖的工作人员都在使用代理IP,但还有很多人并不了解。那么,营销发帖一定要用代理IP吗?    例如贴吧、微博等平台,这些平台发帖可以与其他网友进行交流,起到宣传的作用。但一个IP发帖的数量是有限的,如果想大量发帖,就需要代理IP的帮助。更换IP后,就可以伪装成一个全新的用户,自然不会被平台限制。还有网络营销最常见的问答方式,也需要更换IP后进行自问... [阅读全文]

推荐阅读

  1. 12

    2020-02

    ip代理软件可用于什么平台?

    现如今许多的人都会应用新浪微博、天天快报这种各种短视频app,因此许多 公司许多人看到了这之中的商机和机会,并且运

  2. 02

    2020-12

    无极日常生活中应用代理ip普遍吗?

    随着网络 ip 的接触越来越多,如果想更好地应用网络,更换ip工具有助于进一步发展。对于现在的网络数据超时代技术人员来说, 代理ip 是必不可少的软件, 网络爬虫 收集信息数据、网络营

  3. 27

    2020-04

    代理IP越便宜越好吗?

    当今时代可以说是大数据的时代,各行各业的工作与互联网也越来越脱不开干系。因而人们对于代理IP的需求也越来越大,因而怎么来选购代理IP,是当今网络工作者必须要考虑的一个问题,,

  4. 20

    2020-11

    选择代理ip需要注意哪些指标值和基本参数

    选择爬虫免费 代理ip 的六个标准!当我们学习各种计算机语言时,出现各种异常情况是很常见的。以简单基础的web爬虫为例,我们在操作过程中会遇到各种各样的问题,比如IP被屏蔽、限制抓取

  5. 15

    2020-01

    怎样获取高匿代理IP网络资源?

    互联网的迅猛发展,复杂的网络环境面前,要保护网络安全是选择高匿名 代理IP 网络资源分不开的。现在的问题是,怎样高匿名代理IP网络资源获取?

  6. 18

    2020-01

    挑选代理ip查验好服务平台ip的总数

    说到代理 ip ,常常做互联网业务流程的人都了解,能够 用于申请注册、选购、网络投票、发帖子,这种事实上全是实际效果赔偿,代理 ip 除开实际效果赔偿能够 用,数据采集还可以用。

因为专业! 所以简单! 产品至上,价格实惠 是我们服务追求的宗旨

免费试用