爬虫代理的配置

python (9515) 2020-08-08 12:18:11

小白爬虫一般在运行爬虫时,都会出现IP报错的问题。如何解决IP报错。每个爬虫研发的方案都不一样,不同的框架解决方案自然不相同。

HTTP代理的结构:

服务器与客户端会有许多代理服务器,这样代理服务器和代理就构成了一个上下级关系。入口代理一般是为上级,出口代理为下级。当然这些代理有可能是包含动态的,这样代理服务器才会将相关数据转发给原始服务器。就例如:你不想自己做事情,但是这些事情必须完成。你就会安排你的代理人去处理,这些代理人就会完成相关数据。

负载均衡:下级代理大概会根据自己的工作量来选择适合自己的上级代理,来达到平均

协议:下级代理一般会将不同的数据分别发送给上级代理和原始服务器。

创建一个scrapy项目:

scrapydownloadertest  # 项目文件夹

   │  items.py       # 命名采集的数据

   │  middlewares.py  # 插入JAVA中间件

   │  pipelines.py   # 对采集的到数据做分析

   │  settings.py   # 项目的附属数据

   │  __init__.py   # 最开的结构

   │

   ├─spiders  # Spiders 的植入

   │  │  httpProxyIp.py   # 如何处理爬取的结果

   │  │  __init__.py    # spider的结构

scrapy.py

通过上面的项目结构可以看出。http代理肯定是要设置好。能达到这个条件肯定是middlewares.py

配置动态爬虫代理IP:

一般在可以网上购买一些付费代理,可以使用亿牛云的动态爬虫代理,购买后会有4个参数,把4个参数配置上去就可以了。

在项目中新建middlewares.py文件(./项目名/middlewares.py)

        #! -*- encoding:utf-8 -*-
        import base64            
        import sys
        import random

        PY3 = sys.version_info[0] >= 3

        def base64ify(bytes_or_str):
            if PY3 and isinstance(bytes_or_str, str):
                input_bytes = bytes_or_str.encode('utf8')
            else:
                input_bytes = bytes_or_str

            output_bytes = base64.urlsafe_b64encode(input_bytes)
            if PY3:
                return output_bytes.decode('ascii')
            else:
                return output_bytes

        class ProxyMiddleware(object):                
            def process_request(self, request, spider):
                # 代理服务器(产品官网 www.16yun.cn)
                proxyHost = "t.16yun.cn"
                proxyPort = "31111"

                # 代理验证信息
                proxyUser = "username"
                proxyPass = "password"

                request.meta['proxy'] = "http://{0}:{1}".format(proxyHost,proxyPort)

                # 添加验证头
                encoded_user_pass = base64ify(proxyUser + ":" + proxyPass)
                request.headers['Proxy-Authorization'] = 'Basic ' + encoded_user_pass                    

                # 设置IP切换头(根据需求)
                tunnel = random.randint(1,10000)
                request.headers['Proxy-Tunnel'] = str(tunnel)

http://current.ip.16yun.cn:802可以通过这个网站验证你的代理IP是否使用成功。

THE END

发表评论