简单制作Scrapy爬虫

laical · · 95 次点击 · · 开始浏览    

爬虫框架本身来说,都是很优秀的,说那个更好,不如说那个更适合公司的业务需求。

scrapy是用python语言编写的一个爬虫框架也是一个常见的爬虫框架,非常好用。只需要简单采集和存储即可。自带多线程和异常处理功能

Scrapy:支持分布式爬虫,扩展性强,使用简单,支持中间件机制,不支持json网页采集。

制作Scrapy步骤:

1、新建爬虫项目:在网络爬虫采集数据之前,需要建立一个新的Scrapy爬虫项目,然后运行爬虫。

2、明确目标:确定需要采集的目标网站和数据信息,运行项目,输入指令运行代码。

3、新建爬虫:解析数据信息,运行代码,爬数据,取数据。

4、数据存储:选择适合自己的存储方式存储自己想要的数据内容。

制作Scrapy爬虫使用代理:

        #! -*- encoding:utf-8 -*-
        import base64            
        import sys
        import random

        PY3 = sys.version_info[0] >= 3

        def base64ify(bytes_or_str):
            if PY3 and isinstance(bytes_or_str, str):
                input_bytes = bytes_or_str.encode('utf8')
            else:
                input_bytes = bytes_or_str

            output_bytes = base64.urlsafe_b64encode(input_bytes)
            if PY3:
                return output_bytes.decode('ascii')
            else:
                return output_bytes

        class ProxyMiddleware(object):                
            def process_request(self, request, spider):
                # 代理服务器(产品官网 www.16yun.cn)
                proxyHost = "t.16yun.cn"
                proxyPort = "31111"

                # 代理验证信息
                proxyUser = "username"
                proxyPass = "password"

                request.meta['proxy'] = "http://{0}:{1}".format(proxyHost,proxyPort)

                # 添加验证头
                encoded_user_pass = base64ify(proxyUser + ":" + proxyPass)
                request.headers['Proxy-Authorization'] = 'Basic ' + encoded_user_pass                    

                # 设置IP切换头(根据需求)
                tunnel = random.randint(1,10000)
                request.headers['Proxy-Tunnel'] = str(tunnel)

        class SplashProxyMiddleware(object):                
            def process_request(self, request, spider):
                # 代理服务器(产品官网 www.16yun.cn)
                proxyHost = "t.16yun.cn"
                proxyPort = "31111"

                # 代理验证信息
                proxyUser = "username"
                proxyPass = "password"

                request.meta['splash']['args']['proxy'] = "http://{}:{}@{}:{}".format(proxyUser,proxyPass,proxyHost,proxyPort)

 


有疑问加站长微信联系

入群交流(和以上内容无关):加入Go大咖交流群,或添加微信:liuxiaoyan-s 备注:入群;或加QQ群:812540095

95 次点击  
加入收藏 微博
添加一条新回复 (您需要 登录 后才能回复 没有账号 ?)
  • 请尽量让自己的回复能够对别人有帮助
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`
  • 支持 @ 本站用户;支持表情(输入 : 提示),见 Emoji cheat sheet
  • 图片支持拖拽、截图粘贴等方式上传