scrapy框架ItemPipeline的使用

 更新时间:2022年08月15日 11:37:59   作者:卑微小钟  
本文主要介绍了scrapy框架ItemPipeline的使用,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧

Item Pipeline简介

Item管道的主要责任是负责处理有蜘蛛从网页中抽取的Item,他的主要任务是清晰、验证和存储数据。
当页面被蜘蛛解析后,将被发送到Item管道,并经过几个特定的次序处理数据。
每个Item管道的组件都是有一个简单的方法组成的Python类。
他们获取了Item并执行他们的方法,同时他们还需要确定的是是否需要在Item管道中继续执行下一步或是直接丢弃掉不处理。

调用时间: 当Item在Spider中被收集之后,它将会被传递到Item Pipeline,一些组件会按照一定的顺序执行对Item的处理。

功能:

  • 清理HTML数据
  • 验证爬取的数据(检查item包含某些字段)
  • 查重(并丢弃)
  • 将爬取结果保存到数据库中

一、一个自己的Pipeline类

必须实现以下方法:

process_item(self, item**,** spider**)**

每个item pipeline组件都需要调用该方法,这个方法必须返回一个具有数据的dict,或是 Item(或任何继承类)对象, 或是抛出 DropItem 异常,被丢弃的item将不会被之后的pipeline组件所处理。

参数:

  • item (Item 对象或者一个dict) – 被爬取的item
  • spider (Spider 对象) – 爬取该item的spider

open_spider(self, spider)

当spider被开启时,这个方法被调用。参数:spider (Spider对象) – 被开启的spider

from_crawler(cls,crawler)

如果存在,则调用该类方法以从中创建管道实例Crawler。它必须返回管道的新实例。搜寻器对象提供对所有Scrapy核心组件(如设置和信号)的访问;这是管道访问它们并将其功能挂钩到Scrapy中的一种方法。

close_spider(self, spider)

当spider被关闭时,这个方法被调用参数:spider (Spider对象) – 被关闭的spider

二、启用一个Item Pipeline组件

为了启用一个Item Pipeline组件,你必须将它的类添加到 ITEM_PIPELINES 配置,就像下面这个例子:

ITEM_PIPELINES = {
    'myproject.pipelines.PricePipeline': 300,
    'myproject.pipelines.JsonWriterPipeline': 800,
}

分配给每个类的整型值,确定了他们运行的顺序,item按数字从低到高的顺序,通过pipeline,通常将这些数字定义在0-1000范围内。

将item写入JSON文件

以下pipeline将所有爬取到的item,存储到一个独立地items.json 文件,每行包含一个序列化为'JSON'格式的'item':

import json
class JsonWriterPipeline(object):
    def __init__(self):
        self.file = open('items.json', 'wb')
    def process_item(self, item, spider):
        line = json.dumps(dict(item),ensure_ascii=False) + "\n"
        self.file.write(line)
        return item

在这里优化:

以下pipeline将所有爬取到的item,存储到一个独立地items.json 文件,每行包含一个序列化为'JSON'格式的'item':

import json
import codecs
class JsonWriterPipeline(object):
    def __init__(self):
        self.file = codecs.open('items.json', 'w', encoding='utf-8')
    def process_item(self, item, spider):
        line = json.dumps(dict(item), ensure_ascii=False) + "\n"
        self.file.write(line)
        return item
    def spider_closed(self, spider):
        self.file.close()

针对spider里面的utf-8编码格式去掉.encode('utf-8')

item = RecruitItem()
item['name']=name.encode('utf-8')
item['detailLink']=detailLink.encode('utf-8')
item['catalog']=catalog.encode('utf-8')
item['recruitNumber']=recruitNumber.encode('utf-8')
item['workLocation']=workLocation.encode('utf-8')
item['publishTime']=publishTime.encode('utf-8')

将item写入MongoDB

from_crawler(cls, crawler)

如果使用,这类方法被调用创建爬虫管道实例。必须返回管道的一个新实例。crawler提供存取所有Scrapy核心组件配置和信号管理器;对于pipelines这是一种访问配置和信号管理器 的方式。

在这个例子中,我们将使用pymongo将Item写到MongoDB。MongoDB的地址和数据库名称在Scrapy setttings.py配置文件中;

这个例子主要是说明如何使用from_crawler()方法

import pymongo
class MongoPipeline(object):
    collection_name = 'scrapy_items'
    def __init__(self, mongo_uri, mongo_db):
        self.mongo_uri = mongo_uri
        self.mongo_db = mongo_db
    @classmethod
    def from_crawler(cls, crawler):
        return cls(
            mongo_uri=crawler.settings.get('MONGO_URI'),
            mongo_db=crawler.settings.get('MONGO_DATABASE', 'items')
        )
    def open_spider(self, spider):
        self.client = pymongo.MongoClient(self.mongo_uri)
        self.db = self.client[self.mongo_db]
    def close_spider(self, spider):
        self.client.close()
    def process_item(self, item, spider):
        self.db[self.collection_name].insert(dict(item))
        return item

到此这篇关于scrapy框架ItemPipeline的使用的文章就介绍到这了,更多相关scrapy ItemPipeline内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

相关文章

  • Python利用lxml库实现XML高级处理详解

    Python利用lxml库实现XML高级处理详解

    在Python的世界中,lxml是处理XML和HTML的一款强大且易用的库,本文主要介绍了如何解析、创建、修改XML文档,如何使用XPath查询,以及如何解析大型XML文档,需要的可以参考下
    2023-08-08
  • 分析详解python多线程与多进程区别

    分析详解python多线程与多进程区别

    这篇文章主要为大家分析详解了python多线程与多进程区别,以及在使用过程中的注意要点,有需要的朋友可以借鉴参考下,希望可以有所帮助
    2021-09-09
  • python3正则模块re的使用方法详解

    python3正则模块re的使用方法详解

    这篇文章主要介绍了python3正则模块re的使用方法详解,需要的朋友可以参考下
    2020-02-02
  • Python中的response.text与content区别详解

    Python中的response.text与content区别详解

    这篇文章主要介绍了Python中的response.text与content区别详解, 从网络请求下来的数据,他们都是字节类型的,如果服务器不指定的话,默认编码是"ISO-8859-1",我们使用text直接拿到的是字符串类型,没有进行解码操作,则会出现乱码问题,需要的朋友可以参考下
    2023-12-12
  • python目标检测yolo3详解预测及代码复现

    python目标检测yolo3详解预测及代码复现

    这篇文章主要为大家介绍了python目标检测yolo3详解预测及代码复现,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步,早日升职加薪
    2022-05-05
  • Python学习之函数的定义与使用详解

    Python学习之函数的定义与使用详解

    函数是具有某种特定功能的代码块,可以重复使用(在前面数据类型相关章节。它使得我们的程序更加模块化,不需要编写大量重复的代码。本文将详细介绍Python中函数的定义与使用,感兴趣的可以学习一下
    2022-03-03
  • 使用python读写txt和json(jsonl)大文件的方法步骤

    使用python读写txt和json(jsonl)大文件的方法步骤

    在Python中读取txt和json(jsonl)大文件并保存到字典是一项非常常见的操作,这篇文章主要给大家介绍了关于使用python读写txt和json(jsonl)大文件的方法步骤,需要的朋友可以参考下
    2023-12-12
  • 对Python3 * 和 ** 运算符详解

    对Python3 * 和 ** 运算符详解

    今天小编就为大家分享一篇对Python3 * 和 ** 运算符详解,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2019-02-02
  • Python探针完成调用库的数据提取

    Python探针完成调用库的数据提取

    这篇文章主要介绍了Python探针完成调用库的数据提取,Python中可以通过sys.meta_path来实现import hook的功能,下文详细资料介绍,需要的小伙伴可以参考一下
    2022-05-05
  • 通过代码实例展示Python中列表生成式的用法

    通过代码实例展示Python中列表生成式的用法

    这篇文章主要介绍了通过代码实例展示Python中列表生成式的用法,包括找出质数、算平方数等基本用法,需要的朋友可以参考下
    2015-03-03

最新评论