selenium在scrapy中的使用代码

 更新时间:2021年05月25日 09:02:29   作者:小黑班♪(・ω・)ノ  
本文给大家分享selenium在scrapy中的使用代码,使用selenium可以很好的帮助我们获取一些重要数据信息,本文通过代码给大家详细介绍,感兴趣的朋友跟随小编一起看看吧

在通过scrapy框架进行某些网站数据爬取的时候,往往会碰到页面动态数据加载的情况发生,如果直接使用scrapy对其url发请求,是绝对获取不到那部分动态加载出来的数据值。但是通过观察我们会发现,通过浏览器进行url请求发送则会加载出对应的动态加载出的数据。那么如果我们想要在scrapy也获取动态加载出的数据,则必须使用selenium创建浏览器对象,然后通过该浏览器对象进行请求发送,获取动态加载的数据值。本文重点给大家介绍selenium在scrapy中的使用,具体内容如下所示:

使用目的

爬取网易新闻国内、国际、军事、航空4个版块的新闻。在测试中发现各版块的新闻是动态加载的,如果直接爬取无法获取,使用selenium帮助获取此部分数据。

代码

spider

import scrapy
from selenium import webdriver
from wangyiPro.items import WangyiproItem

class WangyiSpider(scrapy.Spider):
    name = 'wangyi'
    # allowed_domains = ['www.xxx.com']
    start_urls = ['https://news.163.com/']
    model_url = []

   
    hro = webdriver.Chrome()

    def parse(self, response):
    # 从所有版块中筛选出所需要下载的4个版块
        li_list = response.xpath('/html/body/div[1]/div[1]/div[2]/div[2]/div[2]/div[2]/div/ul/li')
        indexs = [3,4,6,7]
        for index in indexs:
            model_li = li_list[index]
            model_list = model_li.xpath('./a/@href').extract_first()
            self.model_url.append(model_list)
        for url in self.model_url:
            yield scrapy.Request(url=url,callback=self.parse_model)

    # 数据解析:新闻标题+新闻详情页的url(动态加载数据)
    def parse_model(self,response):
        # 直接对response解析无法获取该数据(动态加载数据)
        # 无法拿到动态加载数据返回的响应数据就不足
        # 使用中间件修改不满足需求的响应对象中的响应数据,将其改为包含动态加载数据的响应数据
        div_list = response.xpath('/html/body/div/div[3]/div[4]/div[1]/div[1]/div/ul/li/div/div')
        for div in div_list:
            title = div.xpath('./div/div[1]/h3/a/text()').extract_first()
            new_url_detail = div.xpath('./div/div[1]/h3/a/@href').extract_first()

            if new_url_detail:
                item = WangyiproItem()
                item['title'] = title


                yield scrapy.Request(url=new_url_detail,callback=self.parse_detail,meta={'item':item})


    def parse_detail(self,response):
        # 返回的列表,需要将其转换为字符串
        content = response.xpath('/html/body/div[3]/div[1]/div[3]/div[2]/p/text()').extract()
        content = ''.join(content)
        item = response.meta['item']
        item['content'] = content

        yield item

    # 重写爬虫类父类方法,该方法在爬虫程序执行结束后立即执行
    def closed(self,spider):
        # 打开selenium需要关闭
        self.hro.quit()

middlewares

from time import sleep
from scrapy.http import HtmlResponse#scrapy封装好的响应类

class WangyiproDownloaderMiddleware:


    def process_request(self, request, spider):

        return None

    # 拦截所有的响应对象
    # 整个工程发起的请求:1+4+n 对应相同的响应
    def process_response(self, request, response, spider):
        # 从所有拦截对象中找到4个需修改的响应对象
        if request.url in spider.model_url:
            hro = spider.hro
            hro.get(request.url)
            sleep(2)
            # 网页下拉到底,获取更多动态加载数据
            hro.execute_script('window.scrollTo(0,document.body.scrollHeight)')
            sleep(1)
            page_text = hro.page_source
            # response.text = page_text
            # 返回一个新的响应对象
            return HtmlResponse(url=request.url,body=page_text,encoding='utf-8',request=request)

        # 如果不是需要修改的响应数据,不做修改
        else:
            return response

    def process_exception(self, request, exception, spider):

        pass

效果

在这里插入图片描述

总结

  •  hro = webdriver.Chrome() 我是直接将Chromedriver写入配置文件,所以直接实例化对象即可,如果没有写入配置文件,写为hro = webdriver.Chrome(executable_path='绝对路径')。尝试过将Chromedriver放到pycharm的文件下写入相对路径,没有成功。
  • 使用selenium在结束后需要关闭,可以改写爬虫类父类方法closed()
  • settings里修改三件套并且打开下载中间件和items

以上就是selenium如何在scrapy中的使用的详细内容,更多关于scrapy中使用selenium的资料请关注脚本之家其它相关文章!

相关文章

  • Python全栈之面向对象基础

    Python全栈之面向对象基础

    这篇文章主要为大家介绍了Python面向对象基础,具有一定的参考价值,感兴趣的小伙伴们可以参考一下,希望能够给你带来帮助
    2021-11-11
  • Django集成富文本编辑器summernote的实现步骤

    Django集成富文本编辑器summernote的实现步骤

    在最近的项目中小编使用了这个富文本编辑器,选择它的主要原因是配置非常简单,默认支持普通用户上传图片(不像ckeditor默认只有staff user才能上传图片。如果要让普通用户上传图片,还需修改源码装饰器)。现在让我们来看看如何使用这个富文本编辑器
    2021-05-05
  • 使用Python来开发Markdown脚本扩展的实例分享

    使用Python来开发Markdown脚本扩展的实例分享

    这篇文章主要介绍了使用Python来开发Markdown脚本扩展的实例分享,文中的示例是用来简单地转换文档结构,主要为了体现一个思路,需要的朋友可以参考下
    2016-03-03
  • tensorflow入门之训练简单的神经网络方法

    tensorflow入门之训练简单的神经网络方法

    本篇文章主要介绍了tensorflow入门之训练简单的神经网络方法,小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧
    2018-02-02
  • Python同步方法变为异步方法的小技巧分享

    Python同步方法变为异步方法的小技巧分享

    同步和异步关注的是消息通信机制,下面这篇文章主要给大家介绍了关于Python同步方法变为异步方法的相关资料,文中通过示例代码介绍的非常详细,需要的朋友可以参考下
    2022-04-04
  • python爬虫使用requests发送post请求示例详解

    python爬虫使用requests发送post请求示例详解

    这篇文章主要介绍了python爬虫使用requests发送post请求示例详解,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2020-08-08
  • python中xlutils库用法浅析

    python中xlutils库用法浅析

    在本篇文章里小编给大家整理了一篇关于python中xluntils库用法浅析的内容,有需要的朋友们可以学习下。
    2020-12-12
  • python实现文件快照加密保护的方法

    python实现文件快照加密保护的方法

    这篇文章主要介绍了python实现文件快照加密保护的方法,涉及Python文件加密的技巧,可有效防止文件被篡改,需要的朋友可以参考下
    2015-06-06
  • python conda操作方法

    python conda操作方法

    这篇文章主要介绍了python conda操作方法,非常不错,具有一定的参考借鉴价值,需要的朋友可以参考下
    2019-09-09
  • pycharm配置当鼠标悬停时快速提示方法参数

    pycharm配置当鼠标悬停时快速提示方法参数

    这篇文章主要介绍了pycharm中配置当鼠标悬停时快速提示方法参数,本文图文并茂给大家介绍的非常详细,具有一定的参考借鉴价值,需要的朋友可以参考下
    2019-07-07

最新评论