python中scrapy处理项目数据的实例分析

 更新时间:2020年11月22日 08:52:10   作者:小妮浅浅  
在本篇文章里小编给大家整理了关于python中scrapy处理项目数据的实例分析内容,有兴趣的朋友们可以学习下。

在我们处理完数据后,习惯把它放在原有的位置,但是这样也会出现一定的隐患。如果因为新数据的加入或者其他种种原因,当我们再次想要启用这个文件的时候,小伙伴们就会开始着急却怎么也翻不出来,似乎也没有其他更好的搜集办法,而重新进行数据整理显然是不现实的。下面我们就一起看看python爬虫中scrapy处理项目数据的方法吧。

1、拉取项目

$ git clone https://github.com/jonbakerfish/TweetScraper.git

$ cd TweetScraper/

$ pip install -r requirements.txt #add '--user' if you are not root

$ scrapy list

$ #If the output is 'TweetScraper', then you are ready to go.

2、数据持久化

通过阅读文档,我们发现该项目有三种持久化数据的方式,第一种是保存在文件中,第二种是保存在Mongo中,第三种是保存在MySQL数据库中。因为我们抓取的数据需要做后期的分析,所以,需要将数据保存在MySQL中。

抓取到的数据默认是以Json格式保存在磁盘 ./Data/tweet/ 中的,所以,需要修改配置文件 TweetScraper/settings.py 。

ITEM_PIPELINES = {  # 'TweetScraper.pipelines.SaveToFilePipeline':100,
#'TweetScraper.pipelines.SaveToMongoPipeline':100, # replace `SaveToFilePipeline` with this to use MongoDB
  'TweetScraper.pipelines.SavetoMySQLPipeline':100, # replace `SaveToFilePipeline` with this to use MySQL
}
#settings for mysql
MYSQL_SERVER = "18.126.219.16"
MYSQL_DB   = "scraper"
MYSQL_TABLE = "tweets" # the table will be created automatically
MYSQL_USER  = "root"    # MySQL user to use (should have INSERT access granted to the Database/Table
MYSQL_PWD  = "admin123456"    # MySQL user's password

内容扩展:

scrapy.cfg是项目的配置文件

from scrapy.spider import BaseSpider
class DmozSpider(BaseSpider):
name = "dmoz"
allowed_domains = ["dmoz.org"]
start_urls = [
  "http://www.dmoz.org/Computers/Programming/Languages/Python/Books/",
  "http://www.dmoz.org/Computers/Programming/Languages/Python/Resources/"
]
def parse(self, response):
  filename = response.url.split("/")[-2]
  open(filename, 'wb').write(response.body)

到此这篇关于python中scrapy处理项目数据的实例分析的文章就介绍到这了,更多相关python爬虫中scrapy如何处理项目数据内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

相关文章

  • python3 shelve模块的详解

    python3 shelve模块的详解

    这篇文章主要介绍了python3 shelve模块的详解的相关资料,需要的朋友可以参考下
    2017-07-07
  • Python判断素数的3种方法及for-else语句的用法介绍

    Python判断素数的3种方法及for-else语句的用法介绍

    素数又叫质数,指的是>1的整数中,只能被1和这个数本身整除的数,这篇文章主要给大家介绍了关于Python判断素数的3种方法及for-else语句的用法介绍的相关资料,文中通过代码介绍的非常详细,需要的朋友可以参考下
    2024-05-05
  • Pycharm不同版本镜像源添加方法

    Pycharm不同版本镜像源添加方法

    本文主要介绍了Pycharm不同版本镜像源添加方法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2023-02-02
  • python3 深浅copy对比详解

    python3 深浅copy对比详解

    这篇文章主要介绍了python3 深浅copy对比详解,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
    2019-08-08
  • Django日志模块logging的配置详解

    Django日志模块logging的配置详解

    日志在程序开发中是少不了的,通过日志我们可以分析到错误在什么地方,有什么异常。在生产环境下有很大的用处。在java 开发中通常用 log4j,logback 等三方组件。下面这篇文章主要介绍了Django日志模块logging的相关资料,需要的朋友可以参考下。
    2017-02-02
  • python3下实现搜狗AI API的代码示例

    python3下实现搜狗AI API的代码示例

    这篇文章主要介绍了python3下实现搜狗AI API的代码示例,小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧
    2018-04-04
  • 用python简单实现mysql数据同步到ElasticSearch的教程

    用python简单实现mysql数据同步到ElasticSearch的教程

    今天小编就为大家分享一篇用python简单实现mysql数据同步到ElasticSearch的教程,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2018-05-05
  • Python爬取成语接龙类网站

    Python爬取成语接龙类网站

    在本篇文章里我们给大家分享了关于Python爬取成语接龙类网站的相关知识点,有需要的朋友们学习下。
    2018-10-10
  • Python实现豆瓣图片下载的方法

    Python实现豆瓣图片下载的方法

    这篇文章主要介绍了Python实现豆瓣图片下载的方法,涉及Python针对网页操作的相关技巧,需要的朋友可以参考下
    2015-05-05
  • ubuntu安装sublime3并配置python3环境的方法

    ubuntu安装sublime3并配置python3环境的方法

    这篇文章主要介绍了ubuntu安装sublime3并配置python3环境的方法,小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧
    2018-03-03

最新评论