python读取hdfs上的parquet文件方式

 更新时间:2020年06月06日 09:33:17   作者:二加三等于五  
这篇文章主要介绍了python读取hdfs上的parquet文件方式,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧

在使用python做大数据和机器学习处理过程中,首先需要读取hdfs数据,对于常用格式数据一般比较容易读取,parquet略微特殊。从hdfs上使用python获取parquet格式数据的方法(当然也可以先把文件拉到本地再读取也可以):

1、安装anaconda环境。

2、安装hdfs3。

conda install hdfs3

3、安装fastparquet。

conda install fastparquet

4、安装python-snappy。

conda install python-snappy

5、读取文件

##namenode mode:
from hdfs3 import HDFileSystem
from fastparquet import ParquetFile
 
hdfs = HDFileSystem(host=IP, port=8020)
sc = hdfs.open
 
pf = ParquetFile(filename, open_with=sc)
df = pf.to_pandas()
 
##返回pandas的DataFrame类型
 
##HA mode:
from hdfs3 import HDFileSystem
from fastparquet import ParquetFile
 
host = "nameservice1"
conf = {
    "dfs.nameservices":"nameservice1",
    ......
}
hdfs = HDFileSystem(host = host, pars = conf)
......

python访问HDFS HA的三种方法

python访问hdfs常用的包有三个,如下:

1、hdfs3

其实从安装便捷性和使用上来说,并不推荐hdfs3,因为他的系统依赖和网络要求较高,但是某些情况下使用hdfs3会比较方便,官网资料点这里。如上面介绍,IP直接访问namenode:

from hdfs3 import HDFileSystem
hdfs = HDFileSystem(host=namenode, port=8020)
hdfs.ls('/tmp')

HA访问:

host = "nameservice1"
conf = {"dfs.nameservices": "nameservice1",
    "dfs.ha.namenodes.nameservice1": "namenode113,namenode188",
    "dfs.namenode.rpc-address.nameservice1.namenode113": "hostname_of_server1:8020",
    "dfs.namenode.rpc-address.nameservice1.namenode188": "hostname_of_server2:8020",
    "dfs.namenode.http-address.nameservice1.namenode188": "hostname_of_server1:50070",
    "dfs.namenode.http-address.nameservice1.namenode188": "hostname_of_server2:50070",
    "hadoop.security.authentication": "kerberos"
}
fs = HDFileSystem(host=host, pars=conf)
 
##或者下面这种配置
host = "ns1"
conf = {
    "dfs.nameservices":"ns1",
 "dfs.ha.namenodes.ns1":"namenode122,namenode115",
 "dfs.namenode.rpc-address.ns1.namenode122":"nnlab01:8020",
 "dfs.namenode.servicerpc-address.ns1.namenode122":"nnlab01:8022",
 "dfs.namenode.http-address.ns1.namenode122":"nnlab01:50070",
 "dfs.namenode.https-address.ns1.namenode122":"nnlab01:50470",
 "dfs.namenode.rpc-address.ns1.namenode115":"nnlab02:8020",
 "dfs.namenode.servicerpc-address.ns1.namenode115":"nnlab02:8022",
 "dfs.namenode.http-address.ns1.namenode115":"nnlab02:50070",
 "dfs.namenode.https-address.ns1.namenode115":"nnlab02:50470",
}
hdfs = HDFileSystem(host = host, pars = conf)

2、hdfs

这种方法在使用的时候配置比较简单,官网资料也比较丰富,但是需要注意的是该API可以模拟用户访问,权限较大。IP直接访问:

import hdfs
client = hdfs.client.InsecureClient(url="http://namenode:50070", user="hdfs")

HA访问:

import hdfs
client = hdfs.client.InsecureClient(url="http://namenode1:50070;http://namenode2:50070", user="hdfs")

3、pyhdfs

安装命令:pip install PyHDFS

官网地址,直接访问:

import pyhdfs
client = pyhdfs.HdfsClient(hosts="namenode:50070",user_name="hdfs")

HA访问

import pyhdfs
client = pyhdfs.HdfsClient(hosts=["namenode1:50070","namenode2:50070"],user_name="hdfs")

补充知识:python spark中parquet文件写到hdfs,同时避免太多的小文件(block小文件合并)

在pyspark中,使用数据框的文件写出函数write.parquet经常会生成太多的小文件,例如申请了100个block,而每个block中的结果

只有几百K,这在机器学习算法的结果输出中经常出现,这是一种很大的资源浪费,那么如何同时避免太多的小文件(block小文件合并)?

其实有一种简单方法,该方法需要你对输出结果的数据量有个大概估计,然后使用Dataframe中的coalesce函数来指定输出的block数量

即可,具体使用代码如下:

df.coalesce(2).write.parquet(path,mode)

这里df是指你要写出的数据框,coalesce(2)指定了写到2个block中,一个block默认128M,path是你的写出路径,mode是写出模式,常用的是

"overwrite"和"append"。

以上这篇python读取hdfs上的parquet文件方式就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持脚本之家。

相关文章

  • Python3.5以上版本lxml导入etree报错的解决方案

    Python3.5以上版本lxml导入etree报错的解决方案

    这篇文章主要介绍了Python3.5以上版本lxml导入etree报错的解决方案,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
    2019-06-06
  • Python 执行字符串表达式函数(eval exec execfile)

    Python 执行字符串表达式函数(eval exec execfile)

    今天在网上搜寻一些应用的例子时,发现有人用TK仅仅几行代码就写了个简易的计算器,惊为天人。回忆起刚学软件技术基础时编写简易计算器的艰辛,顿时泪流满面
    2014-08-08
  • 一文带你了解Python中pymysql的使用

    一文带你了解Python中pymysql的使用

    pymysql就是联通mysql实现python窗口与mysql数据库交互的库,十分方便操作,这篇文章将详细说明如何掌握并使用该库,感兴趣的可以了解一下
    2023-02-02
  • python优化测试稳定性的失败重试工具pytest-rerunfailures详解

    python优化测试稳定性的失败重试工具pytest-rerunfailures详解

    笔者在执行自动化测试用例时,会发现有时候用例失败并非代码问题,而是由于服务正在发版,导致请求失败,从而降低了自动化用例的稳定性,那该如何增加失败重试机制呢?带着问题我们一起探索
    2023-10-10
  • python实现获取Ip归属地等信息

    python实现获取Ip归属地等信息

    本文给大家简单介绍了下如何使用Python实现获取IP归属地信息的方法和代码,非常的实用,有需要的小伙伴可以参考下
    2016-08-08
  • 使用 Python 和 Selenium 解决 Cloudflare 验证码的问题

    使用 Python 和 Selenium 解决 Cloudflare&

    Cloudflare 验证码是一种用于区分人类用户和自动化机器人的功能,它是 Cloudflare 安全服务的重要组成部分,旨在防御网站免受自动化攻击和滥用,这篇文章主要介绍了使用 Python 和 Selenium 解决 Cloudflare 验证码,需要的朋友可以参考下
    2024-06-06
  • python算法学习之桶排序算法实例(分块排序)

    python算法学习之桶排序算法实例(分块排序)

    本代码介绍了python算法学习中的桶排序算法实例,大家参考使用吧
    2013-12-12
  • Python聚类算法之DBSACN实例分析

    Python聚类算法之DBSACN实例分析

    这篇文章主要介绍了Python聚类算法之DBSACN,结合实例形式详细分析了DBSACN算法的原理与具体实现技巧,具有一定参考借鉴价值,需要的朋友可以参考下
    2015-11-11
  • 发布你的Python模块详解

    发布你的Python模块详解

    这篇文章主要介绍了发布你的Python模块详解的相关资料,需要的朋友可以参考下
    2016-09-09
  • Python的pywifi无线网络库的具体使用

    Python的pywifi无线网络库的具体使用

    pywifi是一个基于Python的用于操作无线网络的库,本文就来介绍一下pywifi的安装及实际应用场景使用,具有一定的参考价值,感兴趣的可以了解一下
    2024-02-02

最新评论