全部版块 我的主页
论坛 数据科学与人工智能 大数据分析 spark高速集群计算平台
2826 0
2016-06-13

一、Spark SQL下的Parquet使用最佳实践

1)过去整个业界对大数据的分析的技术栈的Pipeline一般分为以下两种方式:

a)Data Source -> HDFS -> MR/Hive/Spark(相当于ETL)-> HDFS Parquet -> Spark SQL/Impala -> ResultService(可以放在DB中,也有可能被通过JDBC/ODBC来作为数据服务使用);

b)Data Source -> Real timeupdate data to HBase/DB -> Export to Parquet -> Spark SQL/Impala -> ResultService(可以放在DB中,也有可能被通过JDBC/ODBC来作为数据服务使用);

上述的第二种方式完全可以通过Kafka+Spark Streaming+Spark SQL(内部也强烈建议采用Parquet的方式来存储数据)的方式取代

2)期待的方式:DataSource -> Kafka -> Spark Streaming -> Parquet -> Spark SQL(ML、GraphX等)-> Parquet -> 其它各种Data Mining等。


二、Parquet的精要介绍

1)Parquet是列式存储格式的一种文件类型,列式存储有以下的核心优势:

a)可以跳过不符合条件的数据,只读取需要的数据,降低IO数据量。

b)压缩编码可以降低磁盘存储空间。由于同一列的数据类型是一样的,可以使用更高效的压缩编码(例如RunLength Encoding和Delta Encoding)进一步节约存储空间。

c)只读取需要的列,支持向量运算,能够获取更好的扫描性能。


三、代码实战

Java版本:

复制代码

Schema Merging

Java版本:

复制代码

输出结果如下:

复制代码

Scala版本:

复制代码


注:本学习笔记来自DT大数据梦工厂


二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群