博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
39、Parquet数据源之自动分区推断&合并元数据
阅读量:5220 次
发布时间:2019-06-14

本文共 8675 字,大约阅读时间需要 28 分钟。

一、自动分区推断

1、概述

表分区是一种常见的优化方式,比如Hive中就提供了表分区的特性。在一个分区表中,不同分区的数据通常存储在不同的目录中,分区列的值通常就包含在了分区目录的目录名中。Spark SQL中的Parquet数据源,支持自动根据目录名推断出分区信息。例如,如果将人口数据存储在分区表中,并且使用性别和国家作为分区列。那么目录结构可能如下所示:tableName  |- gender=male    |- country=US      ...      ...      ...    |- country=CN      ...  |- gender=female    |- country=US      ...    |- country=CH      ... 如果将/tableName传入SQLContext.read.parquet()或者SQLContext.read.load()方法,那么Spark SQL就会自动根据目录结构,推断出分区信息,是gender和country。即使数据文件中只包含了两列值,name和age,但是Spark SQL返回的DataFrame,调用printSchema()方法时,会打印出四个列的值:name,age,country,gender。这就是自动分区推断的功能。此外,分区列的数据类型,也是自动被推断出来的。目前,Spark SQL仅支持自动推断出数字类型和字符串类型。有时,用户也许不希望Spark SQL自动推断分区列的数据类型。此时只要设置一个配置即可, spark.sql.sources.partitionColumnTypeInference.enabled,默认为true,即自动推断分区列的类型,设置为false,即不会自动推断类型。禁止自动推断分区列的类型时,所有分区列的类型,就统一默认都是String。案例:自动推断用户数据的性别和国家

2、java案例实现

##创建hdfs目录,上传文件##创建了一个users目录,之下又创建了性别=男,国家=US两个目录[root@spark1 sql]# hdfs dfs -mkdir /spark-study/users[root@spark1 sql]# hdfs dfs -mkdir /spark-study/users/gender=male[root@spark1 sql]# hdfs dfs -mkdir /spark-study/users/gender=male/country=US[root@spark1 sql]# hdfs dfs -put users.parquet /spark-study/users/gender=male/country=US--------------package cn.spark.study.sql;import org.apache.spark.SparkConf;import org.apache.spark.api.java.JavaSparkContext;import org.apache.spark.sql.DataFrame;import org.apache.spark.sql.SQLContext;public class ParquetPartitionDiscovery {    public static void main(String[] args) {        SparkConf conf = new SparkConf().setAppName("ParquetPartitionDiscovery");        JavaSparkContext sc = new JavaSparkContext();        SQLContext sqlConf = new SQLContext(sc);                DataFrame usersDF = sqlConf.read().parquet("hdfs://spark1:9000/spark-study/users/gender=male/country=US/users.parquet");                usersDF.printSchema();        usersDF.show();            }        }##打包、上传##运行脚本[root@spark1 sql]# cat ParquetPartitionDiscovery.sh /usr/local/spark-1.5.1-bin-hadoop2.4/bin/spark-submit \--class cn.spark.study.sql.ParquetPartitionDiscovery \--num-executors 3 \--driver-memory 100m \--executor-memory 100m \--executor-cores 3 \--files /usr/local/hive/conf/hive-site.xml \--driver-class-path /usr/local/hive/lib/mysql-connector-java-5.1.17.jar \/usr/local/spark-study/java/sql/saprk-study-java-0.0.1-SNAPSHOT-jar-with-dependencies.jar \##结果##可见,已经自动推断出了性别=男,国家=US两个分区,并加到了字段中+------+--------------+----------------+------+-------+|  name|favorite_color|favorite_numbers|gender|country|+------+--------------+----------------+------+-------+|Alyssa|          null|  [3, 9, 15, 20]|  male|     US||   Ben|           red|              []|  male|     US|+------+--------------+----------------+------+-------+

二、合并元数据

1、概述

如同ProtocolBuffer,Avro,Thrift一样,Parquet也是支持元数据合并的。用户可以在一开始就定义一个简单的元数据,然后随着业务需要,逐渐往元数据中添加更多的列。在这种情况下,用户可能会创建多个Parquet文件,有着多个不同的但是却互相兼容的元数据。Parquet数据源支持自动推断出这种情况,并且进行多个Parquet文件的元数据的合并。因为元数据合并是一种相对耗时的操作,而且在大多数情况下不是一种必要的特性,从Spark 1.5.0版本开始,默认是关闭Parquet文件的自动合并元数据的特性的。可以通过以下两种方式开启Parquet数据源的自动合并元数据的特性:1、读取Parquet文件时,将数据源的选项,mergeSchema,设置为true2、使用SQLContext.setConf()方法,将spark.sql.parquet.mergeSchema参数设置为true案例:合并学生的基本信息,和成绩信息的元数据

2、scala案例实现

package cn.spark.study.sqlimport org.apache.spark.SparkConfimport org.apache.spark.SparkContextimport org.apache.spark.sql.SQLContextimport org.apache.spark.sql.SaveModeobject ParquetMergeSchema {  def main(args: Array[String]) {    val conf = new SparkConf().setAppName("ParquetMergeSchema")    val sc = new SparkContext(conf)    val sqlContext = new SQLContext(sc)        import sqlContext.implicits._        // 创建一个DataFrame,作为学生的基本信息,并写入一个parquet文件中    // toSeq转换为 Seq; Seq是列表,适合存有序重复数据,进行快速插入/删除元素等场景    // sc.parallelize: 创建并行集合,2:指定了将数据集切分为2份    val studentWithNameAge = Array(("leo", 30), ("jack", 26)).toSeq    val studentWithNameAgeDF = sc.parallelize(studentWithNameAge, 2).toDF("name", "age")    studentWithNameAgeDF.save("hdfs://spark1:9000/spark-study/students", "parquet", SaveMode.Append)        // 创建第二个DataFrame,作为学生的成绩信息,并写入一个parquet文件中    val studentWithNameGrade = Array(("tom", "A"), ("marry", "B")).toSeq    val studentWithNameGradeDF = sc.parallelize(studentWithNameGrade, 2).toDF("name", "grade")    studentWithNameGradeDF.save("hdfs://spark1:9000/spark-study/students", "parquet", SaveMode.Append)        // 首先,第一个DataFrame和第二个DataFrame的元数据肯定是不一样的    // 一个是包含了name和age两个列,一个是包含了name和grade两个列    // 所以, 这里期望的是,读取出来的表数据,自动合并两个文件的元数据,出现三个列,name、age、grade        // 用mergeSchema的方式,读取students表中的数据,进行元数据的合并    val students = sqlContext.read.option("mergeSchema", "true")      .parquet("hdfs://spark1:9000/spark-study/students")          students.printSchema()    students.show()      }}##打包--上传--运行##运行脚本[root@spark1 sql]# cat ParquetMergeSchema.sh /usr/local/spark-1.5.1-bin-hadoop2.4/bin/spark-submit \--class cn.spark.study.sql.ParquetMergeSchema \--num-executors 3 \--driver-memory 100m \--executor-memory 100m \--executor-cores 3 \--files /usr/local/hive/conf/hive-site.xml \--driver-class-path /usr/local/hive/lib/mysql-connector-java-5.1.17.jar \/usr/local/spark-study/scala/sql/spark-study-scala.jar \##结果,两个DataFrame元数据已合并+-----+----+-----+| name| age|grade|+-----+----+-----+|  leo|  30| null|| jack|  26| null||marry|null|    B||  tom|null|    A|+-----+----+-----+

3、java案例实现

package cn.spark.study.sql;import java.util.ArrayList;import java.util.List;import org.apache.spark.SparkConf;import org.apache.spark.api.java.JavaRDD;import org.apache.spark.api.java.JavaSparkContext;import org.apache.spark.api.java.function.Function;import org.apache.spark.sql.DataFrame;import org.apache.spark.sql.Row;import org.apache.spark.sql.RowFactory;import org.apache.spark.sql.SQLContext;import org.apache.spark.sql.SaveMode;import org.apache.spark.sql.types.DataTypes;import org.apache.spark.sql.types.StructField;import org.apache.spark.sql.types.StructType;public class ParquetMergeSchema {    public static void main(String[] args) {        SparkConf conf = new SparkConf().setAppName("ParquetMergeSchemaJava").setMaster("local");        JavaSparkContext sparkContext = new JavaSparkContext(conf);        SQLContext sqlContext = new SQLContext(sparkContext);         // 创建一个DataFrame,作为学生的基本信息,并写入一个parquet文件中        List
studentWithNameAndAge = new ArrayList
(); studentWithNameAndAge.add("tom,18"); studentWithNameAndAge.add("jarry,17"); JavaRDD
studentWithNameAndAgeRDD = sparkContext.parallelize(studentWithNameAndAge, 2); JavaRDD
studentWithNameAndAgeRowRDD = studentWithNameAndAgeRDD .map(new Function
() { @Override public Row call(String v1) throws Exception { return RowFactory.create(v1.split(",")[0], Integer.parseInt(v1.split(",")[1])); } }); List
fieldList = new ArrayList
(); fieldList.add(DataTypes.createStructField("name", DataTypes.StringType, true)); fieldList.add(DataTypes.createStructField("age", DataTypes.IntegerType, true)); StructType structType = DataTypes.createStructType(fieldList); DataFrame studentWithNameAndAgeDF = sqlContext.createDataFrame(studentWithNameAndAgeRowRDD, structType); studentWithNameAndAgeDF.write().format("parquet").mode(SaveMode.Append) .save("hdfs://spark1:9000/spark-study/students"); // 创建第二个DataFrame,作为学生的成绩信息,并写入一个parquet文件中 List
studentWithNameAndGrade = new ArrayList
(); studentWithNameAndGrade.add("leo,B"); studentWithNameAndGrade.add("jack,A"); JavaRDD
studentWithNameAndGradeRDD = sparkContext.parallelize(studentWithNameAndGrade, 2); JavaRDD
studentWithNameAndGradeRowRDD = studentWithNameAndGradeRDD .map(new Function
() { @Override public Row call(String v1) throws Exception { return RowFactory.create(v1.split(",")[0], v1.split(",")[1]); } }); fieldList = new ArrayList
(); fieldList.add(DataTypes.createStructField("name", DataTypes.StringType, true)); fieldList.add(DataTypes.createStructField("grade", DataTypes.StringType, true)); structType = DataTypes.createStructType(fieldList); DataFrame studentWithNameAndGradeDF = sqlContext.createDataFrame(studentWithNameAndGradeRowRDD, structType); studentWithNameAndGradeDF.write().format("parquet").mode(SaveMode.Append) .save("hdfs://spark1:9000/spark-study/students"); // 首先,第一个DataFrame和第二个DataFrame的元数据肯定是不一样的吧 // 一个是包含了name和age两个列,一个是包含了name和grade两个列 // 所以, 这里期望的是,读取出来的表数据,自动合并两个文件的元数据,出现三个列,name、age、grade // 用mergeSchema的方式,读取students表中的数据,进行元数据的合并 DataFrame df = sqlContext.read().option("mergeSchema", "true") .parquet("hdfs://spark1:9000/spark-study/students"); df.schema(); df.show(); }}

转载于:https://www.cnblogs.com/weiyiming007/p/11277227.html

你可能感兴趣的文章
UML期末复习题——2.9:UML Deployment Diagram
查看>>
在微信公众号开发(微站)过程中用Zepto/jquery的on/live绑定的click事件点击无效(不能执行)...
查看>>
django后台处理前端上传和显示图片
查看>>
3. express 框架使用 vue框架 weiUI
查看>>
实例化积累
查看>>
求解单源最短路问题:Bellman-Ford算法(可判负权回路)详解 之 poj 3268 Silver Cow Party...
查看>>
节点属性(DOM对象)
查看>>
重回游戏开发-第7周
查看>>
【转载】VC维,结构风险最小化
查看>>
【转】linux HZ Tick Jiffies
查看>>
【探路者】团队第一周贡献分数分配结果
查看>>
计算方法 读书笔记
查看>>
css3之 media query 使用(转)
查看>>
【单源最短路模板】 poj 2387
查看>>
思想总结
查看>>
BZOJ 1012 洛谷1198 最大数 maxnumber
查看>>
如何提升程序员的工作效率?
查看>>
html学习笔记(2)-字母大小写转换练习
查看>>
Outlook-----use cached exchange mode在注册表中的值
查看>>
Java中跳出for循环的方法
查看>>