IDEA 中使用 Hudi的示例代码

作者:小胡今天有变强吗 时间:2021-08-27 21:51:04 

环境准备

创建 Maven 项目创建服务器远程连接
Tools------Delployment-----Browse Remote Host

IDEA 中使用 Hudi的示例代码

设置如下内容:

IDEA 中使用 Hudi的示例代码

在这里输入服务器的账号和密码

IDEA 中使用 Hudi的示例代码

点击Test Connection,提示Successfully的话,就说明配置成功。

IDEA 中使用 Hudi的示例代码

复制Hadoop的 core-site.xml、hdfs-site.xml 以及 log4j.properties 三个文件复制到resources文件夹下。

IDEA 中使用 Hudi的示例代码

设置 log4j.properties 为打印警告异常信息:

log4j.rootCategory=WARN, console

4.添加 pom.xml 文件

<repositories>
       <repository>
           <id>aliyun</id>
           <url>http://maven.aliyun.com/nexus/content/groups/public/</url>
       </repository>
       <repository>
           <id>cloudera</id>
           <url>https://repository.cloudera.com/artifactory/cloudera-repos/</url>
       </repository>
       <repository>
           <id>jboss</id>
           <url>http://repository.jboss.com/nexus/content/groups/public</url>
       </repository>
   </repositories>

<properties>
       <scala.version>2.12.10</scala.version>
       <scala.binary.version>2.12</scala.binary.version>
       <spark.version>3.0.0</spark.version>
       <hadoop.version>2.7.3</hadoop.version>
       <hudi.version>0.9.0</hudi.version>
   </properties>

<dependencies>
       <!-- 依赖Scala语言 -->
       <dependency>
           <groupId>org.scala-lang</groupId>
           <artifactId>scala-library</artifactId>
           <version>${scala.version}</version>
       </dependency>
       <!-- Spark Core 依赖 -->
       <dependency>
           <groupId>org.apache.spark</groupId>
           <artifactId>spark-core_${scala.binary.version}</artifactId>
           <version>${spark.version}</version>
       </dependency>
       <!-- Spark SQL 依赖 -->
       <dependency>
           <groupId>org.apache.spark</groupId>
           <artifactId>spark-sql_${scala.binary.version}</artifactId>
           <version>${spark.version}</version>
       </dependency>

<!-- Hadoop Client 依赖 -->
       <dependency>
           <groupId>org.apache.hadoop</groupId>
           <artifactId>hadoop-client</artifactId>
           <version>${hadoop.version}</version>
       </dependency>

<!-- hudi-spark3 -->
       <dependency>
           <groupId>org.apache.hudi</groupId>
           <artifactId>hudi-spark3-bundle_2.12</artifactId>
           <version>${hudi.version}</version>
       </dependency>
       <dependency>
           <groupId>org.apache.spark</groupId>
           <artifactId>spark-avro_2.12</artifactId>
           <version>${spark.version}</version>
       </dependency>

</dependencies>

<build>
       <outputDirectory>target/classes</outputDirectory>
       <testOutputDirectory>target/test-classes</testOutputDirectory>
       <resources>
           <resource>
               <directory>${project.basedir}/src/main/resources</directory>
           </resource>
       </resources>
       <!-- Maven 编译的插件 -->
       <plugins>
           <plugin>
               <groupId>org.apache.maven.plugins</groupId>
               <artifactId>maven-compiler-plugin</artifactId>
               <version>3.0</version>
               <configuration>
                   <source>1.8</source>
                   <target>1.8</target>
                   <encoding>UTF-8</encoding>
               </configuration>
           </plugin>
           <plugin>
               <groupId>net.alchim31.maven</groupId>
               <artifactId>scala-maven-plugin</artifactId>
               <version>3.2.0</version>
               <executions>
                   <execution>
                       <goals>
                           <goal>compile</goal>
                           <goal>testCompile</goal>
                       </goals>
                   </execution>
               </executions>
           </plugin>
       </plugins>
   </build>

要注释掉创建项目时的生成的下面的代码,不然依赖一直报错:

<!--    <properties>-->
<!--        <maven.compiler.source>8</maven.compiler.source>-->
<!--        <maven.compiler.target>8</maven.compiler.target>-->
<!--    </properties>-->

代码结构:

IDEA 中使用 Hudi的示例代码

核心代码

import org.apache.hudi.QuickstartUtils.DataGenerator
import org.apache.spark.sql.{DataFrame, SaveMode, SparkSession}
/**
* Hudi 数据湖的框架,基于Spark计算引擎,对数据进行CURD操作,使用官方模拟赛生成的出租车出行数据
*
* 任务一:模拟数据,插入Hudi表,采用COW模式
* 任务二:快照方式查询(Snapshot Query)数据,采用DSL方式
* 任务三:更新(Update)数据
* 任务四:增量查询(Incremental Query)数据,采用SQL方式
* 任务五:删除(Delete)数据
*/
object HudiSparkDemo {
 /**
  * 官方案例:模拟产生数据,插入Hudi表,表的类型为COW
  */
 def insertData(spark: SparkSession, table: String, path: String): Unit = {
   import spark.implicits._
   // 第1步、模拟乘车数据
   import org.apache.hudi.QuickstartUtils._
   val dataGen: DataGenerator = new DataGenerator()
   val inserts = convertToStringList(dataGen.generateInserts(100))
   import scala.collection.JavaConverters._
   val insertDF: DataFrame = spark.read.json(
     spark.sparkContext.parallelize(inserts.asScala, 2).toDS()
   )
//    insertDF.printSchema()
//    insertDF.show(10, truncate = false)
   //第二步: 插入数据到Hudi表
   import org.apache.hudi.DataSourceWriteOptions._
   import org.apache.hudi.config.HoodieWriteConfig._
   insertDF.write
     .mode(SaveMode.Append)
     .format("hudi")
     .option("hoodie.insert.shuffle.parallelism", 2)
     .option("hoodie.insert.shuffle.parallelism", 2)
     //Hudi表的属性设置
     .option(PRECOMBINE_FIELD.key(), "ts")
     .option(RECORDKEY_FIELD.key(), "uuid")
     .option(PARTITIONPATH_FIELD.key(), "partitionpath")
     .option(TBL_NAME.key(), table)
     .save(path)
 }
 /**
  *  采用Snapshot Query快照方式查询表的数据
  */
 def queryData(spark: SparkSession, path: String): Unit = {
   import spark.implicits._
   val tripsDF: DataFrame = spark.read.format("hudi").load(path)
//    tripsDF.printSchema()
//    tripsDF.show(10, truncate = false)
   //查询费用大于10,小于50的乘车数据
   tripsDF
     .filter($"fare" >= 20 && $"fare" <=50)
     .select($"driver", $"rider", $"fare", $"begin_lat", $"begin_lon", $"partitionpath", $"_hoodie_commit_time")
     .orderBy($"fare".desc, $"_hoodie_commit_time".desc)
     .show(20, truncate = false)
 }
 def queryDataByTime(spark: SparkSession, path: String):Unit = {
   import org.apache.spark.sql.functions._
   //方式一:指定字符串,按照日期时间过滤获取数据
   val df1 = spark.read
     .format("hudi")
     .option("as.of.instant", "20220610160908")
     .load(path)
     .sort(col("_hoodie_commit_time").desc)
   df1.printSchema()
   df1.show(numRows = 5, truncate = false)
   //方式二:指定字符串,按照日期时间过滤获取数据
   val df2 = spark.read
     .format("hudi")
     .option("as.of.instant", "2022-06-10 16:09:08")
     .load(path)
     .sort(col("_hoodie_commit_time").desc)
   df2.printSchema()
   df2.show(numRows = 5, truncate = false)
 }

/**
  * 将DataGenerator作为参数传入生成数据
  */
 def insertData(spark: SparkSession, table: String, path: String, dataGen: DataGenerator): Unit = {
   import spark.implicits._
   // 第1步、模拟乘车数据
   import org.apache.hudi.QuickstartUtils._
   val inserts = convertToStringList(dataGen.generateInserts(100))
   import scala.collection.JavaConverters._
   val insertDF: DataFrame = spark.read.json(
     spark.sparkContext.parallelize(inserts.asScala, 2).toDS()
   )
   //    insertDF.printSchema()
   //    insertDF.show(10, truncate = false)
   //第二步: 插入数据到Hudi表
   import org.apache.hudi.DataSourceWriteOptions._
   import org.apache.hudi.config.HoodieWriteConfig._
   insertDF.write
     //更换为Overwrite模式
     .mode(SaveMode.Overwrite)
     .format("hudi")
     .option("hoodie.insert.shuffle.parallelism", 2)
     .option("hoodie.insert.shuffle.parallelism", 2)
     //Hudi表的属性设置
     .option(PRECOMBINE_FIELD.key(), "ts")
     .option(RECORDKEY_FIELD.key(), "uuid")
     .option(PARTITIONPATH_FIELD.key(), "partitionpath")
     .option(TBL_NAME.key(), table)
     .save(path)
 }
 /**
  * 模拟产生Hudi表中更新数据,将其更新到Hudi表中
  */
 def updateData(spark: SparkSession, table: String, path: String, dataGen: DataGenerator):Unit = {
   import spark.implicits._
   // 第1步、模拟乘车数据
   import org.apache.hudi.QuickstartUtils._
   //产生更新的数据
   val updates = convertToStringList(dataGen.generateUpdates(100))
   import scala.collection.JavaConverters._
   val updateDF: DataFrame = spark.read.json(
     spark.sparkContext.parallelize(updates.asScala, 2).toDS()
   )
   // TOOD: 第2步、插入数据到Hudi表
   import org.apache.hudi.DataSourceWriteOptions._
   import org.apache.hudi.config.HoodieWriteConfig._
   updateDF.write
     //追加模式
     .mode(SaveMode.Append)
     .format("hudi")
     .option("hoodie.insert.shuffle.parallelism", "2")
     .option("hoodie.upsert.shuffle.parallelism", "2")
     // Hudi 表的属性值设置
     .option(PRECOMBINE_FIELD.key(), "ts")
     .option(RECORDKEY_FIELD.key(), "uuid")
     .option(PARTITIONPATH_FIELD.key(), "partitionpath")
     .option(TBL_NAME.key(), table)
     .save(path)
 }
 /**
  *  采用Incremental Query增量方式查询数据,需要指定时间戳
  */
 def incrementalQueryData(spark: SparkSession, path: String): Unit = {
   import spark.implicits._
   // 第1步、加载Hudi表数据,获取commit time时间,作为增量查询数据阈值
   import org.apache.hudi.DataSourceReadOptions._
   spark.read
     .format("hudi")
     .load(path)
     .createOrReplaceTempView("view_temp_hudi_trips")
   val commits: Array[String] = spark
     .sql(
       """
 |select
 |  distinct(_hoodie_commit_time) as commitTime
 |from
 |  view_temp_hudi_trips
 |order by
 |  commitTime DESC
 |""".stripMargin
     )
     .map(row => row.getString(0))
     .take(50)
   val beginTime = commits(commits.length - 1) // commit time we are interested in
   println(s"beginTime = ${beginTime}")
   // 第2步、设置Hudi数据CommitTime时间阈值,进行增量数据查询
   val tripsIncrementalDF = spark.read
     .format("hudi")
     // 设置查询数据模式为:incremental,增量读取
     .option(QUERY_TYPE.key(), QUERY_TYPE_INCREMENTAL_OPT_VAL)
     // 设置增量读取数据时开始时间
     .option(BEGIN_INSTANTTIME.key(), beginTime)
     .load(path)
   // 第3步、将增量查询数据注册为临时视图,查询费用大于20数据
   tripsIncrementalDF.createOrReplaceTempView("hudi_trips_incremental")
   spark
     .sql(
       """
 |select
 |  `_hoodie_commit_time`, fare, begin_lon, begin_lat, ts
 |from
 |  hudi_trips_incremental
 |where
 |  fare > 20.0
 |""".stripMargin
     )
     .show(10, truncate = false)
 }
 /**
  * 删除Hudi表数据,依据主键uuid进行删除,如果是分区表,指定分区路径
  */
 def deleteData(spark: SparkSession, table: String, path: String): Unit = {
   import spark.implicits._
   // 第1步、加载Hudi表数据,获取条目数
   val tripsDF: DataFrame = spark.read.format("hudi").load(path)
   println(s"Raw Count = ${tripsDF.count()}")
   // 第2步、模拟要删除的数据,从Hudi中加载数据,获取几条数据,转换为要删除数据集合
   val dataframe = tripsDF.limit(2).select($"uuid", $"partitionpath")
   import org.apache.hudi.QuickstartUtils._
   val dataGenerator = new DataGenerator()
   val deletes = dataGenerator.generateDeletes(dataframe.collectAsList())
   import scala.collection.JavaConverters._
   val deleteDF = spark.read.json(spark.sparkContext.parallelize(deletes.asScala, 2))
   // 第3步、保存数据到Hudi表中,设置操作类型:DELETE
   import org.apache.hudi.DataSourceWriteOptions._
   import org.apache.hudi.config.HoodieWriteConfig._
   deleteDF.write
     .mode(SaveMode.Append)
     .format("hudi")
     .option("hoodie.insert.shuffle.parallelism", "2")
     .option("hoodie.upsert.shuffle.parallelism", "2")
     // 设置数据操作类型为delete,默认值为upsert
     .option(OPERATION.key(), "delete")
     .option(PRECOMBINE_FIELD.key(), "ts")
     .option(RECORDKEY_FIELD.key(), "uuid")
     .option(PARTITIONPATH_FIELD.key(), "partitionpath")
     .option(TBL_NAME.key(), table)
     .save(path)
   // 第4步、再次加载Hudi表数据,统计条目数,查看是否减少2条数据
   val hudiDF: DataFrame = spark.read.format("hudi").load(path)
   println(s"Delete After Count = ${hudiDF.count()}")
 }
 def main(args: Array[String]): Unit = {
   System.setProperty("HADOOP_USER_NAME","hty")
   //创建SparkSession示例对象,设置属性
   val spark: SparkSession = {
     SparkSession.builder()
       .appName(this.getClass.getSimpleName.stripSuffix("$"))
       .master("local[2]")
       // 设置序列化方式:Kryo
       .config("spark.serializer", "org.apache.spark.serializer.KryoSerializer")
       .getOrCreate()
   }
   //定义变量:表名称、保存路径
   val tableName: String = "tbl_trips_cow"
   val tablePath: String = "/hudi_warehouse/tbl_trips_cow"
   //构建数据生成器,模拟产生业务数据
   import org.apache.hudi.QuickstartUtils._
   //任务一:模拟数据,插入Hudi表,采用COW模式
   //insertData(spark, tableName, tablePath)
    //任务二:快照方式查询(Snapshot Query)数据,采用DSL方式
     //queryData(spark, tablePath)
   //queryDataByTime(spark, tablePath)
   // 任务三:更新(Update)数据,第1步、模拟产生数据,第2步、模拟产生数据,针对第1步数据字段值更新,
   // 第3步、将数据更新到Hudi表中
   val dataGen: DataGenerator = new DataGenerator()
   //insertData(spark, tableName, tablePath, dataGen)
   //updateData(spark, tableName, tablePath, dataGen)
   //任务四:增量查询(Incremental Query)数据,采用SQL方式
   //incrementalQueryData(spark, tablePath)
   //任务五:删除(Delete)数据
   deleteData(spark, tableName,tablePath)
   //应用结束,关闭资源
   spark.stop()
 }
}

测试

执行 insertData(spark, tableName, tablePath) 方法后对其用快照查询的方式进行查询:

queryData(spark, tablePath)

IDEA 中使用 Hudi的示例代码

增量查询(Incremental Query)数据:

incrementalQueryData(spark, tablePath)

IDEA 中使用 Hudi的示例代码

参考资料

https://www.bilibili.com/video/BV1sb4y1n7hK?p=21&vd_source=e21134e00867aeadc3c6b37bb38b9eee

来源:https://blog.csdn.net/hshudoudou/article/details/125238052

标签:IDEA,Hudi
0
投稿

猜你喜欢

  • java实现变更文件查询的方法

    2022-07-29 04:55:37
  • C#实现给Word每一页设置不同文字水印的方法详解

    2023-07-01 18:49:40
  • java创建子类对象设置并调用父类的变量操作

    2023-10-13 18:16:13
  • Android仿百度图片查看功能

    2023-09-26 07:50:24
  • 深入分析JAVA 建造者模式

    2023-03-14 01:32:27
  • Cors实现java后端完全跨域实例

    2022-01-04 15:03:33
  • Maven中的SnapShot版本和正式版本的区别

    2023-11-03 16:31:46
  • Java VisualVM监控远程JVM(详解)

    2022-07-10 15:59:15
  • java写卷积神经网络(CupCnn简介)

    2022-12-11 09:33:09
  • Android Handler,Message,MessageQueue,Loper源码解析详解

    2022-04-17 17:34:57
  • Python代码一键转Jar包及Java调用Python新姿势

    2023-02-13 08:16:22
  • 在Android界面上显示和获取Logcat日志输出的方法

    2023-02-19 20:02:19
  • Reactor中的onErrorContinue 和 onErrorResume

    2022-12-01 14:30:58
  • asp.net之生成验证码的方法集锦(一)

    2022-09-07 22:37:13
  • C#中字符串的一般性和特殊性

    2023-03-23 19:06:07
  • Android中通过样式来去除app的头及界面全屏(备忘)的实现方法

    2023-07-30 00:03:23
  • Java ArrayList中存放引用数据类型的方式

    2023-11-16 15:23:46
  • Android仿腾讯视频实现悬浮窗效果

    2021-06-16 00:49:23
  • Android 实现全屏和无标题栏的显示

    2023-08-23 14:24:23
  • 基于Android LayoutInflater的使用介绍

    2023-12-22 23:50:03
  • asp之家 软件编程 m.aspxhome.com